金融大模型落地新挑戰

文章學習:外灘大會 | 金智塔科技首席科學家鄭小林教授出席大會探討金融大模型落地新挑戰

大模型的構建非常依賴算料、算力,對高校而言,從模型合規性、隱私保護的角度去做研究是很好的切入點。依託浙大科研團隊,金智塔科技在大模型的研究中發現絕大多數的數據都分佈在客戶手中,比如金融機構場景建設需要用到政務數據,在運營商無法聚集這部分數據、金融數據也無法給予對方的現實情況下,如何訓練金融大模型?傳統的聯邦學習(FL)和多方安全計算(MPC)如何融入大模型?這兩點在性能和通訊上面臨巨大的挑戰,而用可信執行環境(TEE)的方式也會碰到芯片的限制,鄭教授表示這些問題一旦解決,金融大模型落地便未來可期。

隱私計算可用在大模型的數據的預訓練,數據收集

針對金融大模型在落地實施中的挑戰,鄭教授表示最大的挑戰依然是安全與合規。他提出了三個思考角度:

1、用戶角度。在金融機構做模型訓練的時候,如何確保用戶數據的安全性,金融數據和用戶數據分別如何保存,模型是否可以在機構內部私有化部署,外部數據又如何融入進來,這些是需要去思考的;

用戶數據安全問題

2、平臺擁有方角度。平臺擁有方需要評估模型安全。模型本身是否會被攻擊,模型訓練的語料在交互的時候是否被惡意輸入與事實不相符的內容;另一方面,模型代表了知識產權,如何去開放,在底層模型越來越趨同的情況下,不同的行業訓練出來的特徵去做開放是否會被竊取;

模型安全問題和知識產權問題

3、應用角度。金融大模型與普通模型不同之處在於,金融業務各環節的決策是不允許存在偏差的,一旦模型結果有偏差,就意味着用戶的資金可能虧損,這裏我們需要思考,基於金融大模型訓練過程中的很多非線性運算,是否會產生大量誤差,而誤差是否會被累積,從而變成巨大的金融安全問題。

誤差問題

所以不管從個人、平臺方還是監管方,都要關注金融大模型落地實施過程中的數據安全問題。

鄭教授指出,傳統AI分爲三個階段,從計算到感知再到認知,認知智能是最高階段。也許當GPT迭代到第10代就可以覆蓋全人類的智慧,這意味着人類的學習方式和知識獲取方式也將做出相應改變,當AI達到頂峯,人類將來的發展空間會在哪裏?知識和智能的湧現從歷史來看都是瞬間發生,鄭教授認爲,人類和AI很大的區別在於,人類一直在學習“學習的能力”,並且擁有這項能力。未來,人類和AI並不是必須互相被替代,而是基於AI來強化人類自身的能力,最終達到人機協同,但又以人爲本的共生狀態。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章