應用開發者的疑問:大模型是真正的銀彈嗎?

被當成銀彈的大模型

ChatGPT 火了之後,大模型似乎被當成了真正的銀彈,所有的體驗問題都想通過大模型解決:

  • 能不能和大模型對話訂機票?
  • 自然語言生成 SQL,簡化報表分析工作?
  • 大模型幫老年人操作軟件?
  • 能不能用於識別敏感信息?
  • ......

似乎大模型成了自然語言工程領域的真正銀彈。但是我依稀記得 《人月神話》作者 Fred Brooks 所說的 “軟件工程沒有銀彈”;以及華爾街投資大師們說的 “當所有人都在談論一件事情的時候,說明這件事情已經出現了泡沫”。 這裏就想和大家簡單討論下大模型的侷限以及真正的適用場景。本人不是專業搞算法的,還希望算法大佬們多多發表觀點。

大模型是銀彈嗎?

把一些軟件功能接入大模型,精度之類的問題或許還可以通過大量的訓練解決。但是當真正面對終端用戶時,下面這些問題卻可能導致大模型不是最優解法。

昂貴的費用

吳軍的著作《浪潮之巔》認爲,互聯網和計算機軟件行業能快速擴張這麼多年的重要原因就是其很低的擴張成本。傳統行業,比如福特汽車,每賣出一輛汽車,就必須付出一輛車的生產成本,甚至要擴建廠房等等,這最終使得福特汽車的規模擴張不再划算,不得不市場份額讓給其他廠商。而計算機軟件可以幾乎零成本的複製擴張,互聯網軟件增加一個用戶也幾乎沒啥服務器成本,就很容易形成贏者通喫的局面。這件事在大模型軟件上可能就不太一樣了。OpenAI 能夠將大模型的免費使用擴張到如此規模,很大程度上得益於微軟的投資,據傳言,微軟給 OpenAI 投資過數百億美元。我們暫且不討論大廠花費數億訓練費用的回本問題,只看 API 調用費用,也是一筆不太划算的買賣。目前我維護的應用每臺機器的 qps 大約平均在三百左右(按一天 8 小時平均,非峯值),在阿里雲上這樣的機器如果按 2M 帶寬,每年的租賃費用大約在 3373元,平均到每天只需要 9 元。而假如應用全面接入了大模型,每次調用都是大模型產生的,目前 Open AI 的是按 token 收費的,最便宜的 GPT-3.5 Turbo 模型的價格是 0.0015 美元每 1000 token 輸入,0.002 美元每 1000 token 輸出,這算成人民幣我們就簡單估計成每 1000 token 輸入輸出 2 分錢,也就是 0.02 元。

就算每次請求只耗費 10 token,假設機器是 200 qps,每天 8 小時,一天也需要消耗 0.02*(200*60*60*8*10/1000)=1152 元。模型所消耗的費用是應用服務器費用的 100 多倍。

具體背後 Open AI 自己的成本是多少,就更不得而知,甚至有人認爲目前 Open AI 爲了快速搶佔市場,是在虧本賣的。

這就讓應用的規模成本大大增加了,幾乎不可能是一個完全免費給用戶使用的產品。

雖然我相信在將來隨着技術進步,成本會大幅度下降,但是大概率不是最近。

緩慢的計算速度

對於 ChatGPT 純粹的聊天機器人,可以通過一個字一個字的流式輸出來緩解計算速度緩慢的問題。但是對於想要通過它生成接口參數或者 SQL 的應用工程師來說,必須等待它完整生成完成,才能調用接口將結果返回給用戶。

而高性能計算機這麼多年的發展已經讓用戶習慣了快速響應的操作界面,現代人的時間都非常寶貴,不可能爲了省幾個步驟,卻去等待更長的時間。

多餘的功能

大模型很強大,能夠回答科學問題,可以寫詩,還能夠編故事,甚至是生成軟件破譯序列碼。。。

但是這些功能對我生成應用接口參數有什麼用?反而容易產生法律風險,使用者通過簡單的 “AI 投毒”,就能引導大模型回答出帶有偏見歧視的答案,而防範這個卻需要付出巨大的代價,甚至防不勝防,比如之前很有意思的 ChatGPT奶奶漏洞 [1]。

每當一門技術火爆的時候,工程師們總是躍躍欲試。在大數據火爆的時候,哪怕系統裏只有幾條數據,也要上 Flink。大模型也有類似的問題,就爲了生成幾個 CRUD 的接口參數,就上昂貴,緩慢又容易出法律問題的大模型。而忽視了傳統計算簡單,快速且易於控制的優勢。

除了大模型之外的 NLP 技術有哪些?

大模型和傳統 NLP 技術從算力消耗和能力上,都給人非常直觀的差別,所以才能火出圈。大模型的定義又是什麼呢?維基百科詞條[2]對它的定義是,神經網絡中的參數超過十億的深度學習模型。所有的大模型都其實來源於 Google 在 2017 年發表的 Transformer 論文,我們這裏暫時認爲所有基於 Transformer 的都是大模型,下圖是網上很火的大模型發展樹來源[3]:

在大模型火之前,雖然國內之前也有天貓精靈,科大訊飛等對話機器人產品,但是似乎沒有多少應用通過自然語言提供功能。甚至連專長做 im 的應用釘釘,似乎也沒有想要通過自然語言實現應用功能的想法。

但是根據我國外朋友的說法,因爲國外人力成本高,很早以前,他們的很多應用就在通過對話提供功能。他們甚至連交電費的 APP 都支持通過對話繳納電費。

我本身也不是 NLP 領域的從業人員,對於大模型之外的 NLP 技術只能拋磚引玉:

  • 規則語言模型

1.其實就是程序員常說的硬編碼,使用類似於正則模式匹配的方式對自然語言進行處理,雖然現在聽起來很 “Low”,但是大模型火爆之前也有一些產品使用這個,這種算法雖然速度快,但是消耗人力與專業知識, 好在有語言專家已經做好了一些開源框架,比如 ChatterBot[4],Will[5] 等,Will 在 2018 年還被集成到了 Slack 中。

  • 統計語言模型

1.不再需要程序員去編碼規則,而是使用一些統計方法(比如tfidf,主成分分析),去計算語句的特徵,比如詞語的頻率,經常和哪些詞一起出現等等。通過這個統計學知識再去計算新出現的語句,常見的 主題分析,情感分析 等等都是類似的技術。

2.用來做簡單的文本分類效果很好,很多線上的垃圾郵件自動識別據說用的都是這種技術。

  • 神經語言模型

1.我們當下最熟悉的 NLP 技術,在大模型之前有 RNN,LSTM 等,後來都被基於 Transformer 的大模型碾壓。

未來

我認爲大模型不是銀彈,未來它可能往兩個方向發展:

  • 文本類的助理,比如寫作助手,口語教練,專家諮詢等等,這也是大模型的老本行;
  • 集成自動化廠商,比如 Zaiper[6],Alfred[7]等等,做一個統一的自動化助手付費產品,所有軟件的自然語言操作都通過統一的入口進行。這樣纔是對用戶更加方便的,而不是每個應用還要去找單獨的助手去提問。

其他一些更簡單的文本分類,主題識別以及情感分析等等任務,或許傳統 NLP 有更加合適的方案。

作爲一個應用開發者,並非 AI 的專業人士,文中可能有很多不專業的地方,本文純粹是拋磚引玉,希望吸引更多的專業人士前來討論。

參考鏈接:

[1]ChatGPT「奶奶漏洞」火了,竟能騙出Win11祕鑰,信息安全問題令人深思! - 知乎

[2]https://zh.wikipedia.org/wiki/大型語言模型

[3]https://github.com/Mooler0410/LLMsPracticalGuide

[4]https://github.com/gunthercox/ChatterBot

[5]https://pypi.org/project/will/

[6]https://zapier.com/

[7]https://www.alfredapp.com/

作者|懸衡

點擊立即免費試用雲產品 開啓雲上實踐之旅!

原文鏈接

本文爲阿里雲原創內容,未經允許不得轉載

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章