2022年11月30日。
ChatGPT上線。
自ChatGPT發佈以來。
ChatGPT迅速“入侵”各個領域:修bug、寫代碼、寫週報、繪畫、寫小說……
文能提筆寫詩;
武能修改Bug;
風頭一時無兩。
僅用了5天。
其註冊用戶就已然突破百萬。
2023年1月底。
ChatGPT月活用戶破億,成爲史上增長最快的消費者應用。
若僅僅是這樣也就罷了。
蓋茨的“搖旗吶喊”;
布林的“代碼請求”;
以及微軟、谷歌的“大動干戈”;
徹底把ChatGPT捧上了神壇。
2月7日。
谷歌緊急宣佈推出ChatGPT競品、實驗性對話式 AI 服務Bard,並宣佈了一系列AI新戰略。
同一天。
微軟宣佈推出由ChatGPT支持的最新版本人工智能搜索引擎Bing和Edge瀏覽器。
①
ChatGPT的前景?
▽
公開資料顯示。
ChatGPT(Generative Pre-trained Transformer)是美國OpenAI公司推出的人工智能撰稿和聊天工具。
它能通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務。
GPT(Generative Pre-trained Transformer)是一系列由OpenAI提出的非常強大的預訓練語言模型,這一系列的模型基於Transformer算法,可以在非常複雜的NLP任務中取得非常驚豔的效果,例如文章生成,代碼生成,機器翻譯,Q&A等,而完成這些任務並不需要有監督學習進行模型微調。
2018-2020年。
OpenAI分別開發出GPT、GPT-2、GPT-3系列模型。
2020年。
在訓練約2000億個單詞、燒掉幾千萬美元后,史上最強大AI模型GPT-3一炮而紅。
從初代 GPT 到 GPT-3。
從技術的角度。
算法模型基本沒有變化,但通過堆人、堆算力來進行訓練後的結果就是GPT-3已經初步能夠“理解”人類語言。
2021年1月。
OpenAI發佈了DALL·E模型,人工智能根據一段話就可直接生成圖像。
2022年4月。
OpenAI發佈了DALL·E 2.0版,允許對圖像輸出進行簡單修改。
11月底。
基於GPT-3.5模型的ChatGPT上線之後迅速火爆全網。
上線一個多月。
ChatGPT就把OpenAI的估值從200億美元推高到290億。
2023年2月2日。
OpenAI發佈ChatGPT試點訂閱計劃——ChatGPT Plus。
ChatGPT Plus將以每月20美元的價格提供,訂閱者可獲得比免費版本更穩定、更快的服務,及嘗試新功能和優化的優先權。
經估算。
整個ChatGPT的市場規模很可能超過2000億美元。
龐大的市場前景之下。
2月7日。
百度類ChatGPT項目“文心一言”一出,直接推動股價當天大幅上漲,盤中一度漲超15%。
同一天。
微軟大舉進軍AIGC領域,股價一夜飆升5450億。
除此之外。
據CB Insights消息。
2022年ChatGPT概念領域目前約有250家初創公司,其中51%融資進度在A輪或天使輪,整個領域吸金超過26億美元。
②
ChatGPT的危險性?
▽
追根究底。
ChatGPT是一種神經網絡技術,即獎賞網絡。
這個獎賞網絡不僅能對對海量的數據文本進行識別、分類、抓取、裁剪和輸出,還能在輸出內容的過程中進行學習。
用戶使用基數和使用次數越多。
ChatGPT就能更準確、真實和接近人類的自然狀態。
換言之。
ChatGPT的誕生就是爲了取代人類,又或者說是人類的某些職能,當然,它現在還很弱小。
如果說AlphaGo在圍棋上的表現就已經讓職業棋手感到不安。
那麼這一次能夠“學習和理解人類語言”的ChatGPT的出現,應該已經威脅到了大多數打工人的“安全區”。
中新財經記者以“你覺得你會取代人類的一部分職業嗎?”提問ChatGPT。
ChatGPT回答說。
有些職業,特別是那些需要重複性和精確性任務的職業,可能會受到人工智能和機器學習技術的影響。
至於取代哪些職業?
ChatGPT列出了清單:數據錄入員、重複性辦公室工作、工廠生產線上的簡單任務、電話銷售員、簡單的客服工作等。
考慮到互聯網底層代碼語法和邏輯的特殊性。
ChatGPT現在可以修改輸出端的回答;
“學習”了足夠的代碼之後。
它是不是就會試着自己修改自己的底層代碼,不斷優化、迭代?
拋開這方面的擔憂。
ChatGPT有多危險就有多誘惑?
畢竟。
互聯網發展到現在。
不管是電腦端,還是手機端,移動設備端,我們的交互方式之一——搜索引擎已經上十年停滯不前了。
這一次ChatGPT的出現?
不僅能夠革新現有的交互模式,改變搜索廣告生態;
還有可能點燃生成式AI的應用場景,文本、圖像、音頻、代碼、視頻、動畫、影像……
但我們也要注意到。
ChatGPT不斷會給各樣各業帶來挑戰。
這種生成式AI算法還有可能會對知識產權和內容權威性成倫理困境。
除此之外。
這些生成式AI都是由巨量資金和大量數據餵養出來的,本身是對開放互聯網上的大數據收取的“智商稅”。
天生就具有壟斷性。
而且。
它們的數據哪裏來的,有沒有傾向和立場也是個問題。
華盛頓大學語言學教授艾米麗稱:
“OpenAI 在如何使用數據方面還遠遠不夠透明,如果用戶輸入的數據被用於訓練,我預計企業會這樣想:在廣泛使用 ChatGPT 幾個月後,是否可能通過精心設計的提示來獲取公司的機密信息?”
③
ChatGPT未來會走向何方?
▽
當然。
ChatGPT目前只是一種工具,還遠遠沒有開啓智能,暫時還無法取代人類的工具。
而它。
也不是大衆第一次感到驚喜和恐懼的工具。
2022年。
由AI研究員Yannic Kilcher創建的GPT-4chan,基於1.345億條人類在網絡論壇中發佈的激進甚至極端的言論帖子,形成了自己的語言模型。
它的存在。
就是在挑戰互聯網言論底線。
2016年。
微軟就推出過聊天機器人Tay。
只是受發佈厭女、種族主義等各種煽動性言論影響,Tay不到24個小時就被人“玩壞了”。
2014年。
由微軟(亞洲)互聯網工程院推出的聊天機器人小冰,因模擬用戶操作、誘導拉羣、批量註冊垃圾賬號等問題被微信「封殺」,不久後在微博上「復活」依舊髒話不斷。
2011年。
蘋果就曝光了其數字助手Siri。
五年後上線的Siri支持自然語言輸入,並且可以調用系統自帶的天氣預報、日程安排、搜索資料等應用,還能夠不斷學習新的聲音和語調,提供對話式的應答。
出道即巔峯。
只是現在。
Siri早已泯然衆人。
更早之前。
1996年。
麻省理工學院教授約瑟夫·維森鮑姆發明的Eliza,就是一款可以和人對話的程序,它能用一些語言技巧實現所謂的“智能”。
現在看來:
這或許就是未來ChatGPT的四種可能性。
要麼像Tay一樣直接被用戶玩壞;
要麼像小冰一樣自己把自己玩壞;
要麼像GPT-4chan一樣走向極端;
要麼像Siri一樣因爲各種不可控因素泯然衆人;
或許。
ChatGPT能夠走出一條屬於自己的路。
因爲這種神經網絡算法很可能是我們最接近強人工智能的那條“捷徑”?
而它現在纔剛剛萌芽。
但在此之前。
ChatGPT必須完全取信,又或者能夠欺騙人類,這纔是強人工智能誕生的標誌。
最後。
我們再聊幾句。
互聯網上開放的資源畢竟有限,而這種開放資源的權威性也相對較弱。
ChatGPT的出現。
很可能進一步撕裂整個互聯網。