機器學習週刊第六期:哈佛大學機器學習課、Chatbot Ul 2.0 、LangChain v0.1.0、Mixtral 8x7B

---

date: 2024/01/08

---

吳恩達和Langchain合作開發了JavaScript 生成式 AI 短期課程:《使用 LangChain.js 構建 LLM 應用程序》

大家好,歡迎收看第六期機器學習週刊

本期介紹10個內容,涉及Python、機器學習、大模型等,目錄如下:

  • 1、哈佛大學機器學習課
  • 2、第一個 JavaScript 生成式 Al 短期課程
  • 3、一個地理相關的Python庫
  • 4、電腦本地運行大模型聊天軟件,支持中文
  • 5、Chatbot Ul 2.0 發佈
  • 6、文本嵌入的74年曆史
  • 7、LangChain v0.1.0發佈
  • 8、一個由Google開發的機器學習工具
  • 9、Mixtral 8x7B 論文發佈
  • 10、斯坦福大學開發出一個幾乎不會產生幻覺的模型: WikiChat

1、哈佛大學機器學習課

課程簡介:https://pll.harvard.edu/course/data-science-machine-learning

註冊地址:https://www.edx.org/learn/machine-learning/harvard-university-data-science-machine-learning

首先強烈推薦一下質量上乘,完全免費的哈佛大學機器學習課程,

2024年度課程開始了,目前有兩個時段可選

  • 1月9日到6月20日

  • 4月18日到12月19日

授課老師是哈佛大學生物統計學教授拉斐爾·伊裏扎裏,感興趣可以去edX註冊了

2、第一個 JavaScript 生成式 AI 短期課程!

地址: https://deeplearning.ai/short-courses/build-llm-apps-with-langchain-js/

吳恩達和Langchain合作開發了JavaScript 生成式 AI 短期課程:《使用 LangChain.js 構建 LLM 應用程序》

課程簡介如下:

GitHub 最近報告稱 JavaScript 再次成爲世界上最流行的編程語言。爲了支持 Web 開發人員探索和開發生成式 AI,我們剛剛推出了一個新的 JavaScript 短期課程,由 @LangChainAI 的創始工程師 @Hacubu 教授。在使用 LangChain.js 構建 LLM 應用程序中,您將學習人工智能開發中常見的元素,包括:

(i) 使用數據加載器從 PDF、網站和數據庫等常見來源提取數據
(ii) 提示,用於提供 LLM 上下文
(iii) 支持 RAG 的模塊,例如文本分割器以及與向量存儲的集成
(iv) 使用不同的模型來編寫不特定於供應商的應用程序
(v) 解析器,提取並格式化輸出以供下游代碼處理

我對這門課非常感興趣,但是deeplearning官網還沒有字幕,學起來非常困難

已經有up搬運並配了機翻字幕,但是感覺很多地方翻譯的不是很準確

所以我準備一邊學習一邊翻譯並上傳,但是這個字幕翻譯工作還是蠻費功夫的,可能進度不會很快

感興趣的同學可以關注一下:https://www.bilibili.com/video/BV1Te411m7ys

3、一個地理相關的Python庫

地址:https://gist.github.com/alexgleith/dc49156aab4b9270b0a0f145bd7fa0ce

推薦一個地理相關的Python庫:

2 個 Python 庫、6 行代碼和大約 15 秒的時間,就可以從世界任何地方加載衛星數據

4、電腦本地運行,大模型聊天軟件,支持中文

地址:https://github.com/janhq/jan

官網:jan.ai/

Jan 是 ChatGPT 的一個開源替代品,最近在GitHub上非常火爆。它能夠在電腦上100% 離線運行,支持Nvidia GPU & Apple M。

提供衆多開源 AI 模型下載,每次對話選擇一個模型後自動切換,很方便。

Jan 能在任何硬件上運行,從個人電腦(Linux、Windows、MacOS)到多 GPU 集羣,Jan 支持通用架構:

  • Nvidia GPUs (快速)
  • Apple M 系列 (快速)
  • Apple Intel
  • Linux Debian
  • Windows x64

有X友做了測試,支持中文,效果不錯

5、Chatbot UI 2.0 發佈

地址:https://github.com/mckaywrigley/chatbot-ui

最近 Chatbot UI 2.0發佈了,這是一個面向所有人的開源AI聊天界面。

它不僅支持OpenAI、Claude的API,還支持Gemini、Mistral、Perplexity API、本地Ollama安裝的模型。

目前Google 的 Gemini API是免費了,感興趣可以申請後結合這個工具使用。

關於Gemini,我之前寫過一篇文章,詳細地介紹了玩法:叫板GPT-4的Gemini,我做了一個聊天網頁,可圖片輸入,附教程

6、文本嵌入的74 年曆史

地址:https://jina.ai/news/the-1950-2024-text-embeddings-evolution-poster/

JinaAI繪製的這張高清PNG海報記錄了文本嵌入自1950年至今的歷史,展示過去 74 年的突破性演變。

網頁中還提供了豐富的參考資料,每個技術里程碑都附帶一個可供探索的資源列表。

7、LangChain v0.1.0

地址: https://blog.langchain.dev/langchain-v0-1-0/

LangChain是大模型世界最重要的工具之一,本週LangChain 發佈了0.1穩定版,完全向後兼容,同時提供 Python 和 JavaScript,並在功能和文檔方面都進行了改進。

👀 可觀察性:構建複雜的LLM應用程序很困難。爲了最好地進行調試,需要知道所採取的確切步驟以及每個步驟的輸入/輸出。通過與LangSmith的緊密集成,LangChain擁有一流的可觀察性

↔️ 集成:近700個集成,無論你想使用什麼技術堆棧,LangChain都支持

🔗 可組合性:使用 LangChain 表達式語言,可以輕鬆(且有趣!)創建任意鏈,爲您帶來數據編排框架的所有優勢

🎏 流式傳輸:我們投入了大量資金來確保使用 LangChain 表達式語言創建的所有鏈以一流的方式支持流式傳輸 - 包括中間步驟的流式傳輸

🧱 輸出解析:讓LLM以某種格式返回信息是使其執行操作的關鍵。

🔎 檢索:爲 RAG 添加先進且可用於生產的方法,包括文本分割、檢索和索引管道

🤖 工具使用+代理:代理集合(決定採取什麼操作),工具集合,定義工具的簡單方法

8、Teachable Machine:一個由Google開發的機器學習工具

地址:https://teachablemachine.withgoogle.com

Google 開發機器學習工具Teachable Machine,它允許用戶快速、簡單地創建自己的機器學習模型,而無需專業知識或編程技能。

你可以用它來教電腦識別圖片、聲音或人的動作。

使用這個工具的步驟很簡單

1、收集數據:你可以上傳圖片、錄製聲音或動作視頻來作爲訓練數據。

2、訓練模型:用這些數據來訓練你的模型,然後測試它能否正確識別新的圖片、聲音或動作。

3、導出模型:完成訓練後,你可以下載這個模型,或者上傳到網上,用在其他項目中。

Teachable Machine提供了多種方式來創建機器學習模型,非常靈活和用戶友好。

1、使用文件或實時捕捉示例:用戶可以選擇上傳已有的圖片、音頻文件作爲數據,也可以直接通過電腦的攝像頭或麥克風實時錄製視頻、聲音作爲訓練數據。

2、可以在本地完成訓練:用戶有選項不通過網絡發送或處理數據。所有操作,包括數據的收集、模型的訓練和應用,都可以在用戶自己的電腦上完成,不需要將攝像頭或麥克風收集的數據發送到互聯網上。這對於隱私保護是非常重要的,特別是當處理敏感信息時。

3、Teachable Machine”生成的模型是真實的TensorFlow.js模型,可以在任何運行JavaScript的地方工作。此外,還可以將模型導出到不同的格式,以便在其他地方使用,如Coral、Arduino等。

9、Mixtral 8x7B 論文發佈

論文:https://arxiv.org/abs/2401.04088

Mixtral官網關於MoE的介紹:https://mistral.ai/news/mixtral-of-experts/

本週另一個在X上刷屏的事件(前一個是LangChain v0.1.0的發佈)是Mixtral 8x7B 論文發佈。

Mixtral模型發佈已經一個月了,Mixtral 8x7B 如此令人興奮的原因在於它探索了一種新的架構範例,即“專家混合”方法,與大多數 LLMs 所遵循的方法形成鮮明對比。儘管這種方法並不新鮮,但尚未在 LLM 領域得到大規模證明。然而,Mixtral 論文表明,Mixtral 8x7B 在各種基準測試中與更大的模型(例如 Llama 2 70B 和 GPT-3.5)相比具有良好的性能。

什麼是專家混合 (MoE) 方法?

MoE 方法是一種機器學習技術,結合了多個專家模型的優勢來解決問題。與結合所有模型結果的集成技術相比,在 MoE 中,僅使用一名或少數專家來進行預測。

這種方法有兩個主要組成部分:
• 路由器:決定對於給定輸入信任哪個專家以及如何權衡每個專家對於特定輸入的結果。
• 專家:專門研究問題不同方面的個體模型。

在 Mixtral 的案例中,有八位專家,其中兩位是被選中的。

10、斯坦福大學開發出一個幾乎不會產生幻覺的模型:WikiChat

GitHub:https://github.com/stanford-oval/WikiChat
論文:https://arxiv.org/abs/2305.14292
在線體驗:https://wikichat.genie.stanford.edu

大模型的通病是幻覺問題,也即一本正經地胡說八道。來自斯坦福的研究人員發佈了WikiChat——被稱爲首個幾乎不產生幻覺的聊天機器人!

WikiChat基於英文維基百科信息,當它需要回答問題時,會先在維基百科上找到相關的、準確的信息,然後再給出回答,保證給出的回答既有用又可靠。

模型在新的基準測試中獲得了97.3%的事實準確性,而相比之下,GPT-4的得分僅爲66.1%。

這個模型可以在線體驗,不過遺憾的是它不支持中文,而且試用次數非常有限。

順便說一句,斯坦福不但開源了模型,還開源了上面這個聊天應用ovalchat的代碼:

https://github.com/stanford-oval/ovalchat

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章