逼近 GPT-4 的新模型發佈!「歐洲版 OpenAI」聯手微軟,卻被質疑違背初心

愛範兒 於 27/02/2024 發表 收藏文章
昨晚,號稱「歐洲 OpenAI」的 Mistral AI, 發佈了其最新的頂級文本生成模型 Mistral Large。

這一模型具備頂級的推理能力,可用於處理複雜的的多語言推理任務,涵蓋文本理解、轉換和代碼生成。

簡單畫重點:

  • 32K 的上下文窗口,精準提取大型文檔信息。
  • 精確的指令跟隨能力,便於開發者定製審核策略。
  • 支持函數調用和輸出模式限制,助力應用開發規模化和技術棧現代化。
  • 原生支持英語、法語、西班牙語、德語和意大利語,對語法和文化背景有深刻理解。

附上體驗地址:https://chat.mistral.ai/chat

Mistral AI 又放大招

Mistral Large 在多項基準測試中表現優異,成為全球排名第二的可通過 API 廣泛使用的模型,僅次於 GPT-4,並將其他主流模型甩在身後。


與 LLaMA 2 70B、GPT-4、Claude 2、Gemini Pro 1.0 等一眾主流模型對比,Mistral Large 在推理能力上展現出強大的實力。

在 MMLU、Hellas、WinoG 等多項常識和推理的基準測試中,Mistral Large 緊隨 GPT-4 之後,遠超其他模型。

在法語、德語、西班牙語和意大利語的 HellaSwag、Arc Challenge 和 MMLU 基準測試中,Mistral Large 的表現明顯優於 LLaMA 2 70B。


在編碼和數學任務中,Mistral Large 同樣表現出色。多項基準測試依然是遙遙領先。


此外,Mistral AI 還發布了針對延遲和成本優化的新模型 Mistral Small,性能超越 Mixtral 8x7B,但延遲更低。

在 Mistral AI 看來,Mistral Small 將是一個介於開源模型和旗艦模型之間的理想中間選擇,享有與 Mistral Large 相同的創新優勢,尤其是在 RAG(檢索增強生成)啓用和函數調用方面。

不過,Mistral Small 模型宣稱的低延遲特性與 Mixtral 8x7B 相比提升有限,但其成本卻顯著增加,其中輸入成本高出 2.8 倍,輸出成本更是高達 8.5 倍。


Mistral Large 現已在 La Plateforme 和 Azure 平台上可用,並集成到了 Le Chat 中。Le Chat(法語直譯為貓)是一個類似 ChatGPT 的 AI 聊天機器人,支持多語言交流。

用户可以在 Mistral Small、Mistral Large 以及 Mistral Next 三種不同的模型之間進行選擇。不過,Le Chat 並不支持實時聯網功能。

發佈後不久,由於湧入體驗的人羣數量超出預期,Le Chat 直接崩潰了,截至發稿前,Le Chat 已恢復運行。


我們也第一時間體驗了一下 Le Chat。取決於語言本身的複雜性和接受訓練數據的數量和質量, Le Chat 在英文方面的表達能力較強,在其他語言方面,表達能力可能會因語言而異。

面對中文腦筋急轉彎的拷問,Mistral Large 明顯有點懵,緩了好一陣都沒給出答案。

問題:蝴蝶,螞蟻, 蜘蛛, 蜈蚣,他們一起工作,最後哪一個沒有領到酬勞?


但換成英文,它就立馬變身解題高手,答案條理清晰,邏輯滿分,上升到「以人類為中心的工作和獎勵視角」,但中文語境的腦筋急轉彎可不按常理出牌,畢竟「蜈蚣」不受祿。

雞兔同籠問題對 Mistral Large 來説,還沒到小菜一碟的程度。線性方程組一擺,回答倒是很快就出來了,但答案中 16 只雞和 19 只兔子並不正確。

問題:雞兔同籠,共 35 只頭,94 只腳,問雞兔各多少?

引用這是一個經典的數學問題,可以使用線性方程組來解決。

假設雞的數量為 x,兔子的數量為 y,則可以列出以下兩個方程:

1. x + y = 35 (雞和兔子的總數量為 35 只)

2. 2x + 4y = 94 (雞有 2 只腳,兔子有 4 只腳,所以總共有 94 只腳)

將第一個方程中的 x 表示為 y 的函數,得到 x = 35 – y,代入第二個方程中得到:

2(35 – y) + 4y = 94

解方程得到 y = 19,代入 x = 35 – y,得到 x = 16。

因此,雞有 16 只,兔子有 19 只。

可以用同樣的方法解決後兩個問題,答案都是雞有 16 只,兔子有 19 只。
接着我們讓 ChatGPT 給 Mistral Large 出一道數學測試題,上上強度,但整體表現不錯:


小模型,大作為

Mistral AI 成立於去年 5 月份,公司員工僅 25 人,但其大語言模型早已在 Hugging Face 上名聲大噪。

此前,我們曾報道過它發佈了 Mixtral 8x7B,這款模型一經推出,瞬間引爆了開源界,讓無數開發者夜不能寐。

雖然只有 46.7B 的參數規模, 擅長以小博大的 Mixtral 8x7B 在眾多基準測試中的表現卻能與 Llama 2 70B 和 GPT-3.5 媲美,甚至在某些測試中還略勝一籌。


Mistral AI 的成功秘訣在於它巧妙地融合了 AI 領域的三大核心要素—人才、數據、算力。

《經濟學人》透露,Mistral AI 創始人和技術骨幹均來自法國精英技術學院,並在 Google 和 Meta 等科技巨頭的研究實驗室積累了寶貴的業界經驗。他們是全球為數不多,真正掌握如何培訓前沿模型技術的專家。

其次,數據是 Mistral AI 成功的另一個法寶。Mistral 在模型數據培訓上獨具匠心,例如,模型能夠有效地過濾掉重複或無意義的信息,使得模型更加精簡高效,參數規模僅數十億。

這就意味着,普通用户甚至可以在自己的個人電腦上輕鬆運行 Mistral AI 的模型。


對於 Mistral Large 的到來,圖靈獎得主 Yann LeCun、以及英偉達高級科學家 Jim Fan 等一眾大佬也紛紛在 X 上送上了祝賀。

目前,Mistral AI 的估值已經超過 20 億美元,其背後的投資陣容的豪華程度,與世界頂級企業相比也毫不遜色。

從美國頂尖的風投公司如光速創投、紅點創投、指數創投,到硅谷的風險投資巨頭 a16z、英偉達、Salesforce、法國巴黎銀行等,都對 Mistral AI 青睞有加。經過數輪融資,Mistral AI 也早已邁入了 AI 獨角獸的行列。


微軟昨天也宣佈與 Mistral AI 建立新的合作伙伴關係,承諾和 Mistral AI 之間的合作集中在以下三個關鍵領域:

引用超算基礎結構:微軟將通過 Azure AI 超算基礎結構支持 Mistral AI,用於 AI 訓練和推理工作負載。

擴展市場:微軟和 Mistral AI 將通過 Azure AI Studio 中的 MaaS 和 Azure 機器學習模型目錄,向客户提供 Mistral AI 的高級模型。

AI 研發:微軟和 Mistral AI 將探索合作,為指定的客户開發專有模型,甚至包括歐洲公共部門的工作負載。

但微軟這一舉動遭到了網友的質疑。X 用户 @osxzxso 暗諷微軟試圖採取一種「盤根錯節」的策略來壟斷市場。馬斯克也在評論區以哭笑不得的表情包表示贊同。

引用Spreading Nutella on both sides of the bread I see

我看到在麪包的兩面都塗了花生醬


值得一提的是,細心的網友觀察到,在 Mistral AI 推出新模型之後,其官方網站上關於對開源社區承諾的相關內容已經悄然消失,且新模型也不支持開源。

但 Mistral CEO Mensch 在接受《華爾街日報》採訪時表示, Mistral AI 並未違背開源的初衷,而是採用同時推進商業化戰略和維持開源承諾的雙重策略。

引用顯然,在構建商業模式和保持我們的開源價值觀之間,我們需要找到一個細小的平衡點。我們希望發明新事物和新的架構,同時也希望向我們的客户提供更多可銷售的產品。


資料來源:愛範兒(ifanr)
標籤: Mistral AI  GPT-4  

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→