「日本最強AI」塌房了!扒開代碼全是DeepSeek,日本網友集體破防

愛範兒 於 1 小時前發表 收藏文章
「終於到日本用中國 AI 來冒充日本產 AI 的時代了」


最近這件事在日本的 X 討論炸了,起因是昨天日本一家科技公司樂天集團(Rakuten)在日本經濟產業省(METI)的 GENIAC 項目(日本 AI 政府資助項目)支持下,高調發布了號稱「日本最大、性能最強」的 7000 億參數大模型 Rakuten AI 3.0。

但發佈後不久,開源社區就迅速扒出,該模型的底層架構實際上是來自我們的 DeepSeek-V3,樂天僅僅是做了日文數據的微調。

在知名的 AI 開源庫 Hugging Face 上,Rukuten AI 3.0 赫然在自己的配置文件裏面寫着架構來自 DeepSeek V3。


而在 Rakuten AI 3.0 模型的發佈新聞稿裏,絲毫沒有提到任何關於 DeepSeek 的信息,只是含糊的説「它融合了開源社區的精華」,讓一眾網友以為這款模型就是日本自主研發的。

更致命的是,樂天為了掩蓋這一事實,在開源時偷偷刪除了 DeepSeek 的 MIT 開源協議文件。在被社區實錘後,才灰溜溜地以「NOTICE」文件名重新補上。

▲在 Hugging Face 上能看到項目文件的提交歷史,顯示修改

日本網友紛紛表示,「這讓人無法接受」,拿着日本政府補貼,竟然只是微調了一波中國的 DeepSeek,還有人説,用 DeepSeek 就算了,還要偷偷藏藏真的很遜。

掩耳盜鈴的「日本最強」

單看 Rakuten 公司發佈的公關稿,這個模型確實算得上是日本在 LLMs 領域的一次比較有實力的發佈。

這是一款擁有約 7000 億參數的混合專家(MoE)模型,經開源社區確認,是和 DeepSeek V3 一樣的671B 總參數,激活 37B。樂天首席 AI 官 Ting Cai 將其形容為「數據、工程和創新架構在規模上的傑出結合」。

Ting Cai 這名字一聽就不像是日本當地人,有日本網友在評論區説,用 DeepSeek 很過分,更過分的是,主導這個模型的大老闆,是個徹頭徹尾的移民強硬派。


我們發現 Ting Cai 曾在美國 Google、蘋果公司工作過,並在微軟待了超過 15 年,本科在美國石溪大學,計算機科學就讀。他曾在採訪中表示,十八歲他第一次出國,去的就是日本,確實是個「移民強硬派」。

關於 Rakuten AI 3.0 的模型表現,在官方公佈的各項基準測試中,它在日語文化知識、歷史、研究生水平推理、甚至競技數學和指令遵循等維度上,得分表現都極其優異,大有橫掃日本本土大模型圈的架勢。


不過,用來對比的模型,是已經被下架了的 GPT 4o、只有 1200 億參數的 GPT OSS,還有日本的新興另一個 AI 開發企業 ABEJA 基於千問推出的 ABEJA QwQ 32b 模型。

7000 億和最多 1200 億比,Rakuten AI 3.0 確實是贏了不少。同時作為經產省 GENIAC 項目的重點扶持對象,樂天獲得了大量的算力資源支持。GENIAC 這個項目設立的初衷,正是為了建立日本本土的生成式 AI 生態,緩解對海外巨頭技術依賴的焦慮。

日本最大的參數規模,再加上這層「國家隊」的濾鏡,讓 Rakuten AI 3.0 一出場就戴上了「全村希望」的光環。

還得是 DeepSeek

但光環褪去得比想象中更快。

先不説 7000 億參數、MoE 架構,這幾個關鍵詞組合在一起,在當今的開源大模型圈子裏,指向性實在太強了。等到開源社區的開發者們,到 Hugging Face 上一看詳細的代碼配置文件,竟然直接就寫着 DeepSeek V3。

從底層邏輯來看,這就是「中國架構 + 日本微調」。DeepSeek 提供了那套被全球驗證過、極其高效的底層架構和推理能力,而樂天則利用其本土優勢,用高質量的日文語料對其進行了微調,讓它變得更懂日本文化。

客觀來説,拿開源模型做本土化微調,在技術圈是一件極其正常且合理的事情。就像他們拿來作為對比的 ABEJA QwQ 32b 模型一樣,連代號都不改,直接用 Qwen 的 QwQ。

▲日經新聞曾報道,日本公司開發的前十大模型裏,有 6 個都是基於 DeepSeek 或 Qwen 進行二次開發

如果樂天這次也坦坦蕩蕩地承認使用了 DeepSeek 的底座,頂多是一次缺乏新意的「套殼」發佈,興許還能蹭一波 DeepSeek 的熱度。

但他們偏偏選擇了掩藏。

之前我們分享美團瀏覽器使用開源項目時,曾提到不同的開源協議,其中 DeepSeek 採用的 MIT 協議,堪稱開源界「最卑微、最寬容」的協議。它允許用户免費拿去商用、修改、甚至閉源賺錢。它唯一的請求只有一個:在項目裏,保留原作者的版權聲明和許可聲明。

▲Rakuten 模型發佈新聞稿|

https://global.rakuten.com/corp/news/press/2026/0317_01.html

而樂天不僅在模型發佈博客中對 DeepSeek 絕口不提,更是直接在代碼庫裏抹除了這份協議文件,還高調宣佈自己採用的是 Apache 2.0 協議開源。雖然 Apache 2.0 同樣是對商業極度友好的開源協議,但它更正式,常被大廠用來建立自己的開源生態和專利護城河。

▲不同開源協議對比,MIT 協議比 Apache 協議更寬鬆、更簡短,Apache 2.0 在賦予自由的同時,明確包含了專利授權保護和更嚴謹的責任免除條款,適合更大型、法律風險規避更嚴格的商業項目|圖片來自互聯網

樂天的算盤打得很精,抹掉 DeepSeek 的名字,套上自己的 Apache 2.0 協議,再把自己包裝成「慷慨開源 7000 億參數大模型」的日本 AI 救世主。

喊了一年多的歐洲版 DeepSeek、美國版 DeepSeek,最後好像都沒有做出來。

樂天也想做日本版 DeepSeek,但在算力和訓練成本的壓力下,在當前全球大模型飛速發展的局面下,既想要中國技術的極致性價比,又放不下打造「本土巨頭」的身段,顯然是難上加難。
不如和我們一起等等 DeepSeek V4 吧。


資料來源:愛範兒(ifanr)

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→