OpenAI 建立之後:夢想、分歧,還有 AGI

愛範兒 於 26/06/2024 發表 收藏文章
引用編者按:當 Sam Altman 闡述 OpenAI 的願景時,他不假思索的提出他們想要開發對全人類有益並安全的 AGI(通用人工智能)。

伴隨着微軟的注資,很多人開始對此產生懷疑:OpenAI 真的能做到嗎?

面對這一問題,Sam Altman 給出了肯定的答案。

彭博社最近打造了一系列共有 4 集的播客「Foundering: The OpenAI Story」,記錄了 Sam Altman 的崛起之路,試圖去全面地理解我們時代其中一位最重要的創始人。

今天,我們翻譯的是該系列播客的第二集。它包括以下內容:

AGI 的多面性:全力創造 AGI 被 OpenAI 視為一個重要的願景。這能夠解決許多全球挑戰,但也帶來了前所未有的風險,包括無法控制的人工智能和嚴重的社會影響。

OpenAI 的演變:從數據驅動創新,再到謹慎共享模型。在商業因素的包裹下,OpenAI 如何保持「Open」?

OpenAI 的權力鬥爭: Elon Musk 希望獲得更大的控制,這與 OpenAI 的一些員工產生了分歧。在 Sam Altman 的帶領下,OpenAI 從非營利走上營利之路。
原播客鏈接:

https://youtube.com/playlist?list=PLe4PRejZgr0MFtsPmVCHLfttpagbpkh57&si=TT56V2TPQmWq_VeN

我想從一個夢想開始説起,一個關於建造 AI 的夢想。

幾十年來,人們一直在想象和書寫這個夢想,人類在一起努力創造一個比我們自身更強大的新實體。有些研究人員認為,這個夢想可能很快就能實現。

引用總有一天,存在於我們計算機中的數字大腦將變得和我們的生物大腦一樣好,甚至更佳。計算機將變得比我們更聰明。我們稱這種人工智能為通用人工智能(AGI)。

這是 Ilya Sutskever 説的,他是 OpenAI 的聯合創始人之一。在去年的一次 Ted 演講裏,當談到人工智能的未來時,他常常表現得像一位宗教神秘主義者。

但現在,他只是在探討對 AGI 的探索,這是一種能夠像人類一樣思考和解決各種問題的人工智能。它可以在玩遊戲、解決科學問題、創造美麗藝術和駕駛汽車之間自由切換。


OpenAI 的目標是構建 AGI。在 AI 界,這個想法曾經非常前衞,至少以前是。Ilya 將 AGI 描述為一個幾近神秘的、重大的飛躍,就像普羅米修斯帶來火種一樣,其後果將是巨大的。它將引領我們進入技術輝煌,同時也引發混亂。在紀錄片《iHuman》中,他對未來的變化充滿信心。

引用對現在來説,AI 的出現是一件偉大的事情,因為 AI 將解決我們今天所面臨所有的問題。它將解決就業、疾病和貧困問題。但它也會帶來新的問題,假新聞的問題將變得更加嚴重,網絡攻擊將更加極端,我們還將擁有完全自動化的 AI 武器。

Ilya 是一位非常有成就的 AI 研究人員,在加入 OpenAI 之前,他在谷歌工作。他對人類有着深厚且熱切的情感。他會彈琴,也會繪畫。他的一幅畫就掛在 OpenAI 的辦公室裏,那是一朵花,形狀就像公司的標誌。


同時,他也非常專注於 AI 研究。他曾告訴一位記者:「我過着非常簡單的生活,我去上班,然後回家。我不做其他事情。有很多社交場合可以前往,也有很多活動可以去,但是我不會參加。」

他花了大量時間觀察 AI 的發展軌跡,並嘗試預測未來。Ilya 特別擔心 AGI 是否會有自己的慾望和目標。從他的言語中可以聽到這種奇幻場景。

引用並不是説它會主動憎恨人類並想傷害他們,而是它將變得太強大了。我認為一個很好的類比就是人類對待動物的方式。我們不憎恨動物,但當我們需要在兩座城市之間建一條高速公路時,我們不會徵求動物的意見。可以想象,地球表面可能會被太陽能電池板和數據中心覆蓋。

我想在這裏暫停一下,這呈現了一個非常強烈的、有力的形象,我們正在創造某種新的存在。它會對我們感興趣,但最終會漠不關心,就像我們對待鹿一樣。

在這段錄音中,令我印象最深的是 Ilya 的語氣,那不是恐懼,而是敬畏。Ilya 想象的 AGI 可能會為了實現自己的目標而推翻我們,這是一個難以真正理解的戲劇性場景。這個對超自然、全能實體的構想,有着十分濃厚的宗教色彩。


我應該提一下,這一切完全是理論性的,我們離 AGI 還有很遠的路要走。OpenAI 目前正在盡全力開發出能可信的模仿人類的模型,而模仿與能夠獨立思考的 AI 還有很大差距。儘管如此,OpenAI 希望做到這一點,並且希望做到最好,做到第一個。以下是 Sam Altman 於 2023 年在國會作證時的講話:

引用我最大的擔憂,是我們會對世界造成巨大影響。我們整個領域、技術、行業,有可能會對世界造成「重大傷害」。這就是我們創辦這家公司的原因。我認為如果這項技術出了問題,可能會「大錯特錯」。

你正在收聽的是「Foundering」,我是主持人 Ellen Hewitt。在本集節目中,我們將帶你走進 OpenAI 早期混亂而又充滿理想主義的歲月。

我們會討論構建全能 AGI 的夢想,這很重要。因為這是 OpenAI 正在快速前進的目標,這是這一代人的登月競賽。我們將討論 AI 技術如何發生巨大而迅速的變化,以及這種變化如何使 AGI 的夢想比以往任何時候都更加接近。

僅僅幾年,它就從一個被嘲笑的奇特想法,變成一些專家認為可能在幾年內實現的里程碑。Sam Altman 甚至提出 2028 年可能就會實現。我們還將審視 OpenAI 在追求這一夢想過程中所做的妥協。

起初,公司承諾廣泛分享其研究成果,不被盈利動機所腐蝕。但當他們的技術開始進步,並且看起來有可能獲得巨大權力時,他們就進行了大轉彎。隨後這一關鍵時刻演變成 OpenAI 內部的權力鬥爭,Sam Altman 掌握了大權。

讓我們從 2015 年開始。這時 OpenAI 剛剛成立,它得到了 Elon Musk 承諾的 10 億美元資金支持,還有一些其他捐贈者的資金。這是一個小型的、剛起步的研究實驗室。

在最初的日子裏,Sam 和 Elon 並不經常出現。當時,Sam 實際上仍在運營創業加速器 Y Combinator,但他開始將自己定位為 AI 領域的思想領袖。特別的是,他在談論 AI 世界末日場景。


2015 年,他在博客中宣稱,超人類機器智能的發展可能是人類繼續存在的最大威脅。他還寫道,AI 可能會摧毀宇宙中的每一個人類。在同一年,他在一次科技活動中提到 OpenAI 即將成立。

引用實際上,我剛剛同意資助一家公司進行 AI 安全研究。你知道,我認為 AI 很可能會導致世界末日。但在此期間,會出現一些使用先進機器學習技術的偉大公司。

我想談談這句話。他説 AI 可能會殺死我們所有人,同時他要求我們信任他作為專家的結論。但他在賺錢方面也「油嘴滑舌」。

在 OpenAI 的初期,Sam 和 Elon 並不經常參與日常工作。他們外出與人交談、招募人才、與記者談話。他們每週大約會來一次獲取進展更新。在那些日子裏,Sam 會突然加入對話,然後離開。


引用他給我的印象是非常聰明、鋭利,並且非常高效。當談話結束時,所有事情就結束了。

這是 Peter Abele,他是一位在 OpenAI 成立的頭兩年工作的研究員。他説,早期的 OpenAI 看起來像一個典型的初創公司。他們甚至一段時間沒有辦公室,會在一位聯合創始人的家中開會。

引用2015 年底、2016 年初最開始時,我們是在 Greg Brockman 位於舊金山使命區的公寓裏進行工作的。我們基本上是坐在沙發上、廚房櫃枱上和牀上,工作就在這些地方進行。想象一下,這樣一個龐大的項目竟然在這裏開始,真的很瘋狂。我們有世界上最好的 20 位 AI 研究人員,專注於完成一些前所未有的事情。

在 Sam 和 Elon 缺席的情況下,主要領導者是兩位後來將扮演重要角色的人。他們不是名人,但在未來將扮演巨大的角色。

其中一個是 Greg,他的公寓充當了他們的辦公室,另一個是 Ilya,我們在本集開頭聽到的那位 AI 科學家。你可以把 Greg 看作是負責業務運營的工作狂,而 Ilya 則是 AI 天才。


他們一起管理着 OpenAI,Peter 會記得每週和 Ilya 一起在舊金山的街區散步,討論大局問題,問自己,我們正在解決正確的問題嗎?

引用我覺得他比其他人更早、更清晰地看到了 AI 的潛力。他比其他人更樂觀,還會提出類比。比如,一個神經網絡只是一個計算機程序,只是一個電路,我們只是以不同的方式編程。

與此同時,Greg 則在不斷努力工作。


引用Greg 是那種可以全身心投入工作的人。他可以不停地工作,一直工作。我見過這樣的人,但很少。

即使在 OpenAI 搬出 Greg 的公寓後,他依然幾乎住在辦公室裏。一位前員工説,當他們早上到達工作時,他還在伏案工作,晚上離開時,他仍在敲擊鍵盤。

幾年後,當 Greg 結婚時,他甚至在辦公室舉行了一個世俗婚禮儀式。用大花背景布裝飾,花的形狀還是 OpenAI 的標誌。拿着戒指的是一個機器人手,而婚禮主持人是 Ilya。


當 Greg 和 Ilya 加入 OpenAI 時,他們並不需要錢。Ilya 將一家公司賣給了谷歌,Greg 擁有很多 Stripe 的股份,那家公司價值數百億美元。

在硅谷,人們創辦初創公司的通常原因,是因為他們認為自己可以建立一個利潤豐厚的業務。但 OpenAI 是一個非營利組織。Greg 和 Ilya 被這個夢想所激勵。

這是 Reid Hoffman,OpenAI 最早的捐助者之一:

引用對最初的團隊來説,沒有股權回報。他們是為了人類而這樣做。

「這樣做是為了人類」,OpenAI 一直都是這樣説的。他們的網站上説,我們的使命是確保 AGI 造福全人類。


好吧,眾所周知,硅谷喜歡宏大的使命聲明,WeWork 希望提升全球覺知,但 OpenAI 的使命聲明甚至更加宏大,並帶有利他主義的色彩。

當 Sam 談論公司的工作時,他經常討論潛在的災難。這裏是他與 ABC 的 Rebecca Jarvis 交談時的內容,他的聲音再次顯得嚴肅,他將自己定位為這個領域的思想領袖。那麼,最糟糕的結果是什麼?

引用Sam Altman:我特別擔心的一件事是,這些模型可能會被用於大規模的虛假信息。現在它們越來越擅長編寫計算機代碼,我擔心這些系統可能會被用於進攻性的網絡攻擊。

Rebecca Jarvis:你提出了一個重要的觀點,那就是現在控制機器的人類也擁有巨大的權力。

Sam Altman:我們非常擔心專制政府開發這種技術。

Rebecca Jarvis:普京曾經説過,誰贏得這場 AI 競賽,誰就基本上掌控了人類。你同意這個説法嗎?

Sam Altman:那確實是一個令人不寒而慄的聲明。


Sam 説這東西如此有價值,以至於全球超級大國將為之爭鬥。持懷疑態度的人認為,如果你把你正在研究的東西説得非常重要,你會吸引更多的關注和資金。我們將在下一節目集中討論這種觀點。

在 OpenAI 的早期,他們拯救人類的計劃並不明確。他們的策略有點散亂,以下是 Peter 的再次回憶:

引用我們研究過機器人技術,在這方面有一些探索;我們研究了模擬機器人,在那裏花了很多經歷;我們研究了可以在網絡上執行各種任務的數字代理,比如預訂航班。我們還研究了電子遊戲。

OpenAI 表示,其首要目標之一將是建造一個機器人管家,它可以設定和清理桌子。就像《傑森一家》中的女僕一樣。

公司還建造了一隻可以單手解開魔方的機器手,並投入了大量精力來開發可以玩 Dota 2 的機器人,這是一款非常受歡迎的多人在線遊戲。他們認為遊戲環境的複雜性,可以讓 AI 更好地在現實世界導航。


這裏有人在測試機器人:

引用這個機器人很厲害,比我想象的要好得多。

這些 Dota 機器人甚至會與職業選手對戰:

引用提前準備,行動開始了!所以,AI 搶到了第一滴血……


一個能玩 Dota 的機器人在技術上很令人印象深刻,但對於普通人來説看起來並不是這樣,而這些產品的商業應用也不是立刻就能看出來的。這裏是一位前員工的評論:

引用我們在做一些隨機的事情,看會發生什麼。有時感覺構建的東西和想象中的目標之間有很大的差距。人們白天編程讓機器人玩電子遊戲,然後他們會在午餐時圍坐在桌上,談論着拯救人類。

AI 領域的普遍觀點是,要想做出強大的東西,有時需要從瑣碎的東西開始。電子遊戲和機器人女僕將為自動駕駛汽車和治癒癌症的 AI 鋪平道路。


在 OpenAI 內部,他們有時將自己比作曼哈頓計劃,負責製造第一顆原子彈的團隊,並且他們認為這是一件好事,雄心勃勃且重要。這是另一位前員工對我的敍述:

引用這是一場軍備競賽,他們都想製造出第一個 AGI,他們認為自己能做到最好。我沒有看到太多對 AI 本身的恐懼,我只看到了對構建 AI 的興奮。

在 2015 年,AI 看起來與今天大不相同,它更弱且更難訓練。當時的重大突破是一個機器人能夠擊敗世界上最好的圍棋選手,這是來自中國的一種複雜策略棋盤遊戲。但那個人工智能只能玩圍棋,它不能做其他任何事情。


這是 Oren Etzioni,一位計算機科學教授,也是一個 AI 研究機構的前研究主任:

引用這些系統都是窄領域的,非常有針對性。下圍棋的系統甚至不能下國際象棋,更不用説過馬路或者理解語言了。而預測機票價格波動,並能非常準確地預測機票價格上漲或下降的系統,也不能處理文本。所以基本上,每次有一個新的應用程序,你都需要訓練一個新的系統。這需要很長時間,需要大量的標註數據等等。

但後來,AI 技術取得了重大突破。2017 年,一組來自谷歌大腦的研究人員發表了一篇名為《Attention Is All You Need》的論文。在這篇論文中,他們描述了一種新的 AI 架構,稱為 Transformer。

Transformer 做了一件對當時來説非常重要的事情。AI 系統需要輸入非常具體的數據,每條數據必須被標註,這是正確的,這是錯誤的;這是垃圾郵件,不是垃圾郵件;這是癌症,不是癌症……


但 Transformer 允許 AI 接收混亂的、未標記的數據。實際上,它可以比預期更高效地做到這一點,使用的算力更少。

現在,這些基於 Transformer 的模型可以自我學習。這有點像你想教一個孩子讀書,以前你需要僱一個家教坐在那裏用閃卡,現在你可以讓孩子自己去圖書館,他們會出來知道如何讀寫。

這就像一位投資者向我描述的那樣,一個令人驚訝又痛苦的現實是,最好的 AI 並不來自最專業的訓練技術,而是來自擁有最多數據的技術。


早期 OpenAI 的員工 Peter 説,Ilya 立刻看到了它的潛力:

引用Ilya 的反應非常確定,他説這是我們需要關注的一個重大突破。

即使在 OpenAI 的早期,Ilya 也一直有一個預感,即 AI 的重大進展不會來自某個特定的調整或新發明,而是來自更多的數據,向引擎中倒入越來越多的燃料。現在,Ilya 有了支持他假設的研究。

這是 Oren 的再次發言:

引用OpenAI 的 Ilya 以一種觀點而聞名,那就是數據和數據量,如果我們將其大幅度擴大,將會達到我們所需的目標。這不是普遍的看法,很多非常聰明和著名的人,包括我自己都沒有預見到這一點。

由於 Ilya 的推動,OpenAI 開始試驗 Transformer。他們是最早這樣做的公司之一。他們製造了現在熟悉的首字母縮寫詞 GPT 生成預訓練 Transformer 的模型。


特別是他們開始實驗 Transformer 時,在處理文本時的表現。因為他們可以基本上輸入任何書籍、報紙文章、Reddit 帖子、博客。人類花了很多時間寫東西,而這些文字現在有了新的用途:訓練數據。

互聯網不是為了訓練 AI 而創造的,但最終,這可能會成為它的遺產。OpenAI 的模型在生成文本方面越來越好,而且不僅限於一個知識領域。

引用GPT 系統的驚人之處在於它們非常廣泛,它們實際上是通才。你可以問它們幾乎任何話題,它們會給出令人驚訝的好答案。這是因為它們已經被訓練了有效地整個人類可用的文本語料庫,數十億句子,你讀過的所有的文件、備忘錄、瑣事、哈利波特同人小説,所有這些都被納入磨坊。一旦讀完這些,它就變得非常通用。所以這是我們第一次有一個系統,你可以問它任何問題,它會給你一個令人驚訝的智能答案,從狹窄領域的 AI 到一種通用或廣泛的 AI。

通過向模型輸入大量文本,OpenAI 發現他們可以創建一種 AI,這種 AI 在生成令人信服的回答方面要好得多。事實上,在某個時刻,他們開始擔心它可能太好了。


在 OpenAI 的語言模型 GPT-2 剛出現時,他們最初的決定是不更廣泛地分享模型,因為他們擔心它可能是危險的。這是 Peter,那時他已經離開 OpenAI,並創辦了自己的公司,但他記得發佈當天的場景:

引用顯然,它對語言的理解比以前訓練的任何東西都好得多。其發佈確實伴隨着大量的、或許是很好的營銷,或許是謹慎,或兩者兼而有之。它被稱為「太危險而不能發佈」,所以我認為這是 OpenAI 第一個決定不公開部分工作內容的項目。突然間,我們思索的事情就變成「如果某個東西太強大,人們可能會以我們無法控制的方式濫用它怎麼辦?」

一旦 OpenAI 有了一個真正強大的產品,他們就會開始重新考慮他們的開放性。

引用對於 OpenAI 這個名字,Open 真的代表一切都會是開源的,任何人都可以在其基礎上進行構建。


「開放」是公司品牌的一個關鍵組成部分。當他們成立時,Sam 告訴記者 Steven Levy:「這將是開源的,任何人都可以使用。」

他還告訴記者:「他們的 AI 將由全世界自由擁有。開源軟件,從廣義上講,意味着源代碼是公開的,任何人都可以調整代碼並自行分發。」但公司很快就開始逐步收回這些承諾。

引用顯然,隨着時間的推移,這變成了一種並非完全開源的東西,甚至根本不是開源的。我是説,現在他們絕對不會開源他們的工作。

這種開源精神似乎逐漸消失了。以下是 Sam 於 2023 年在慕尼黑的一次演講:

引用我很好奇,如果我們保持 GPT-2、GPT-3、GPT-4 的軌跡,再到 GPT-5 和 GPT-6,有多少人希望我們在完成訓練的那一天開源 GPT-6?

哇哦,好吧,我們不會這麼做,但這很有趣。

老實説,Sam 在這裏顯得相當傲慢。他知道 OpenAI 起初承諾要開源。現在他在調查觀眾對開源模型的看法,然後立即否定他們的迴應。


這些年裏,Sam 在微妙地改變「開放」的含義,它變得更加模糊。以下是他在一家風投公司發表的講話:

引用這就是我們所稱的 OpenAI,我們希望這項技術對所有人開放。

他這樣説得如此自然,好像這很明顯開放意味着什麼。但他的定義在我看來是如此模糊,以至於基本上沒有意義。我是説 Google 搜索對所有人開放。看起來 OpenAI 很高興讓人們猜測他們的開放意思。

在公司成立僅幾個月後,Ilya 在一封內部郵件中寫道:

引用隨着我們離構建 AI 越來越近,開始變得不那麼開放是合理的。OpenAI 中的「Open」意味着所有人都應該從 AI 的成果中受益,但完全可以不分享科學,儘管從短期和可能的中期來看,共享一切肯定是招募人才的正確策略。


這封郵件非常有趣,因為它表明從一開始,OpenAI 就計劃不自由分享他們的科學。他們並不想像他們聲稱的那樣開源,但他們希望保持開放的公眾形象,因為這給他們帶來了招聘優勢。

比如,不要為壞人建造 AI,來為我們工作。當我們問及他們對開放性的定義變化時,一位公司發言人表示:「我們的使命一直保持不變,但我們的策略必須改變。」

好吧,讓我們回到 2017 年。公司成立兩年後,OpenAI 出現了一個新的問題:權力鬥爭。

Elon 想接管,他是那種習慣於掌控一切的人。根據 OpenAI 的説法,他想把公司移至特斯拉旗下,並且想成為 CEO,擁有大多數股權。如果不能按他的方式進行,他就退出。


引用就像 Elon 的所有事情一樣,隨着時間的推移,他希望施加更多的控制,確保公司按照他希望的形象和方式運營。所以這就會產生緊張局勢。

這是我的同事 Ashley Vance,他寫了一本關於 Elon 的傳記。

引用Elon 在任何事情中的首選角色,是成為 CEO 和主導力量,以控制日常運作。

實際上,負責日常運營的 Greg Brockman 和 Ilya Sutskever 則非常警惕。雖然 Elon 魯莽、衝動且難以相處,但他也是他們主要的資金來源。
他承諾了近 10 億美元的資金。OpenAI 還有其他捐助者,但沒有一個接近這個數額。一個選擇是和 Elon 在一起,保留他的資金。


引用員工們並不完全贊同這個想法,並且有一些擔憂。所以達到了這個決策點:是要和 Elon 一起走,還是離開他?在最近幾年,人們幾乎總是忍受 Elon 和他的要求。

或者另一個選擇是與 Elon 分開,尋找其他資金來源。你知道誰可能在籌集資金方面表現不錯嗎?Sam Altman。

引用問題的焦點是,Elon 希望公司走一條路,而員工們希望走另一條路,於是 Sam 被選為帶領 OpenAI 前進的人。

最初的幾年裏,Sam 並沒有太多參與 OpenAI 的事務。他實際上還是 YC 的總裁,但在這場權力鬥爭中,Sam 戰勝了 Elon,這是個大事。Elon 更有名,更有經驗,尤其是他討厭失敗。

引用在衝突中,Elon 的反應是要不惜一切代價取勝。Elon 在最近幾年中很少輸掉「戰鬥」。通常來説,如果不是在公司內部,他會通過起訴某人來屈服對方;如果在公司內部,他會在政策上施壓,直到他得到想要的東西。很難找到最近幾年中他沒有得到想要結果的例子。所以公司內部的動盪一定非常嚴重,這樣才不會發生這種情況。

所以在 2018 年,Elon 憤然離開,帶走了他的資金。幾年後,他實際上會起訴 Sam 和 OpenAI,聲稱他們違背了最初的非營利和開源承諾。


在 Elon 離開後不久,Sam 成為了 OpenAI 的 CEO,而之前這裏並沒有 CEO,但這次權力鬥爭明確了 Sam 在公司中的新統治地位。記得 YC 的創始人曾説過的話嗎?「Sam 非常擅長變得有權勢。」

Sam 對 OpenAI 的興趣不斷增長,他的注意力開始從管理 YC 的工作轉移。確實,運營一個世界著名的創業加速器是一個有很多影響力的職位。

但 AGI 的競賽正在升温,如果 OpenAI 在其他人之前成功創建 AGI,難以想象有哪個職位比其 CEO 更有權力。不過,Sam 沒有立即放棄他在 YC 的工作。

這種情況讓一些運營加速器的人感到不滿。他們覺得 Sam 分心太多,推展太快,把自己的利益置於 YC 之上。這為他在自己團隊內部帶來了一些敵人。

實際上,據一位消息人士透露,Sam 的導師 Paul Graham,那個最初將他放在這個職位上的人,從英國飛來親自要求 Sam 辭職。Paul 對他以前的門生失去了信心,但他也不想製造公開的戲劇。所以 Sam 被勸退,他們對外保持了低調,現在他只專注於 OpenAI。


Sam 有一個大目標,為訓練 OpenAI 的模型籌集資金。他們需要大量計算能力,而計算能力是昂貴的。Sam 嘗試籌款,但沒有取得進展。以下是他在 Lex Fridman 播客中的發言:

引用我們一開始是一個非營利組織。我們很早就發現我們需要比作為非營利組織能籌集到的資金多得多的資金來做我們需要做的事情。我們嘗試並失敗了幾次,作為非營利組織籌集資金。我們看不到那裏的前進道路。所以我們需要一些資本主義的好處,但不能太多。我記得當時有人説,作為一個非營利組織,事情不會有足夠的進展;作為一個營利組織,事情會有太多的進展。

他們需要一些中間的東西,而且老實説,Sam 對放棄非營利後的生活並沒有太多掛心。他拼湊出了一些東西,基本上,他創建了一個營利實體,隸屬於最初的非營利組織。

營利性實體可以像普通公司那樣做所有事情,比如籌集投資和向員工提供股權,但其投資者的回報是有限的,而在其他公司則是無限的。

這種公司結構被拼湊在一起,OpenAI 現在本質上是一個由非營利組織董事會控制的營利實體,這聽起來有點不穩定。OpenAI 花了幾年時間聲稱他們將是非營利組織,現在他們找到了這種營利性解決方案。


在那次改變之後,很多人都感到不滿。但 OpenAI 更專注於他們的最終目標,他們想構建 AGI,並需要籌集資金來實現這一目標。

隨後,在 2019 年,Sam 這個交易者做了一筆大交易:他從微軟籌集了 10 億美元。以下是簽署協議後,微軟 CEO Satya Nadella 的發言:

引用嗨,我和 OpenAI 的 CEO Sam Altman 一同在這裏。今天我們非常興奮地宣佈與 OpenAI 建立戰略合作伙伴關係。

十分重要的一點是,微軟有大量的原始計算能力,而 OpenAI 現在可以使用這些計算能力。記住,OpenAI 最初被設想為谷歌的「解藥」。他們把自己表現得與貪圖利潤的科技巨頭根本不同,然後一夜之間,他們與市值超過一萬億美元的科技公司親密地聯繫在一起。

現在,OpenAI 在許多方面成了微軟的一個分支,這是一個顯著的轉變。Reid Hoffman 當時是 OpenAI 和微軟的董事會成員,他並不認為這是 OpenAI 最初承諾的放棄。

引用有人擔心這是否會破壞使命。但我覺得,認為公司等於壞或腐敗是一種現代的天真,因為有很多方式公司與人類和社會合作。他們嘗試服務客户,僱傭員工,擁有股東,也存在於社會中。

Reid 的觀點是,想賺錢並不意味着你是壞的,這對一個億萬富翁風投資本家來説是符合品牌的。


我有着一種看法,微軟的交易可能是 OpenAI 繼續實現其為全人類創建安全 AGI 的使命的最實際方法。但它也突顯了一個重要特點,即 OpenAI 在方便時往往會收回其承諾。

在此之下,人們開始質疑 Sam 的誠信,無論是在公司內部還是外部。

這將會導致一個大的裂痕。

讓我們在下一集「Foundering」中再見!


資料來源:愛範兒(ifanr)
標籤: OpenAI  

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→