代碼的終結,我們很快就能像調教狗一樣來調教我們的計算機

36氪 於 24/05/2016 發表 收藏文章

在發明計算機之前,大部分的實驗心理學家都認為大腦是一個不可知的黑盒子。你可以分析一個實驗對象的行為,例如,一旦聽到鈴鐺想起,狗便會分泌唾液。但是思想、記憶和情緒這些東西該如何分析呢?這些東西比較神祕莫測,讓人難以琢磨,超越了科學研究的範疇。所以這些行為學家們將他們的研究範圍限定在刺激和反應、反饋和強化、鈴鐺聲和分泌唾液的關係上面,他們沒有去嘗試了解心靈意識的內部工作機制,這種情況已經持續了大概 40年 的時間。

到了 1950年 代中期,一羣不按傳統規則辦事的心理學家、語言學家、信息理論家和早期的人工智能研究者提出了一個全然不同心理概念。在他們看來,人不僅僅是條件反射的集成,人是會吸收信息、處理信息並根據處理結果採取行動的。人擁有專門的書寫記憶、儲存記憶和調取記憶的系統,這些系統是通過一種有邏輯的形式化語法運轉的。在這些人看來,大腦並不是一個黑盒子,它更像是一台計算機。

這種所謂的認知革命是慢慢開始的,然而隨着計算機成為全國所有心理學實驗室的標準配備之後,認知心理學獲得了更加廣泛的認可。到 1970年 代後期,認知心理學就已經顛覆了行為主義學,認知心理學使用一套全新的語言來描述心理活動。心理學家開始將思想看作程序,大眾也開始談論將東西儲存在記憶銀行裏之類的東西。

誰控制代碼誰就能控制世界?

隨着數字革命逐漸滲透到人們日常生活中方方面面,它也開始滲入到我們的語言以及我們對事物工作機制最基本的看法裏。科技做的就是這樣的事情。在啟蒙運動時期,牛頓和笛卡爾鼓勵人們將宇宙想象成一個精美的鐘表。到了工業時代,激起人們新認知的是帶活塞的機器。到了今天,計算機開始從根本上改變人的認知。如果世界是一台計算機,那麼這個世界就是可以被編程的。

代碼具有邏輯的,代碼是可以被控制的,代碼就是命運。這些理念是數字時代生活的核心原則。隨着軟件逐漸吞噬着整個世界,就好比著名的風險資本家 Marc Andreessen 之前説過的那樣,我們現在正生活在機器的海洋裏,機器將我們的行為、想法和情緒轉變成了數據,數據則是用來給工程師進行編碼操控的原材料。我們現在已經將生活看成了一種被一系列指令控制的有規則的東西,這些指令可以被發現、利用、優化甚至重寫。公司用代碼來理解我們最密切的聯繫,Facebook 的 Mark Zuckerberg 甚至猜想在人類關係裏可能存在一種基本的數學定律,這個定律控制着我們所關心的人和事的平衡。2013年,著名的基因科學家 Craig Venter 曾宣稱,在人類基因組解碼的 10年 後,他就已經開始編寫能夠讓他創造合成生物的代碼了。“在這個星球上,我們知道的所有活細胞都是 DNA 軟件驅動的生物機器。” 甚至一些自助文學也闡明這樣了這樣一個觀點,即你是可以控制自己的源代碼的,你可以對你的戀愛生活、睡眠習慣和消費習慣重新進行編程。

在如今的這個世界上,編程的能力已不僅僅是一個理想的技能,它已經成為了一種語言。懂得這門語言,意味着你就獲得了權利槓桿。未來學家 Marc Goodman 曾這樣説過:“如果你控制了代碼,你就控制了整個世界。” 相比之下,Paul Ford 的用詞稍微委婉一些:“即使控制代碼的人沒能控制世界,他們也控制了可以控制世界的東西。”

不管是你喜歡還是討厭這種狀態,也不管你懂不懂編碼,都請你不要習慣它。我們的機器現在開始説一種完全不同的語言了,即使是最好的程序員也無法完全理解這種新語言。

機器學習的崛起

在過去幾年時間裏,矽谷的很多大科技公司已經開始研發一種稱為 “機器學習” 的全新的計算方法。傳統的編程裏,程序員寫出一步步的明確指令去讓計算機執行。但是在機器學習裏,程序員將不再為計算機編寫指令,而是會訓練計算機。舉個例子,如果你想教會神經網絡能夠識別貓,你不是告訴它通過鬍子、耳朵、毛和眼睛去識別,而是通過簡單地給它展示成千上萬張貓的照片,神經網絡通過這種方式最終就能識別貓。如果它錯誤地將狐狸歸為貓的話,你不需要重寫代碼,只需繼續訓練它就行。

這種方法其實並不是最新新出現的,其實它已經存在幾十年的時間了,只不過最近才慢慢變得強大起來,這主要得益於深度神經網絡的崛起。深度神經網絡是一種模仿大腦神經元多層連接的大規模分佈式計算系統。不管你有沒有意識到,人類眾多的網上活動的背後都是由機器學習驅動的,例如,Facebook 用機器學習決定哪些內容會出現在你的信息流中,Google Photo 用它來進行人臉識別,微軟 Skype Translator 的背後也是機器學習來驅動的,它能夠將語音實時轉換成不同的語言。就連 Google 的搜索引擎也開始越來越依賴這些深度神經網絡。此外,無人駕駛汽車也開始利用機器學習來避免發生交通事故。今年2月 份,Google 開始任命機器學習專家 John Giannadrea 作為新的搜索引擎主管。“通過打造深度學習系統,我們就不用自己寫這些搜索規則了。” Giannadrea 這樣説道。
不過這裏有一個問題,在運用了機器學習後,工程師將無法準確了解計算機是如何完成任務的。神經網絡的運行在很大程度上都是不透明的,也是高深莫測的。換句話説,它是一個黑盒子。隨着這些黑盒子完成我們越來越多的日常數字任務,它不僅會改變我們與技術的關係,它還會改變我們看待自己、看待世界以及我們在世界中所處的位置的方式。

一個時代的終結

按照傳統的觀點,程序員就好比是上帝,他們制定了控制計算系統的程序規則,如今,程序員則更像是家長或動物訓練師。正如任何家長或動物訓練師可能會告訴你的那樣,這是一種更加神祕的關係。

Andy Rubin 是一位經驗特別豐富的程序員,他參與聯合創建了 Android 操作系統。熟悉他的人都知道,他在辦公的地方和家裏放了很多各種各樣的機器人,並親自為這些機器人進行編程。 “我在非常小的時候就開始接觸了計算機科學,熱切非常喜歡它,甚至可以完全沉迷在計算機的世界裏。它就像是一塊空畫布,我可以在上面從無到有地進行各種創造。在過去這些年裏,它給我一種能夠掌控世界的感覺。” Rubin 這樣説道。

Rubin 説,如今,原來的那個世界即將結束了。Rubin 對機器學習的興起充滿了激情。他現在自己創辦的新項目 Playground Global 主要就是投資機器學習領域的創業公司,並將自己定位為智能設備普及的領航者,不過這卻讓他感到有些失落,因為機器學習已經改變了他作為一名工程師的含義。

“人們不再線性地寫程序了。在神經網絡學會如何識別語音之後,程序員無法深入內部,看這一切究竟是如何發生的。它就像你的大腦,你肯定不能將你的頭砍下來看大腦究竟在想什麼。” Rubin 這樣説道。如果工程師一定要深入探究深度神經網絡的話,他們看到的將是一個數學的海洋:一個巨大的、多層的微積分問題,通過不斷推導數十億數據點之間的關係,從而得出對世界的一個猜測。

人工智能本來不應該按照這種方式工作的。就在幾年前,有一些主流的人工智能研究者還這樣認為,為了創造智能,我們必須在機器裏輸入正確的邏輯。在編寫了足夠多的規則之後,我們便能最終創建一個足夠成熟的系統來了解這個世界。他們大都忽視甚至詆譭一些早期機器學習的支持者。這些早期的支持者認為應該給機器輸入數據,直到它們自己能夠得出結論。在過去多年時間裏,計算機一直沒能發展地足夠強大去真正證明這兩種方法究竟哪種方法好,這個爭論已經發展成一個哲學上的爭論。Google 無人駕駛汽車研發人員及前斯坦福大學人工智能教授 Sebastian Thrun 表示:“大部分爭論都基於這樣一種堅定的信仰:這個世界該怎麼組織起來,大腦是如何運行的。神經網絡沒有規則或符號,有的只是數字,這無疑疏遠了很多人。”

對就業市場的影響

一種不可分析的機器語言的啟示不僅是一種哲學方面的啟示。在過去 20年 裏,學習編程成了未來能找到工作的最保險的方式之一,這也導致很多家長開始為自己的孩子報各種編程培訓班。但是一個神經網絡連接的深度學習機器的世界所需要的是一種完全不同的工種。分析師現在已經開始擔心人工智能可能會對就業市場產生的影響,這和新機器會淘汰一些陳舊技能是一樣的道理。程序員們可能很快就會嚐到內中滋味了。

科技大佬 Tim O'Reilly 談論這種轉變時表示,傳統的編碼工作是不會完全消失的,他還預測,在未來的很長一段時間內,我們將依然需要程序員,但所需求的程序員的數量可能會減少,編程在未來將會變成一項元技能。Allen 人工智能研究所的 CEO Oren Etzioni 表示,機器學習需要在一個 “骨架” 內運行,創建這種 “骨架” 需要編程。這和 “牛頓力學不會因為量子力學的發現而被排擠” 是一樣的道理。編程將依然是探索世界的強大工具,不過驅動具體功能方面的工作則主要由機器學習來完成。

當然了,人類依然需要訓練這些系統。但至少目前看來,訓練的工作將是一個非常稀有的技能,因為這項工作既需要對數學有非常深度的掌握,也需要對教學法有非常好的直覺。Google 的 DeepMind 人工智能團隊的主管 Demis Hassabis 曾表示:“這就像是一種藝術形式,它能從這些系統中獲取最好的東西。全世界其實只有幾百人能夠很好地完成這項工作。” 然而如此少的人卻在過去短短几年的時間裏徹底改變了這個技術行業。

這種轉變給就業市場帶來了很大的改變,不過它對文化的影響力更大。如果人類編寫軟件的崛起導致了人們開始推崇工程師,讓大家認為人類體驗最終可以被簡化為一系列可理解的指令,機器學習則會導致恰好相反的結果。運行宇宙的代碼可能會藐視人類的分析。例如,Google 目前正在歐洲面臨反壟斷調查,認為 Google 對搜索的結果施加了不正當的影響。如果連 Google 公司自己的工程師都搞不清搜索算法究竟是如何運行的時候,這種指控將很難得到證實。

這類不確定性的爆發其實由來已久。即便是非常簡單的算法也能產生無法預測的緊急突發行為,這早已不是什麼新鮮事了。這一切可以追溯到混沌理論和隨機數發生器。在過去多年裏,隨着網絡變得越來越錯綜交錯,它們的功能也隨之變得越來越複雜,這讓代碼看起來就像是一種外星神力,隱藏在機器裏的幽靈也更加讓人捉摸不定和無法控制。

這些力量讓技術專家 Danny Hillis 宣佈啟蒙時代已經終結,我們過去數百年對邏輯性、確定性和控制自然的信念也隨之終結。Hillis 表示,我們現在正在走進他稱為的 “糾纏時代”(age of Entanglement)。Hillis 在《Journal of Design and Science》這本雜誌上這樣説道:“隨着我們的技術和制度創新變得越來越複雜,我們和它們的關係也隨之發生了改變。我們將不再是我們創造的東西的主人,我們已經學會了與他們討價還價,以甜言蜜語哄騙和引導它們朝着我們總體的目標方向前進。我們創造了我們自己的叢林,不過它也有它自己的生命。” 機器學習的崛起是這個旅程的最新甚至是最後一步。

這聽起來非常令人恐懼。畢竟編程是一個普通人在參加了培訓班後都能掌握的一項技能。程序員至少依然是人類。如今,科技精英人羣規模開始變小了,他們對於自己創造的東西的控制力也開始慢慢減弱。打造機器學習的公司發現它們是非常難以控制的。去年夏天,Google 的圖片識別引擎將黑人圖片誤認為是大猩猩,Google 馬上出面道歉。為了解決這個問題,Google 採取的第一個措施竟然是:讓這個識別系統不要把任何東西標記為大猩猩。

部分人開始認為我們已經進入了這樣的時代:人類已經喪失了對機器所擁有的權威。 Stephen Hawking 這樣寫道:“人們可以想象,技術比金融市場更聰明,比人類研究者更擅於發明創造,比人類領導者更擅於操縱與控制,它們甚至會研製出一些人類無法理解的武器。雖然人工智能的短期影響依賴於控制它的人,它的長期影響則決定於它是否能夠被控制。”

但也不用太過恐懼。我們現在還在學習與新技術互動的規則。現在工程師們已經開始想辦法如何讓深度學習系統內部工作機制可視化。不過即使我們永遠不能完全理解這些這些新機器的思考方式,這也並非意味着我們在它們面前是無能為力的。我們未來不會過於關注它們行為的內在的根源,我們會更多地學習將注意力集中在行為本身上面。相比代碼而言,我們用來訓練它的數據更為重要。

如果你覺得這看聽起來有點熟,這是因為它和 20 世紀的行為主義非常像。事實上,訓練機器學習算法的過程經常被比作成 1900年 代早期的偉大的行為主義實驗。Pavlov 用鈴鐺引發小狗分泌唾液並非通過對小狗飢餓的深度理解,而僅僅是通過不斷地重複同一個動作。他不斷地提供數據,直到代碼重寫了它自己。不管你對行為主義者是什麼想法,他們確實懂得如何控制他們的實驗對象。

Thrun 表示,從長遠來看,機器學習會有一種民主化影響。就好比你今天不需要懂 HTML 技術就能創建網站一樣,你最終也將不需要擁有博士學位就能挖掘深度學習的無窮力量。編程將不再是掌握經過訓練的掌握一系列神祕語言的程序員的獨有技能。只要你之前曾教過小狗翻身打滾,你就能掌握。這對我來説是最酷的事情,因為到時任何人都可以編程了。

在大部分的計算曆史上,我們一直在採用由內而外的視角來看待機器是如何工作的這個問題。首先,我們編寫代碼,然後由機器去表達它。這種世界觀藴含了可塑性,但同時也展示了一種基於規則的決定論,即事物是最深層的指令的產物。機器學習則與此恰好相反,它採用的是一種由外而內的視角,在這種視角下,代碼不僅決定行為,行為同時也決定了代碼。機器是這個世界的產物。

最終,我們既會領教手寫的線性代碼的力量,也會感激機器學習算法調整它的力量。像 Crispr 這樣的基因組編輯技術給了生物學家那些傳統軟件程序員已經運用的操控代碼的力量。不過在表觀遺傳學領域的發現表明,遺傳物質並不是一套一層不變的指令,而是一套會根據所在環境和經驗調整的動態開關。我們的代碼並不會脱離物質世界而單獨存在,它是被物質世界深深影響的。基因科學家 Venter 可能會相信細胞是 DNA 軟件驅動的機器,但遺傳學專家 Steve Cole 則提出了一個不同的想法:一個細胞就是一個將經驗轉化為生物的機器。

今天,計算機已經變成了一種能夠將經驗轉化為技術的設備。在過去的幾十年裏,我們一直在尋求能夠解釋和優化我們對於世界的體驗的神祕代碼。但我們的機器無法按照這種方式工作太久。我們與技術的關係將會變得越來越複雜,最終我們也將能從這種關係中受益更多。我們將從之前的純粹命令控制我們的設備轉變為培養調教和訓練它們。


資料來源:36Kr

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→