編者按:本文來自微信公眾號“機器之心”(ID:almosthuman2014),選自KDNuggets,作者Francesco Corea,沈澤江、李亞洲編譯,36氪經授權發佈。
曾經,人工智能被人們視作未來科技。但如今,人們想要看到超越人工智能的未來。在如今物聯網、機器人、納米科技及機器學習逐漸發展和崛起的背景下,本文試圖解讀人們對人工智能在未來五年內發展的看法。
概要
很顯然,在過去幾年間,人工智能給許多領域造成了非常大影響。不過,人們現在考慮的是,人工智能在未來五年內會在哪些領域發展。筆者認為,有必要(撰寫一篇文章)描述如今我們如今看到的一些發展趨勢,並對關於機器學習領域未來的發展做出一些預測。如下提出的列表並不一定窮舉了所有的可能,讀者也無需奉之為圭臬。但它們源自於在考慮人工智能對我們世界影響時,筆者認為有用的一些觀點。
關於人工智能的十三點預測
人工智能工作時需要的數據量會變得更少。
諸如 Vicarious 或 Geometric Intelligence 這樣的公司,正在努力減少訓練神經網絡所需要的數據集的大小。訓練人工智能使用的數據量如今被視為其發展的主要障礙,同時也是其最主要的競爭優勢。同時,使用概率歸納模型(probabilistic induction, Lake 等人提出, 2015)能夠解決這個在人工智能發展上的主要問題。某種不那麼需要大量數據的算法,最終將會以豐富地方式學習、吸收並使用這個概念,無論是在行動上、想象上還是在探索中。
新的學習模型是關鍵要素。
一種名為轉移學習(Transfer Learning)的技術能允許標準的強化學習(Reinforcement Learning)系統基於之前獲取的知識進行構建——而這是人類能輕鬆完成的。它隸屬於增量學習(Incremental Learning)技術。而 MetaMind 則在研究多任務學習(Multitask Learning)問題。在其中,同一個神經網絡被用來解決不同類型的問題,且當該神經網絡能夠在一類問題上表現更好時,那麼它也能在另一些問題上表現更好。MetaMind 的下一步發展,是引入動態神經網絡(Dynamic Memory Network)的概念,它能夠回答特定問題,並能夠推斷一系列話語間的邏輯聯繫。
人工智能會消除人類(認知)偏差,並能讓我們變的更像人造的。
人類的天性,將會因為人工智能而改變。Simon(1995)表示,人類不會作出完全理性的選擇,因為(做出)最優化選擇代價高昂,還因為人腦計算能力有限(Lo, 2004)。人們常常做的是尋求滿意解,即挑選出至少是能使自己滿意的選擇。在生活中引入人工智能,或許會結束這樣的情況。當(裝備了人工智能)人類不再受計算能力約束後,這終將會一勞永逸地回答,是認知偏差真實存在並且是人類本能,還是這些行為只是在有限信息環境下或限制性情況下進行決策的捷徑。Lo(2004)認為,人類(做決策時)的滿意點,是在一系列的進化嘗試和自然選擇的過程中形成的。在其中,個體基於過去數據和經驗進行預測並做出選擇。他們根據接受的正/負反饋進行學習,並能夠啟發式的快速解決相關問題。但是,一旦環境改變,適應過程則有些延遲和緩慢,而且一些老的習慣並不能適應新的改變——這就造成了行為偏差。人工智能則會縮減這些延遲時間到 0,虛擬化的消除任何行為偏差。
此外,基於經驗隨時間進行學習,人工智能成為新的變革工具:我們通常不評估所有的備選決策,因為我們不能想到所有決策(知識空間有限)。
人工智能會被愚弄。
如今的人工智能遠非完美,同時也有很多人正專注於研究如何欺騙人工智能設備。最近一個被叫做對抗樣例(Adeversarial Examples; Papernot 等人, 2016; Kurakin 等人, 2016)算法被研發出來,它是首個能夠誤導計算機視覺的方法。智能圖像識別軟件會被經過微妙處理的圖像所愚弄,該軟件會對這些圖像進行錯誤地分類。但有趣的是,這種方法卻不會欺騙人類。
人工智能的發展伴隨着風險。
主流的聲音認為,人工智能正越來越成為人類潛在的災難。當一個超級人工智能系統(ASI, Artificial Super Intelligence)被造出的時候,也許它的智慧遠超過人類,甚至它能夠想到並做到我們今天不能預測的事情。儘管如此,我們認為,在這些可怕的於人類存亡相關的威脅之外,還存在着不少和人工智能相關的風險。我們對於超級人工智能會做什麼、怎麼做,這背後隱藏的風險實際上都無法理解,無論它們會對人們造成正面的還是負面的影響。再之,在從狹義人工智能(Narrow Artifical Intelligence)向強人工智能乃至超級人工智能轉換的過程中,會產生一個內在的責任風險——誰會對可能出現的錯誤或者故障負責?更進一步,在究竟誰能主導人工智能、人工智能的能力應該被如何使用的方面,也同樣存在着風險。在這種情況下,我們確實覺得,人工智能應當作為一個工具(或是面向所有人的公眾服務)被使用,並預留一定程度的決策權給人類以幫助該系統處理罕見的意外情況。
真正的通用性人工智能很可能是一種集體智能(Collective Intelligence)。
強人工智很有可能不會是一個具有強大決策功能的單一終端,而是一種集體智能。羣體智能(Swarm or Collective Intelligence, Rosenberg, 2015;2016)可以被視作「一羣大腦的大腦」。到目前為止,我們僅讓個體提供輸入值,然後我們以一種「平均情緒」的智能方式整合這些事後輸入。Rosenberg 稱,現存的實現人類集體智能的方法,甚至都不允許用户之間互相影響。它們通常的處理方式,是隻允許影響非同步出現——這會導致羣體性偏差。另一方面,人工智能則會解決這樣的聯通缺陷,並且創建一個與其他物種非常相像的統一的集體智慧。自然中較好的例子來自於蜜蜂,它們進行決策的方式和人類神經運作的方式非常相像。它們都是用了大量的可執行單元,它們同步運行,能夠整合噪聲、權衡替代方案,並最後能夠形成特定的決策。Rosenberg 認為,這個決策經過在分佈的可執行單元和子羣上的實時閉環競爭而最終形成。每一個子羣都支持一個不同的選擇,而最後共識的達成不是經過經過類似「平均情緒」的方法由大眾決定,而是以一種「足夠激勵量」(Sufficient Quorum of Excitation, Rosenberg, 2015)的方式確定的。對於替代方案的抑制機制,由其他子羣產生,能夠避免整體系統達到一個局部優化決策。
人工智能會帶來無法預期的社會政治影響。
人工智能首先帶來的社會經濟方面的影響,是失業問題。儘管從一方面來説這是一個非常現實的問題(當然也在很多方面帶來了機會),我們認為也應當從其他不同的方面來看這個問題。第一,工作機會是被完全地摧毀了,而是會變得不同。因為數據將能被個人而非企業直接獲取和分析,因而許多服務會逐步消失。並且,人工智能會使得知識分佈趨於分散化。我們認為在這場革命中更應該關切的,是它帶來的雙重後果。首先,使用更聰明的(人工智能)系統後,在特定的領域內,越來越多人將喪失它們的專業性。這預示着,人工智能軟件需要被設計整合一套雙重反饋系統,能夠整合人類和機器的處理方法。我們的第二點擔憂和之前提到的第一個風險相關,我們擔心人類將淪為「機器技術員」。因為大家都認為人工智能更擅長於解決問題,覺得它們很更可靠(,所以我們會更多地部署人工智能系統)。這種惡性循環將會讓我們變得更沒有創造力、失去獨創力、更不聰明,並會以指數地增加人機的差異。我們正體驗着這樣的系統,或是當我們使用它時我們會更聰明,或是當我們不使用它時我們會覺得糟糕。我們希望人工智能更傾向於變為前者,而不是帶來新的「智能手機效應」——我們會完全地依賴於它。最後,這個世界正變得越來越對機器人友好,人類在其中也扮演着連接機器人的角色而與之對立。機器人(在社會中)正逐步起到主導作用,它們對人類的影響相比人類對他們的影響也越來越大,這也許會讓人類最終變為(社會系統中的那個)「故障」。
而在地緣政治方面,我們則認為人工智能會對全球化造成巨大的影響。有這樣的可能,由人工智能系統控制機器人運行的被優化的工廠,其廠址最終會重新回到發達國家。因為(到那時)在新興國家建廠,會失去那些傳統的低成本的理由。我們不清楚,這是會平衡國家之間的差異,還是會增大發達國家和發展中國家間已經存在的差異。
真正的人工智能應該開始問「為什麼」。
到目前,大多機器學習系統都能夠在模式識別及輔助決策方面做的很好;並且因為大部分程序都被硬編碼了,所以它們仍能夠被理解。儘管我們已經能讓人工智能闡明「是什麼」和「如何做」,這已經是一個不錯的成就,但人工智能仍未能夠理解事物背後的「為什麼」。因此,我們需要設計一個通用算法,它能夠從物理上及精神上建立關於世界本質的模型(Lake 等人, 2016)。
人工智能正在推進隱私保護問題和數據泄漏預防問題。
人工智能將隱私問題提升到了一個新的等級。新的隱私保護方法應當被發明及採用,它們應當比簡單的安全多方計算法(SMPC)複雜得多,也應該比同態加密法(homomorphic encryption)高效迅速。最近的研究表明,差分隱私(Differential Privacy)法能夠解決大部分我們日常遇到的隱私問題。不過已經有不少公司走得更遠,如 Post-Quantum 公司——這是一家基於量子計算的網絡安全創業公司。
人工智能正在改變物聯網(設備)。
人工智能(的發展)允許物聯網設備能被以完全分佈式的架構進行設計,在其中每一個節點都能夠進行自己的預算(也就所謂的邊界計算)。在傳統的中心化模型中,有一個被稱作是服務器/客户端模型的問題。其中的每一台設備都連接到雲端服務器,並由雲端服務器識別、驗證,這導致了非常昂貴的設備費用。但基於分佈式方法設計的物聯網網絡或是傳統的點對點(Peer-to-Peer, P2P)架構,則能夠解決這個問題、降低費用,並能夠避免因一個節點實效而造成整個系統損壞的問題。
機器人學正變為主流。
筆者認為,人工智能的發展會受到機器人學發展的制約。同時,這兩個關聯的領域會以相同的速度發展,以最終得到一個適當的強人工智能或超級人工智能。如下圖所示,在我們的研究乃至我們的集體意識中,我們不會視那種沒有「物理實體」的人工智能為強人工智能或超級人工智能。
關於機器人學及人工智能相關領域的研究趨勢(由 CBInsights Trends tool 製作)
另外還有一些證據能證明這個趨勢:
- 最近激增的機器人相關專利申請數量。據 IFI 稱,中國(近期)已經有超過 3000 項目申請,在美國、歐洲、日本、韓國等地的數量大致相同。
- 如下圖所示的最近機器人相關基金的價格走向。
機器人 STOX 基金從 2013 年至 2016 年的價格走向
人工智能在發展中也許會面臨阻礙。
在實現強人工智能的過程中面臨的最大阻礙,不是算法的選擇或數據的使用(至少不只是),而是一個結構上的問題。硬件性能、(設備間)物理的聯繫(如互聯網)及設備的耗能,是創建足夠快人工智能的瓶頸。這也是我相信存在着如 Google Fiber 這樣部門的原因,也是為什麼量子計算正變得越來越相關的原因。量子計算允許我們以超高的速度進行運算(根據物理規則它會瞬間完成),而這在傳統電腦上會耗費非常長的時間。它依靠量子力學的性質,基於傳統計算機用二進制描述問題的想法。因此,據 Frank Chen(在 Andreessen Horowitz 的合夥人)稱,晶體管、半導體及電子導體都將被量子比特所取代。量子比特由向量表示,這也意味着其運算律會不同於的傳統的布爾代數規則。
一種對傳統計算法和量子計算法區別的通俗比較,基於電話本問題(Phonebook Problem)。在電話本中搜尋號碼,傳統的方式是一條接着一條地搜索以最終找到匹配的號碼。但基本的量子搜索算法(也被叫做 Grover's 算法)則依靠所謂的「量子疊加態」。它能一次性分析所有的元素並確定最可能的答案。
建造量子計算也許會是科學界革命性的突破,但 Chen 表示現在建造它是非常困難的。亟待解決問題包括:建造計算機的超導材料需要的高温,極短的貫通時間(Coherence Time)——這是量子計算機實際進行計算的時間窗口,單次計算所需的時間,以及正誤答案之間的能量差過小難於被探測到。所有這些問題縮小了(量子計算機的)市場空間,並且只有小部分公司能夠涉足量子計算領域:科技界的巨擘如 IBM 和 Intel 已經對其研究多年;創新公司如 D-Wave System(2013 年被Google收購)、Rigetti Computing、QxBranch、1Qbit、Post-Quantum、ID Quantique、Eagle Power Technologies、Qubitekk、QC Ware、Nano-Meta Technonoliges;還有奠定量子計算基礎的 Cambridge Quantum Computing 有限公司。
生物機器人和納米科技將是未來人工智能的應用方向。
我們正見證着在人工智能和納米機器人交叉領域,一些列令人震驚的發展。研究人員正致力於創造完全完全智能的裝置,同時也在研究相關的結合體。他們甚至嘗試研發出生物導線(一種由細菌製造的導線)及器官芯片(由人細胞製作的、人器官中起功能部分的微型模型,能夠複製器官的部分功能;在該領域,Emulate 是最領先的公司)。生物機器人方面的研究同時也考驗着着材料性能的極限。最近一種「軟」機器人被製造出來,他只有軟的構建。BAS Systems 公司也在推進計算的發展,正嘗試研發一種「化學計算機」(Chemputer),一種能夠使用先進化學過程以「生長」複雜電子系統的裝置。
資料來源:36Kr
請按此登錄後留言。未成為會員? 立即註冊