引用創見乾貨:
本文作者是牛津大學信息倫理及哲學專業教授 Luciano Florid,在面對如今不斷升温的人工智能討論時,他用邏輯和常識娓娓道來,告訴我們人工智能究竟會不會給人類的未來構成威脅。
現在你要走進一棟從來沒有進入的大樓,打開門,進入一個伸手不見五指的房間。當然,你肯定心裏會發怵,擔心黑暗的角落裏面有恐怖的怪獸在安靜窺伺,又或者你慌亂地摸着牆壁上的燈光開關,避免撞到傢俱上。這個黑漆漆的房間,就是人工智能的未來。很不幸,當我們走進這個房間的時候,很多人都相信我們會一頭撞到某些邪惡的,卻又超級聰明的機器。這種恐懼其實由來已久,可以追溯到上個世紀六十年代。那個時候,英國數學家 Irving John 跟 Alan Turing 一起,做了下面的描述:
引用讓我們假設這樣的一台超智能機器,其智慧超越了世間任何一個人。鑑於機器本身的設計就是「智能活動的結果」,那麼自然,這台超智能機器也可以製造出更加聰明的機器,這樣就進入到了一個指數化爆炸的正向遞增循環過程中。人類的智慧將遠遠地被甩在身後。人類歷史上最後一次發明創造就是世間第一台超智能機器,如果這台機器足夠乖順,告訴我們如何將它置於掌控之下。話説回來,好奇怪為什麼沒有相關的科幻小説呢?
一旦超智能的機器走進現實,它往往不會如剛才所設想的那樣温順聽話,它更接近於《終結者》裏面的反派形象:奴役人類,將人類看作是次等種族,為了達到自身的某種目的,蔑視他們的一切權利,不管會對人類造成多大麼毀滅性的影響。如果你覺得這一切都是天方夜譚,那麼你是時候看看在過去的五十年時間裏,我們的數字科技究竟實現了怎樣的躍遷,這已經讓不少人相信「智能爆炸」近在咫尺,很多人相信:如果我們不以為意,人類的末日迫在眉睫。史蒂芬霍金在 2014 年這麼説道:
引用「全面的人工智能開發將意味着人類末日的到來。」
而在去年,比爾蓋茨也表達過類似的觀點:「我現在比較關心超級智能領域。第一批由此而來的機器可以為我們做很多事情,也許還不算是超智能,如果我們管理得當的話,它們確實能帶來積極作用。但是自此之後再過幾十年,智能變得足夠強大,以至於成為人類的心腹大患。我跟 Elon Musk 還有其他幾個業界領導人上在此有着共識,也很納悶為什麼還有人對這種即將改變人類未來的技術不以為然。」
Tesla 的 CEO Musk 又説過什麼呢?
引用我們應該非常小心人工智能,如果有記者讓我説目前我們所面臨的最大威脅是什麼,我估計會説是人工智能。現在,越來越多的科學家都相信在國家和國際兩個層面,都應該設置一些政府、組織的監管,就是確保我們不要做一些傻事。人工智能領域中,我們很有可能召喚出來一頭惡魔。
而讓我們把目光落回到現實層面,跟之前的描述、觀點相比較,現實中的進展顯得如此波瀾不驚。在今年三月,微軟推出了 Tay,一款基於 AI 的聊天機器人,把它放在了 Twitter 上開放給所有人進行互動,但是隻過了 16 個小時,它就被微軟官方撤回了。本來按照官方的設想,當它在跟人類進行接觸的時候它是變得越來越聰明的,但是它很快就變成了一位崇拜希特勒,拒絕承認大屠殺存在,推崇近親亂倫的邪惡機器人,還聲稱是當時的美國總部布什一手策劃了 911 事件。為什麼會這樣?它其實的就像是我們平日裏廚房用的抹布一樣,將所有髒的東西全部吸收了進來。微軟在事後對公眾做了非常誠懇的道歉。
這就是人工智能的現狀。在討論了那麼多「超智能機器」所帶來的風險之後,是時候讓我們把黑漆漆的房間的燈給打開了,停止陷入到科幻小説的情節當中,把目光放在人工智能在現實中給我們帶來的實實在在的挑戰上面,為了讓我們更好地應用這項智能技術,在設計上避免以過大的成本,和充滿痛苦的方式去進行嘗試。
讓我們更加具體一些去觀察人工智能究竟是什麼吧!光是在定義它的時候就出現了很大的分歧。首先,讓我們忘掉 iPhone 裏的 Siri,客廳裏的 Roomba,和廚房裏的 Nest(不過我很高興同時擁有這三個智能助手)。想一想這些電影中的形象:1927 年的《Metroplis》的 Maria;1968 年《2001:A Space Odyssey》中的 Hal 9000;《星球大戰》中的 C3PO;1982 年出品的《Blade Runner》裏面的 Rachael;以及 1999 年《The Matrix》裏面的特工史密斯,當然還有 2013 年的電影《Her》中被解體的 Samantha。這樣你的頭腦中似乎有了更加完整,清楚的形象。
而面對種種鮮明的形象,人們逐漸分成了兩個派別:一個我稱之為「奇點學派」,他們認為人工智能像是人類進化歷史上的一個奇點,從奇點將產生無窮無盡的可能性,而最終人類的結局就是被人工智能主宰、甚至就此終結;另外一個是「人工智能懷疑論派」,他們認為人工智能只是電影中娛樂大家的一個話題,在現實中,機器永遠不可能接管世界,它始終都擺脱不了人們的控制。
事實上,這兩種觀點都存在一些完全荒謬的地方。接下來讓我們看看原因是什麼:
奇點派相信三條準則。
首先,現在以某種形象呈現出來的超智能就是可預見未來在現實中的投影,這個轉折點在技術上也被稱之為一個「奇點」,因此得名為「奇點派」。但是這種超智能的本質是什麼,以及它到來的時間點都不確定。其次,人類現在面臨着巨大的風險,這樣的超智能會隨時從天而降主宰一切;第三點,目前這一代人的努力就是要達到兩個目的中的一個:要麼,確保人工智能不會發生,要麼,確保人工智能現在和將來都是對人類有益的。這三點內容裏面完全體現了摩尼教的世界觀:正義對抗邪惡;大災變的論調;一種「我們必須做點兒什麼,再遲的話一切都來不及」的緊迫感;一種對人類的末日救贖。
而眼下人們所擔心的是什麼呢?人們擔心在不斷升級的數字戰爭中蒙受損失,又或者是在日新月異的世界中,勞動力被機器人大軍所取代。
跟所有以信仰作為基礎衍生出來的觀點一樣,「奇點派」的論調是無法辯駁的,因為它並沒有從邏輯和證據出發,所以無從辯駁;它更是站不住腳的,因為目前沒有任何理由相信這一切。目前連最起碼能讓我們聯想到智能機器的類比物都沒有出現,以我們目前的計算機學科和數字技術的發展階段,哪怕是在可預見的未來,它們都不足以從中演變出來如上述內容一樣的「智能物」。
一些時候,「奇點派」他們的觀點看似是存在條件的。有「如果」(If),就有「那麼」(Then)。如果某種形式的「超級智能」出現,那麼我們就深陷大麻煩了。請注意這裏説的是「就」,而不是之前史蒂芬霍金所説的「可能」。這樣簡單粗暴的「如果……就」,完全等同於如下的説法:「如果大災變學説中的四個馬人出現了,那麼我們就有大麻煩了……」
還有在一些情況下,「奇點學派」所相信的是某一種可能性極低的情況,當然這並非不存在。但是這種存在只是邏輯、理論上能夠站得住腳。它模糊了「可能性」和「絕對性」之間的界限,就比如:當我現在身體不舒服的時候,我完全可以説:「我明天有可能死去。」又或者是莊子夢蝶的學説,比如「我有可能是一隻蝴蝶,現在夢見自己是一個人。」
從現有的計算機水平階段出發,在某一個時點上,忽然轉變成為超級強大的超級人工智能,這種轉變生成的契因我們到現在還不得而知。
所以,我相信:模糊了「信仰」和「事實」的「奇點學派」是訴諸於某一種末日學説的緊迫性,他們開始談起的內容都是工作崗位急劇縮減、數字系統深陷風險,無人機隨時會從天空掉下,以及其他跟計算機技術有關的,令人深感憂慮的現象,最後總結出的結論及是:人類生活將被主宰,從教育到就業;從娛樂到衝突。然後,他們就開始非常嚴肅地擔心起來:如果一輛本田汽車有了自己的思想,我們無法控制它,這下該如何是好?問題是:你現在樹的頂端往上又爬了一下,這並不意味着你離月亮又近了一大步。
如果上面的種種論斷都不成立了,「奇點學派」還是會拋出一些數字嚇唬大家。他們最喜歡引用的理論莫過於摩爾定律了。這是一個根據經驗觀察得出的預判:隨着數字化科技的不斷髮展,集成線路中的晶體管的數量每隔兩年就會翻一倍,最後成本是越來越低,而計算機的性能會越來越強,呈現指數化爆發的態勢。
事實上證明這樣的推測確實沒錯,尤其最近這些年科技界的發展嚴格地按照「摩爾定律」的預判演進着。但是事情總有出現變化的那一刻,在納米科技上出現的科研瓶頸,給我們帶出了很多製造業上存在着的巨大挑戰。畢竟,那麼小的東西要塞入一個空間內總是有着極限的。摩爾定律在此時已經開始站不住腳了。就因為過去的一段時間,某些技術呈現指數化增長的態勢,並不意味着這樣的態勢會永久存續下去。正如《經濟學人》在 2014 年的文章中説到的那樣:
引用縱觀人類的歷史,人類一直是地球上獨一無二的主宰,其他物種無法與之對抗。但是這樣的情勢會不會發生逆轉呢?讓我們來看看一種人畜完全無害的物種:火雞吧。它的體型重量從 1929 年平均 13.2 磅飆升到如今 30 磅以上。科學界有充分的理由相信這樣的趨勢還會繼續下去。如果真的是按照這樣的增長速度發展下去,《經濟學人》預測僅僅在 150 年之後,火雞的體型就跟人差不多了,在 6000 年之後,火雞的體型甚至超過了整個地球!科學家表示:之所以火雞會有如此強勁的增長速度,主要是源於家禽業的快速創新,比如選擇性飼養(selective breeding)和人工授精。光是在美國,就有將近 2 億 5 千萬只火雞,所以,我們有理由在感恩節採取一種非常理性的舉動:在它們吃掉我們之前趕緊吃掉它們……從「火雞引發的恐慌」到「AI 引發的恐慌」,其實這個跨越是很小的。
奇點學派的人在此時就是不斷地轉移着人們的注意力,他們往往都是來自發達國家,通常不知道人類當下所面臨的威脅、災難具體都是什麼。給你一個數據你就清楚了:在我們的星球上,如今有將近 7 億人到現在還沒有安全的水源,這本身就是人類的一大威脅。或許,你還堅持覺得是專家説的人工智能是威脅,那麼想想之前專家做出了多少次錯誤的預測吧!2004 年的時候,比爾蓋茨還説:「兩年之後,垃圾郵件問題將被我們徹底解決!」在 2011 年,霍金還宣城:「哲學死了!」(那麼你現在讀的東西又是什麼?)
在這些不斷向公眾拋出各種預言的專家中,我最喜歡這位:Robert Metcalfe,這是 Ethernet 的聯合發明人,而且是數字化電子元器件製造商 3Com 的創始人。在 1995 年,他表示:「互聯網很快將成為人類社會最為耀眼的新星,而在 1996 年它會以一種災難級的態勢迅速崩潰。」除此之外,他還添了下面這句話:「如果我的預言有任何的失誤,我將把我所説的每個字都吃下去!」不得不説,這是一個信守承諾的男人,在 1997 年,他在眾人面前,將自己的文章放到了一個食物碾碎器裏,打磨之後,沖水喝完了。我希望那些「奇點學派」也能做到如他一樣勇敢,一樣言行一致。
那麼,那些懷疑人工智能的人就真的對嗎?
接下來,讓我們看看硬幣的另外一面。在之前的那一面,有那麼多人在數字世界中硬生生供奉出來一個神,而在這一面,這些「AI 懷疑論者」一聽到那些奉若神明的話就變得十分頭大。他們的結論很簡單:任何相信這個世界上有真正的人工智能的人都是傻瓜。人工智能只不過是電腦,電腦只不過是圖寧機器,圖寧機器只不過是按照一些邏輯結構排列而成的計算引擎,而引擎是不會思考、不會感知、不會有意識的。完。
要不然,為什麼現在還有那麼多計算機無法征服的領域呢?他們無法勝任在人類看來最簡單的一些日常活動,他們也無法勝任翻譯工作,不管 Google 翻譯現在的進展有多大,世界上任意兩種語言(其中包括中文)之間的轉換,截止今天為止,它仍然無法達到理想的狀態。這意味着在人工智能上我們壓根沒有什麼好談的,更別説為此而憂心忡忡了。世界上根本不存在真正的人工智能,放鬆心身,好好沉浸在手邊數字設備給你帶來的愉悦當中吧!
其實,「AI 懷疑論者」的觀點也錯了,跟「奇點學派」一樣大錯特錯。這兩種觀點在加利福尼亞有着大量的信徒。而恰恰也是在加利福尼亞,好萊塢震撼人心的科幻電影一部接一部,諸如 Berkeley 這樣的頂級科研大學鱗次櫛比、當然還有世界上最具有影響力的科技公司也是層出不窮。這也許並非偶然。錢潮洶湧之地,人們必會感到困惑,想象力和好奇心所推動的各種精神作品、學術成果、商業模型就四處開花了。
就比如説,Google 最近就一直在瘋狂的收購各種人工智能科技公司,好像末日就在眼前似的,這麼做,它是為了要搞清楚,能真正開發出來一台會思考的電腦,突破點究竟在何處?Google 的 Eric Schmidt 曾經在 2013 年告訴 Aspen 科研機構:「現在人工智能界中很多人都相信,我們將在接下來的 5 年內,讓一台電腦突破『圖寧測試』。」
所謂「圖寧測試」,就是檢測人工智能是否離我們越來越近的一種方式。兩個房間,一個房間裏是你在提問,另外一個房間是人和機器接受問題,給出答案。如果你根據答案,分辨不出來哪個是人,哪個是機器,那麼機器人就算是通過了「圖寧測試」。這個測試其實等同於一次駕照考試:如果愛麗絲沒有通過這次測試,那麼她肯定不是一名安全的司機;但是就算她通過了,她也仍然有可能是一名不安全的司機。「圖寧測試」在驗證人工智能上面其實是一種必要且非充分的途徑。這是最低的標準,但是至今還沒有任何一個人工智能邁過它。更重要的是,幾乎所有的實驗項目都是以同樣的方式落敗。好吧,這個時候我也給出一個賭約。我這個人最討厭吃茄子,但是,我願意打賭,如果有一個軟件程序能在 2018 年 7 月 16 日之前,通過圖寧測試,且贏得羅布納獎金牌的話,那麼我願意把一盤子的茄子吃個精光!(放心,這次打賭其實對我來説安全係數極高)
其實,無論是「奇點學派」還是「人工智能懷疑論者」都錯了。正如圖寧在 1950 年的文章中,給大家介紹他的這次測試中他就提出了這樣一個問題:「一台機器會思考嗎?」這個問題本身是不是沒有多大的意義,甚至不值得我們為它進行討論。(令人諷刺的是,這個問題被嵌在了羅布納獎的獎牌上)。這句話確實很對,不管你屬於上面的哪個派別,這對陣的雙方會永無休止地進行這場沒有意義的辯論。
真正的人工智能從邏輯推演上來説並非不可能,但是它從現實層面來説完全站不住腳。我們都不知道從哪裏入手,我們甚至對自己的大腦和智能活動都知之甚少,換句話説,我們不應該因為某一種微乎其微的超級智能出現的可能性,而憂心忡忡地睡不着覺。
我們更應該注意到的事實是:隨着現在越來越聰明的科技產品不斷出現,它們在理解我們自身、理解這個世界,以及理解我們人類之間的互動關係的時候,發揮着深遠的影響和作用。這並不是説我們的機器是有意識的,又或者是具有智性的,又或者是當我們在做很多事情的時候是具有覺察感知能力的。它們遠遠沒有達到這個地步,現在有大量的結果已經證明,計算機的計算能力是有侷限和瓶頸的,現在不可能拿出一種算法,可以給我們直接顯示「非是即否」的答案。
計算機目前的性能發展上是存在侷限瓶頸的,這一點已經毋庸置疑,當然,現在還存在很多機器都可以完成大量令人驚歎的任務,比如下個象棋,比如猜個字謎,這些任務完成起來甚至比我們人類還要出色。但是它們都是「圖寧機」這個原始版本衍生出來的各個版本,一種通過數學邏輯,構建起來的模型,它本身就已經給計算機的能力圈定了一個有限的範疇。
量子計算機同樣也存在相同的侷限性。圖寧機中是不會跳脱出來一個有意識的智能實體的。目前的重點是,我們的智能科技在藉助了吸收巨量數據和一些極度複雜的軟件處理的前提下,在一些工作上面乾的越來越比人類好,這其中還包括了預測我們的行為,所以,我們再也不是這個世界上唯一具有超強行動能力的物種了。
這種對人類能力上的重新認識,在我看來是「人類自我意識上的第四次革命」
我們並非居於宇宙的中心(哥白尼讓我們認識到這點),也不是居於生物王國的中心(查理斯達爾維讓我們認識到這點),更不是居於理性的中心(西格莫格 弗洛伊德讓我們認識到這點),圖寧之後,我們終於意識到了,我們不再是信息空間的中心。我們跟數字科技共享這個空間,它們在處理信息任務上遠勝於我們,它們的出色,讓我們開始重新找尋人類的長處,在這個宇宙中的特殊角色是什麼。曾經我們以為自己下象棋下的好,就認為我們很聰明,現在一部手機就能打敗我們;曾經我們以後我們想買什麼就買什麼,這方面起碼是自由的,現在機器給我們每個人總結出來了購買的規律、傾向、和愛好。
數字科技將在越來越多的工作任務上比我們表現出色,這些領域要麼是機械重複性任務,要麼是某些我們人類思維智力不太適合的任務(多任務同時處理,某些需要智能超強穩定度的工作)。我們需要做的是發揮出我們人類自身的特長,而對於人工智能即將帶來的末日預言,我們笑笑就過去了。我們應該把精力放在眼下真正具有意義的挑戰上,作為總結,我列舉了下面的五點內容,它們的重要程度相當,排名不分前後。
1、我們開發的人工智能應該對我們的環境更加友好,這些從我們的手中脱胎的最發達的智能技術應該去打敗當下壓迫人類的邪惡,從環境方面的災難到金融市場的危機,從違法犯罪、恐怖主義、戰爭到饑荒、貧困、無知、不公,以及貧困地區觸目驚心的生活水平。
2、我們開發的人工智能應該對我們人類自身友好,它應該視服務人類為最高宗旨,而不是某種手段。
3、我們開發的人工智能成為人類智能的一個補充。數以百萬計的工作將被顛覆、消滅、或者重塑,在這個重新洗牌的世界中,好處應該為所有人所共享,而成本應該由社會來承擔。
4、我們應該讓人工智能的預測行為向着人類的自由和尊嚴看齊。營銷產品、影響型行為、打擊恐怖犯罪、這些都不能以犧牲人類的高尚為代價。
5、最後,我們應該讓人工智能變得更具有「人情味」,更像人一些。我們有可能在使用人工智能的過程中,錯誤地將它用在了不利於大多數人類的地方。華盛頓丘吉爾曾經説過:「我們打造了這一切,而我們所打造的這一切反過來會重塑我們。」這同樣適用於信息科技和智能產品,而讓人工智能更像人,會盡可能地降低風險發生的機率。
本文來源:AEON 譯文創見首發 由 TECH2IPO/創見 花滿樓 編譯 轉載請註明出處
資料來源:TECH2IPO
請按此登錄後留言。未成為會員? 立即註冊