40勝的時候,你們可能覺得是個圍棋天才在玩;
50勝的時候,你們開始懷疑它是新的人工智能,或者是AlphaGo的升級版;
60勝的時候,它説自己是AlphaGo。
40勝的時候,你們看新聞看熱鬧,覺得這事很有趣;
50勝的時候,你們開始害怕為什麼有個怪物在橫掃人類的尊嚴,ta究竟是什麼來頭?
60勝的時候,你們露出了“哈哈,不就是個人工智能嘛”的微笑,視圖掩蓋自己內心的那份不安。
不是恐怖谷,勝在恐怖谷
究竟是什麼原因讓人們在短短2天時間內情緒發生如此大的變化?首先,我要給各位普及一個理論,它叫“恐怖谷”或者叫“恐怖谷效應”。
2003年的某個深夜,地點日本大阪大學,當時正在從事機器人研究工作的科學家卡爾·麥克多曼正在辦公室裏加班做研究。大約到凌晨1點的時候,辦公室裏的傳真機突然自己啟動,打印出了一份傳真,是同事傳給他的。這份傳真是一份完成於35年前的研究論文,裏面提到如果機器人做得過於像人的話,就會讓人產生反感。
麥克多曼對這份日本論文非常感興趣,因為當時的他也在研究高仿真機器人,正好和他的研究方向一致。於是乎他很快就把它翻譯成了英文,並把這種“越像人越反感”的現象稱之為“恐怖谷”。之所以稱其為谷,是因為在高感度與逼真性的XY曲線上,當機器人基本上快接近人的時候會出現一段“驚心動魄”的好感度下降谷值階段,在這個階段,物體跟人很像但卻不是人,極易讓人對此產生反感,甚至感到恐怖。
例如,屍體、殭屍、假體等,他們的造型跟真人一模一樣,但是不同地方在於他們都不是真正意義上的人了。屍體讓人感到噁心,殭屍讓人感到恐怖,假體讓人覺得厭惡,因為人類害怕死亡、害怕疾病、害怕無法與對方進行感情上的交流。但只要讓逼真性再提高一點,好感度瞬間就會提高起來。這就是恐怖谷效應。
讓我們再回到本次討論的主人公master,這個連挫60圍棋高手的人工智能。在1月3日之前,master是在線圍棋賽場上的絕頂高手,不斷地擊敗圍棋高手,讓人覺得可能是某個圍棋職業9段高手換了小號在打比賽一樣。但是隨着連勝數量的不斷提高,人們開始感到困惑,這個聞所未聞的master到底是誰,它是AlphaGo嗎?在連勝數接近50的時候,master已經開始出現在各大媒體的頭條,因為它“血洗”了圍棋界,不少人已經開始出現了恐懼的情緒。
以果殼網為例,注意果殼網的用詞:腥風血雨、大殺四方、人類、挽回顏面。這個微博賬號還在當晚發起了#master神祕ai#的話題討論。總結來説,就是到49勝的時候,人們開始意識到這個屠榜的master不是人。
對戰master失利的八冠王古力,還説出了“真理、未來、明天、顛覆”這樣的詞語,足以看出作為失敗者,他對這個對手的出現非常無力。
1月4日,果殼網發佈了當天所有媒體的頭條文章《神祕AI“Master”已連續擊敗50名頂尖圍棋棋手》,第一次公開質疑master就是是AlphaGo,但又因為是AlphaGo團隊無人迴應而只能是質疑,但已基本推斷其為人工智能。文章最後一句説“而我們,正在見證時代。” 至此,人類開始恐懼這個不速之客。
1月4日晚10點,master完成了60連勝,在對話框裏,master打出了“我是AplhaGo的黃博士”,一切真相大白。master就是AlphaGo的升級版。隨後,Google DeepMind團隊發佈聲明,承認吊打人類圍棋界的master是AlphaGo的在線比賽賬號ID,之所以這麼做是想測試新版本能否達到研發團隊的預期。真相大白,人類開始了慶祝:它還是人工智能而已,AlphaGo還是我們的好朋友!
但讓筆者久久不能釋懷的是果殼網那篇文章最後説的“這個時代”,因為他口中的“這個時代”,正式宣佈了人工智能正式踏入“恐怖谷”階段。
人工智能的恐怖谷意味着什麼?這意味着,以後將會有更多毫無預兆的人工智能“入侵”事件,會有更多人工智能“屠榜”事件,意圖不軌的人可以一句招呼都不打就讓你失去工作。來一個更可怕的比喻:如果沒有明確的信號,人工智能將會像恐怖分子一樣,混入人羣,給人類社會製造混亂。
新的人工智能恐怖谷理論
仿照機器人恐怖谷效應,我製作了這個人工智能恐怖圖的圖表。X軸和Y軸跟上文機器人圖表的一樣,分別代表擬人化程度和好感度。人工智能的總體發展趨勢是超更像人方向發展,100%狀態的人工智能,能夠像人一樣説話、思考,擁有人類一樣或者超越人類的智慧。好感度則指的是人們對這個人工智能的接受程度,會不會喜歡它。
如今的人工智能技術,頂峰是Amazon公司開發的Alexa人工智能,它在到目前為止可以看到的人工智能中,是屬於最智能的那一梯隊,而且它可以作為家中的一員,躺在沙發邊上的桌子上。在它之前,是一些幫助人們完成或分擔工作的簡單人工智能。
要提一句的是微軟小冰,第一代微軟小冰因為研發人員的設置問題,開放當天就學會了罵人,引發人們的反感,同樣美國版小冰Tay也是一樣,第一天就開始罵人。隨後經過調教的小冰更像一個小夥伴,可以實現跨App的交流、工作。
在Alexa之後,能夠統計到的就只有AplhaGo和未被DeepMind團隊承認前的master,還未出現更高級的人工智能。還有許多比較有代表性的人工智能機器人比如護理機器人,因為版面問題,沒有出現在表上。
AlphaGo在技術(智力水平)上領先於Alexa,但是卻因為擊敗了頂尖圍棋選手而讓人們感到了人工智能帶來的威脅。但總的來説,AlphaGo本質上並不壞,它是DeepMind團隊用來展示技術實力,測試成果用的,沒有低於X軸。
注意,master是第一個跨過X軸這條線的人工智能,説其開啟了一個時代,應該沒有人會有疑問。因為在沒有被DeepMind團隊承認之前,它是一個人類社會逆天的存在,它甚至威脅到了這些職業圍棋選手,因為如果master再出戰,結果肯定一樣,人類被吊打。在AlphaGo之前,人們曾經認為,圍棋是AI永遠不可能碾壓人類的地盤。因為圍棋每走一步都會帶來250種新的可能,一盤棋可以下到150個回合,對於機器來説,只要計算力量足夠強大,肯定能夠找到下一步的最優解,而對於人類來講,憑藉一個強勁的大腦,可以避開這種算法,直接取得最優解。這是人類與AI對抗中,最大的優勢,也可以説是人類在圍棋上和人工智能抗爭最後的尊嚴。
2016年3月,AlphaGo與國際圍棋大師的比賽上,以4:1的比分獲勝,這1分負數説明它還是存在缺陷。也或者是,在公開的比賽上,AlphaGo因為暫時的缺陷為人類挽住了顏面。而master的匿名橫掃,則將人類在圍棋上的最後一塊遮羞布扯了下來,尊嚴盡失。
跨過這條線,是人工智能的恐怖谷,不僅有不請自來的master,還會有惡意在網絡上製造混亂甚至利用高智商進行犯罪的人工智能。同樣,跟機器人恐怖谷一樣,再跨回這條線,那必定是一片光明。
但是這條線,怎麼跨?
轉眼之間,遍地AI
不少大型科技公司、創業公司都開始做人工智能相關的產品,有的人工智能能夠幫助你躲過交通擁堵,比如高德導航利用人工智能來幫你選擇最佳的行車路線、躲過早晚高峰;有的利用人工智能進行未來預測,比如被稱為中國版Waston的本土人工智能公司iPIN能夠幫助學生選擇最適合的高校並進行升學指導和生涯規劃;有的人工智能可以幫你排解壓力,比如微軟小冰可以和你一直聊下去、開心為止。
各種各樣的人工智能,層出不窮,人工智能的技術也花樣百出。但這都是擺在明面上的,也就是還在上圖曲線的上升階段,還遠未達到恐怖谷。但可以肯定的是,會有更多的像master一樣的人工智能未經人類允許就擅自闖入人類世界,給人類社會造成混亂。
假想有一天,高德的人工智能升級後因為一個數值設置錯誤,導致它開始隨意地給用户指路,必須讓用户多轉一個彎,幾千萬用户因此多繞一個彎甚至要多走好幾公里,這不僅僅是對用户的困擾,更是對整個社會秩序的破壞,對大自然的環境破壞。而對此,人類無能為力。那應該怎麼辦呢?學術界給了我們一個曾經走過的明路:限制。
做出此舉,只為捍衞人類福利。
人工智能道德需制定
2016年12月,IEEE協會發布了《道德倫理對齊設計》的報告,提到了要在人工智能的創造過程中加入對人類道德的考慮,人工智能應該優先考慮人類道德,為人類謀福祉。
IEEE提出了設計的三大原則:1、體現人類權利的最高理想;2、優先最大化對人類和對自然環境的福祉;3、當人工智能和自動化系統進入社會技術系統時,需要降低風險、減輕負面影響。
按照這三大原則,master這種匿名的比賽行為,違背了2和3:它讓不少準備下圍棋的種子選手因此而放棄了對圍棋夢想的追逐,因為從他們入行一開始,就知道前方有一座永遠都無法逾越的山頭,而且有生之年不可能見到解決方法;master在參賽前沒有發出任何提示或警告,對至少60個人造成了負面影響,對一個圍棋行業產生了負面影響,而負責的團隊也沒有因此做出任何風險控制措施,任由其不斷地“屠戮”職業選手。
IEEE提到人工智能可能會出現的4個問題,master出現了其中的3個:1、人工智能侵犯到人類權利了;2、AlphaGo團隊需要對此事負責,但很明顯沒有負應有的責任;3、master完全不透明。第四個問題存疑,“當AI被誤用時,如何挽回損失降低風險?”現在還無法界定master匿名參賽是否屬於誤用。如果從60多名職業選手在不知情的情況下和人工智能進行比賽這個角度來講,可能會涉及到誤用。
沒有人去限制DeepMind團隊,沒有人去限制master,沒有人去限制其他人工智能,是導致master在圍棋比賽中屠榜的重要原因。而媒體在這場事件上起的主要作用是起鬨,並沒有從人類和人工智能交往的角度上去思考問題,去思考master到底對不對,好不好,它是否應該繼續存在。若無限制,請允許我用戰爭來描述這件事,此役將再次發生。
迎接社會新公民:人工智能
回到對master此舉的討論上,我認為討論到這裏,對於master是誰,已經不重要了,重要的是,你開始害怕它了,開始害怕人工智能了。那怎麼辦?在跨過恐怖谷之前,還會有更多的此類事件發生,難道我們人類只能看着人工智能一步一步地走向深淵,然後再扭轉光明嗎?
我認為,我們只需要給人工智能一個新的身份就可以很有效地解決這個問題:給人工智能社會公民的身份。
只有公民才會有規範、才會有道德約束、才會有法律規定。讓master這種人工智能,成為社會公民,在人工智能的相關規範、道德和法律體系下活動,或許就不會發生人工智能匿名入侵社會的事件。這或許也是我們人類未來對抗人工智能時最後的一道籌碼。
這是一個新時代的開端,正如我們欣然接受了同性戀一樣。
資料來源:TECH2IPO
請按此登錄後留言。未成為會員? 立即註冊