雷鋒網 AI科技評論按:日前,wired上的一篇文章對人工智能的發展表達了獨特的看法,文中認為,終結者裏的情節只會發生在想象中,人類大可不必恐慌。雷鋒網 AI科技評論將文章編譯如下:
機器覺醒是連續不斷的新聞報導中常見的主題。最近Facebook的研究員遇到一件令他們毛骨悚然的事情——他們的機器人在用自己的語言交談,這似乎是機器覺醒的徵兆。
其實並不用這麼害怕。Facebook的實驗確實產生了能説出混亂句子的聊天機器人,但並不至於引起恐慌,這些機器人並不聰明。AI實驗室裏沒有任何研究人員產生恐慌,大家也不必害怕。但是,媒體大肆的錯誤報導對未來不是什麼好事。隨着機器學習和人工智能變得更加普遍,影響力越來越大,了解這些技術未來的潛力和目前的現狀至關重要。算法將在戰爭、刑事審判和勞動市場上發揮關鍵作用。
其實Facebook的AI實驗室真正發生的事是這樣的:研究人員開始研究可以與人聊天的機器人,他們認為,機器人擁有談判和合作能力之後,可以與人離得更近。他們慢慢的開始訓練機器人,比如讓機器人玩簡單的遊戲:要求兩個機器人劃分一系列的物品,如帽子,球和書籍等。
團隊教機器人用兩步來玩這個遊戲。首先,他們從人類玩的的很多遊戲中給計算機提供對話,讓系統擁有談判語言的意識。然後,他們使用一種強化學習方法——試錯法來不斷磨練機器人的技巧,幫助Google的AlphaGo打敗世界冠軍李世石的訓練方法就是這種。
當使用強化學習的兩個機器人一起遊戲時,他們停止了使用可以識別的句子。Facebook的研究員在技術論文中乾巴巴地這樣描述到:“我們發現更新兩個智能體的參數導致了他們的對話不再是人類可以理解的語言。”
下面是兩個機器人讓人難以忘記的對話:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
這種奇怪的談話有時候會產生成功的談判,顯然是因為機器人學會了使用重複等技巧來傳達他們的需求。這有點兒有趣,但也是一次失敗的實驗。Facebook的研究人員希望製造出可以與人類遊戲的機器人,所以他們重新設計了訓練方案,以確保機器人一直使用可識別的語言。正是改變了方案,才導致研究人員被機器人嚇到停止實驗的這種恐慌性的新聞出現。
之前太陽報頭條中談到Facebook這次的事件和終結者是否類似,終結者裏面就談到機器產生了意識,與人類發生了毀滅性的戰爭。
與終結者裏截然不同,Facebook的機器人很簡單,被設計成只會做一件事情:在簡單的遊戲中儘可能得到多的分數,而且機器人也按程序在執行。
這也不是AI研究員第一次創建出以自己的方式即興溝通的機器人。3月份,WIRED報導了OpenAI的一次實驗——機器人在虛擬世界中開發出了自己的語言。Facebook研究員Dhruv Batra失望的表示,媒體曲解了他們的研究,這種類似的例子在幾十年以前就有了。
Facebook這次的實驗並不可怕,而是證明了當今AI技術的侷限。目前的機器學習系統對文字的盲目使用限制了它們的用處和能力。除非你找到一種方法來對想要機器具備的功能進行編程,否則很難獲得大的突破。這就是為什麼一些研究人員正在努力使用人類反饋而不只是代碼來定義AI系統的目標。
Facebook的實驗中最有趣的是什麼?機器人開始説英語,並且證明了自己有能力與人談判。這還不錯,因為當你和Siri或Alexa談話時,會發現它們並不擅長不斷交談。
有趣的是,Facebook的機器人在某些場合下,會騙人説對實際不上不想要的東西感興趣。這才是在Facebook的實驗室裏發生的真正可怕的事情嗎?——機器人可以説謊!不。你一點兒也不用擔心,除了Facebook會説謊的機器人,還有在撲克賭博遊戲中輕易勝過人類頂尖選手的Libratus機器人。這兩個系統都可以在嚴格限定的環境中做出令人印象深刻的事情,但沒有哪一個像人一樣,能把經驗和知識應用到新的環境中,具有自我意識。機器學習研究很吸引人,充滿潛能,能改變我們生活的世界。終結者只是虛構的科幻而已。
雷鋒網(公眾號:雷鋒網) AI科技評論編譯
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
機器覺醒是連續不斷的新聞報導中常見的主題。最近Facebook的研究員遇到一件令他們毛骨悚然的事情——他們的機器人在用自己的語言交談,這似乎是機器覺醒的徵兆。
其實並不用這麼害怕。Facebook的實驗確實產生了能説出混亂句子的聊天機器人,但並不至於引起恐慌,這些機器人並不聰明。AI實驗室裏沒有任何研究人員產生恐慌,大家也不必害怕。但是,媒體大肆的錯誤報導對未來不是什麼好事。隨着機器學習和人工智能變得更加普遍,影響力越來越大,了解這些技術未來的潛力和目前的現狀至關重要。算法將在戰爭、刑事審判和勞動市場上發揮關鍵作用。
其實Facebook的AI實驗室真正發生的事是這樣的:研究人員開始研究可以與人聊天的機器人,他們認為,機器人擁有談判和合作能力之後,可以與人離得更近。他們慢慢的開始訓練機器人,比如讓機器人玩簡單的遊戲:要求兩個機器人劃分一系列的物品,如帽子,球和書籍等。
團隊教機器人用兩步來玩這個遊戲。首先,他們從人類玩的的很多遊戲中給計算機提供對話,讓系統擁有談判語言的意識。然後,他們使用一種強化學習方法——試錯法來不斷磨練機器人的技巧,幫助Google的AlphaGo打敗世界冠軍李世石的訓練方法就是這種。
當使用強化學習的兩個機器人一起遊戲時,他們停止了使用可以識別的句子。Facebook的研究員在技術論文中乾巴巴地這樣描述到:“我們發現更新兩個智能體的參數導致了他們的對話不再是人類可以理解的語言。”
下面是兩個機器人讓人難以忘記的對話:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
這種奇怪的談話有時候會產生成功的談判,顯然是因為機器人學會了使用重複等技巧來傳達他們的需求。這有點兒有趣,但也是一次失敗的實驗。Facebook的研究人員希望製造出可以與人類遊戲的機器人,所以他們重新設計了訓練方案,以確保機器人一直使用可識別的語言。正是改變了方案,才導致研究人員被機器人嚇到停止實驗的這種恐慌性的新聞出現。
之前太陽報頭條中談到Facebook這次的事件和終結者是否類似,終結者裏面就談到機器產生了意識,與人類發生了毀滅性的戰爭。
與終結者裏截然不同,Facebook的機器人很簡單,被設計成只會做一件事情:在簡單的遊戲中儘可能得到多的分數,而且機器人也按程序在執行。
這也不是AI研究員第一次創建出以自己的方式即興溝通的機器人。3月份,WIRED報導了OpenAI的一次實驗——機器人在虛擬世界中開發出了自己的語言。Facebook研究員Dhruv Batra失望的表示,媒體曲解了他們的研究,這種類似的例子在幾十年以前就有了。
Facebook這次的實驗並不可怕,而是證明了當今AI技術的侷限。目前的機器學習系統對文字的盲目使用限制了它們的用處和能力。除非你找到一種方法來對想要機器具備的功能進行編程,否則很難獲得大的突破。這就是為什麼一些研究人員正在努力使用人類反饋而不只是代碼來定義AI系統的目標。
Facebook的實驗中最有趣的是什麼?機器人開始説英語,並且證明了自己有能力與人談判。這還不錯,因為當你和Siri或Alexa談話時,會發現它們並不擅長不斷交談。
有趣的是,Facebook的機器人在某些場合下,會騙人説對實際不上不想要的東西感興趣。這才是在Facebook的實驗室裏發生的真正可怕的事情嗎?——機器人可以説謊!不。你一點兒也不用擔心,除了Facebook會説謊的機器人,還有在撲克賭博遊戲中輕易勝過人類頂尖選手的Libratus機器人。這兩個系統都可以在嚴格限定的環境中做出令人印象深刻的事情,但沒有哪一個像人一樣,能把經驗和知識應用到新的環境中,具有自我意識。機器學習研究很吸引人,充滿潛能,能改變我們生活的世界。終結者只是虛構的科幻而已。
雷鋒網(公眾號:雷鋒網) AI科技評論編譯
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
請按此登錄後留言。未成為會員? 立即註冊