聊天機器人模仿人類的侷限性

36氪 於 07/12/2016 發表 收藏文章

編者按:最近幾個月,聊天機器人遭受到不少批評。它們被形容成啞巴、令人沮喪、一無是處、完全是浪費時間的聊天機器。本文作者David Cancel 對聊天機器人持支持觀點。

雖然,這些批評無可厚非,因為確實有不少這樣啞巴式的機器人存在。但有一條反饋我覺得説的不對。它認為當今聊天機器人的缺點是不夠人性化。除非它們能夠達到人類的智力水平,否則就不具備任何實際價值。

一位批評家最近寫道:“最完美的聊天機器人應該天衣無縫,即用户也無法分辨它到底是機器人還是人類。”

但我覺得這個解決方案根本不合理。既然我有人類客服了,為什麼我還要用機器人客服,並讓客户相信它是人類呢?

設計聊天機器人目的並不是為了讓其完美地模仿人類,而是讓它完成人類沒法做的工作,或者一些重複繁瑣的活(比如搗鼓數字和搜索數據庫)。

設計一個神似人類的聊天機器人會讓你跌進一個“詭異之谷”。“詭異之谷”是機器人學和審美學上的概念,指人們看到某個神似人類的機器人時心中的反感情緒。一般來説,人們喜歡看到一些機器人,或非人類物體上的一些人類特徵(比如兩隻眼睛,一個微笑)。倘若機器人做得太過逼真,我們就會瘮得慌。

這種情況也同樣適用於聊天機器人。想想你第一次與機器人Jabberwacky, ALICE, 或 SmarterChild聊天時的場景。也許有這麼幾個時刻,機器人的表現與人類別無二異,你都嚇壞了,對吧?所以,與其把聊天機器人僅當成人類智力和人類行為的複製品,我們不如將其列為一項獨立的技術。

歷史在與我們作對。

因為在傳統上,人工智能(AI)的定義總與人的智能息息相關。可以看看Google上AI的首次定義:“人工智能指能夠執行需要人類智力才能勝任的工作的計算機系統理論和演進。”

人類當前對AI的理解,以及對聊天機器人未來功能的期望,都無疑受到了阿蘭·圖靈論文《計算機與智能》的影響。在這篇論文中,圖靈向世界介紹了後來舉世聞名的機器智力測試,即圖靈測試,這項測試認為,機器可以被稱作智能的條件是,在與人類一對一的對話中能夠偽裝成人類成功欺騙對方。

從AI的早期研究起,我們對AI的衡量標準一直都是人。

然而,還有另一個陣營的AI研究者,這些研究者認為AI的衡量標準應該完全不同。他們提到其他的技術,比如人工飛行器,人類並沒有完全遵照鳥類的飛行機理來製造飛機。既然萊特兄弟的飛機不用像鳥一樣拍打翅膀就能飛行,我們為何要預設聊天機器人也必須像人一樣交流才能實現人工智能?
關於這方面的AI定義,看看亞馬遜Alexa(一家專門發佈世界排名的網站)就足矣。它是這麼定義AI的:AI指能夠創造性解決問題的計算機程序的計算機科學分支。

看到區別了沒?此處的AI並非要求它能向人一樣解決問題,而是創造性地解決問題。我們不是為了模仿人類解決問題的過程,而是為了找出最佳,效率最高的解決方案。

這就是我公司對AI的發展定位。我們並不想設計只模仿人類的聊天機器人,而是設計一種能把特定目標成功率升至最大的機器人。這就是我們對AI的定義:聊天機器人能不斷吸取經驗自我學習,對所處理的事務越來越擅長。

最後當我們把這些機器人投向市場時,我們不希望客户想:“哇哦,這個機器人好逼真啊。”我們希望他們會這麼想:“哇哦,這個機器人真厲害,它是一個出色的幫手。”如果我們想讓機器人實現全部潛能,就該讓機器人永遠保持機器人的身份。



翻譯來自:蟲洞翻翻 譯者ID:鬼畜小浣熊


資料來源:36Kr

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→