揭祕:蘋果在 iPhone 裏藏了個“人工智能大腦”

愛範兒 於 27/08/2016 發表 收藏文章

引用編者按:本文全文編譯自 Backchannel 編輯 Steven Levy 的相關文章《The iBrain is Here:and it’s already inside your phone》,在最大程度保留文章原貌的基礎上進行了極少數刪減。

Steven Levy 前不久有幸前往蘋果庫比提諾“飛碟”總部,並且在數位蘋果核心高管的陪同下詳細的了解了人工智能技術目前以及將來在蘋果產品中的應用。本文也是蘋果科技“軟實力”的一次大彙總,非常有閲讀的價值。

以下是編譯全文:


獨家內部視角看人工智能和機器學習如何改變蘋果

2014 年 7 月 30 日,Siri 做了一次“腦部移植手術”。

三年前的那個日子,蘋果成為第一家將智能助手移植到自己系統的主流科技企業。在更早的日子裏,Siri 這款在 2010 年通過收購納入囊中的產品一直以獨立應用程序的形式存在。

剛推出之時,大家對 Siri 都欣喜若狂,但隨着時間流逝,用户卻愈發對其缺點變得不耐煩,因為它經常性地誤解命令,產品微調之後也不見提升。

於是,蘋果在那個 7 月 30 日做了一個重要決定:把美國用户的 Siri 語音識別遷移到以“神經網絡”為基礎的新系統中,隨後在 8 月 15 日推廣到全世界用户。

在新系統中,“隱性馬爾可夫模型”等一系列“老”技術仍在使用,但是更重要的是引入機器學習技術,包括“深度神經網絡(DNN)”、“卷積神經網絡”、“長短期記憶單元”、“門控性電源(gated recurrent units)”、以及“n-grams”。

經過這次升級,Siri 雖然看起來仍然一樣,但是卻得到了深度學習的強力 buff。

為了不讓自己的競爭對手從 Siri 上獲得啟發,蘋果再次採取了高度保密的策略。而用户最多也只能體會到 Siri 犯的錯越來越少了。直到最近的揭祕,蘋果才公開談論起當時的效果——準確率的提升幅度是驚人的。


蘋果高級互聯網軟件及服務副總裁 Eddy Cue

 Eddy Cue 表示:“這次提升非常明顯,以至於有人專門核對了一次準確率的數字,以免不小心漏掉了小數點。(提升了至少一位數)”

Siri 這次的“華麗變身”,也讓人工智能業界“驚訝”,但不是因為他們的成績,更多的是因為蘋果如此低調,但又能如此出色的完成這個任務。

即便蘋果最近在人工智能領域加大了人才的招聘力度,也做了一些高調的創業公司收購,大多數人還是將蘋果視為這個火熱領域的落後者。同時又因為蘋果的高度保密,讓人工智能相應的專家也不清楚他們在機器學習相關進展。正如斯坦福人工智能歷史課程講師 Jerry Kaplan 所説:

引用蘋果並沒有在人工智能社區中出現,有點像人工智能領域的 NSA(美國國家安全局)。

相比之下,其他矽谷獨角獸  Google 和 Facebook 在人工智能領域的努力,則更容易為外界所捕獲,並且傳播開來。

當然也有人會持有反對意見,來自Allen AI 研究所的 Oren Etzioni 算一個:

引用Google、Facebook、微軟裏都有頂尖的機器學習人才。而蘋果的確也聘用了一些人工智能方面的人才,但是公認的機器學習 5 位領袖都不在內。

而且即便蘋果已經用人工智能實現了語音的識別能力,但是接下來蘋果會將機器學習加入到什麼功能之中?這仍然是個謎。


不過這個也不怪 Oren Etzioni,這個月早些時候,蘋果祕密地展示了他們產品應用機器學習技術的進展,可惜對象不是他,而是我。

在好幾位蘋果高管(包括上文提到的 Eddy Cue、高級全球市場副總裁 Phil Schiller、高級軟件工程副總裁 Craig Federighi,後兩者一直也被視為蘋果人工智能方面的關鍵性科學家)的陪同下,我在蘋果庫比提諾的飛船總部裏面花了幾乎一整天,完整地了解機器學習在蘋果應用中目前以及未來的應用情況。

當我們坐下之後,他們就遞給我了一份兩頁而且“滿滿當當”的日程列表,上面全是機器學習在蘋果產品和服務中的應用,除了已經實現、甚至還包括了他們即將討論的項目。

從這份列表中,你還能比較容易地提取出一個核心信息:

引用蘋果已經進入了人工智能領域,而且絕不甘心成為“第二”這樣的角色,還將會採用一條不同於別人的路徑。

擁有 iPhone 的人看起來都是蘋果人工智能技術的直接受益者,但實際上不僅僅是因為 Siri 能夠很準確的理解你在問它什麼。哪怕有人最近只是郵件了你,他都會出現在“最近聯繫人”之列;側滑之後出現的“你接下來最可能打開的應用”列表;提醒你在“提醒事項”中標記了、但又沒有放進日程表的約會;在你輸入全名之前將你已經預定了的酒店地點推送出來;甚至是在你沒有詢問的情況下直接把停車地點指示給你。

以上這些例子都跟深度學習和神經網絡有關係,有些是因此變得可能,其他至少也得到了大幅度的增強。

沒錯,一顆真正的“蘋果大腦”——就藏在你的手機裏。


臉部識別?蘋果藉助其神經網絡技術,加入了混戰

根據我拿到的簡介來看,機器學習已經滲透到蘋果產品和服務的每個角落。比如蘋果使用深度學習來檢測 App Store 騙保行為,延長所有設備的電池壽命,從成千上萬份 beta 版報告中發現最有價值的用户反饋。

而機器學習則讓蘋果能夠選擇適合你的新聞;也能讓 Apple Watch 分辨出你究竟是在鍛鍊還是在閒逛;它能變成出你圖片中的面孔和地點;在 Wi-Fi 信號比較弱的情況下是否要轉換到移動網絡;它甚至能化身為一名優秀“電影製作人”,輕輕點擊一下就能快速地把你的照片還有影像片段拼合到一起。

蘋果的競爭者也在做着類似的東西,但是可以確定的是,在保護隱私這件事蘋果絕對是把人工智能技術用到了“極致”(這裏指的是差分隱私技術,點擊查看愛範兒相關報道)。當然,他們也並沒有打造出像蘋果的產品。

而且人工智能對於蘋果來説不算“新東西”,早在 1990 年代,蘋果已經開始使用機器學習技術開發筆記識別程序(Newton 平板)。這個研究成果在目前的蘋果產品上依舊有用,這也是為什麼蘋果能很好地識別你的“狂草”。這跟蘋果一直都設有專門的機器學習團隊也有關係。

早期的機器學習非常原始,深度學習更一直被視為一個夢想,與現在成為“潮流”的情況相差甚遠。但是蘋果被套上了“落後者”形象這件事直接導致了 Tim Cook 最近專門站出來發話,表示蘋果其實一直都在人工智能領域,只不過沒有專門去宣傳而已。連帶着讓一大批蘋果高層最近也開展了宣傳攻勢。


Apple Watch 上面的減肥應用,也有機器學習技術的加成

在蘋果高級全球市場副總裁 Phil Schiller 看來:

引用人工智能最近 5 年為蘋果帶來的增長大家有目共睹,我們設備智能化的速度變得更快,特別是在蘋果自己設計的一系列芯片幫助下。我們的設備變得更智能、更快,而我們所做的每一件事情,實際上都是為了讓事物能夠更好的鏈接到一起。

而更強大的硬件也讓我們能夠運用越來越多的機器學習技巧,因為他們提供了非常多的東西給我們進行學習。

雖然蘋果已經選擇了“擁抱”機器學習,但是他們並沒有放棄基礎原則。在這羣庫比提諾的先鋒者們眼裏,深度學習和機器學習只是不斷出現的新技術之流中最新的那幾個。

它們擁有改變事物的能力,但並不一定超過一些其他技術優勢,比如觸屏、平板電腦、面向對象的編程技術等。在蘋果眼裏,機器並非其他公司口中的“人機交互終極目標”。Eddy Cue 對此就曾表示:

引用這並不會摧毀這麼多年以來建立的人機交互方式。

除此之外,我們還談論到了一些大家非常關心的話題:蘋果對於機器是否將取代人類沒有興趣;不確認蘋果是否會製造無人駕駛汽車;甚至是打造蘋果自己版本的 Netflix;承諾蘋果不會打造終結人類的“天網”等等。

Phil Schiller 還單獨做了一個小總結:
引用我們將利用這些技術,從而比之前更好地做我們想要做的東西,或者完成一些我們之前無法做到的事。最終以非常蘋果的方式打造我們的產品。

他們隨後還拓展解釋了一下上述觀點,內容主要集中在兩個方面,一個是人工智能究竟從何種程度改變了蘋果目前的生態系統。

第二個是蘋果為什麼出於用户隱私保護的目的,幹掉普通的信息收集引擎(要知道,大量的數據可以會極大的改善神經網絡的能力),從而確保用户的數據不會被其他人濫用。很明顯,蘋果已經有了跨越這兩個“障礙”的方法。

那麼這個“蘋果大腦”究竟有多大呢?怎樣才能驅動 iPhone 之上的機器學習能力呢?而蘋果官方透露出來的大小是 200 MB 左右,這個大小會隨着用户保存的個人信息的多少而改變。這其中包括了應用使用頻率、跟別人的交互、神經網絡處理、語音識別模型、以及“自然語言模型”。

當然,它還包括了用神經網絡加成的對象識別,臉部識別以及場景分辨。

因為所有新應用的大前提,都是用户的偏好以及經歷等隱私不被公開。


儘管蘋果沒有把他們在 AI 方面的努力攤開來講,但我設法弄明白了他們怎麼在組織裏分配機器學習的專業知識。公司可以共享這些機器學習方面的人才,提供給那些用機器學習來解決問題並且開發個人方面產品的產品團隊。Craig Federighi 對此解釋到:

引用機器學習的最高境界就是不要有一個集中的組織。我們試着把它和需要用來交付正確用户體驗的團隊拉近距離。

那麼蘋果有多少人在做機器學習方面工作?Federighi 在再三催促下給出的答案只是兩個字“很多”。(如果你以為他可能會給我那個數字,那就是你不了解蘋果了。)

有意思的是,蘋果很多從事機器學習的員工在加入之前都沒有受過人工智能的教學。“我們僱傭的這些人在數學、統計數據、編程語言、密碼學這些基礎領域有特長。”Federighi 接下來也解釋了這種現象的原因:

引用這些其他方向的核心天才可以完美的轉換到機器學習領域,雖然我們當下還在繼續招聘機器學習的專業人才,但是我們一直在繼續尋找有核心能力和天賦的人。


我們並沒有設立一個單獨、中心化的組織,來充當蘋果機器學習“殿堂”。


左前方的蘋果高級軟件工程副總裁 Craig Federighi 正在聽 Siri 項目資深指導 Alex Acero 在蘋果總部談論語音識別軟件。

儘管 Federighi 沒有説,但是我覺得這種説法的確存在:蘋果一直強調保密,而行業內的其他公司卻鼓勵自己的工程師向外界分享研究成果,這種模式不利於蘋果保持競爭優勢。Federighi 對於蘋果和別的公司的做法還做了一個“分類”:

引用我們的做法也讓程序員間的自然選擇被強化——一種喜歡通過團隊合作,從而打造出一個偉大的產品;另外一種只是打算將自己的技術展示出來。

如果科學家在提升蘋果產品的過程中能夠發現突破,這自然很好。“但我們實際上是抱着對最終目標的幻想在前行”Cue 補充了一句。

蘋果人工智能領域裏的人才很多都是通過收購的方式進來的。Cue 給出了一個比較“誇張”的數據:

引用我們最近收購了二三十家相對較小的公司,同時僱傭了這些員工。

Federighi 還補充了一個非常重要的“收購思路”:

引用當蘋果收購 AI 公司的時候,並不是説“嘿,這兒有很多機器學習的研究人員,我們來設立一個部門吧!我們要的是那些有天賦並且真正專注於提供卓越經驗的人。 
蘋果最近以 2 億美元的報價收購了西雅圖的 Turi 公司。這家公司開發了一個可以和 Google TensorFlow 一較高下的工具包,這次收購引發業界猜測——蘋果有可能會在系統內部和開發者方面提供與 Google 相似的目的,在場的幾位高管均對這件事不予置評。Cue 則表示:

引用無論從科技的視角還是個人觀點來看,Turi 都有很多和蘋果相符的地方。

也許一兩年後,我們就可以弄清楚到底發生了什麼,就像當初 Cue(蘋果在 2013 年收購的小型初創公司,非上文提到的 Eddy Cue)在 Siri 上展示的預測能力。

無論人才從哪兒來的,蘋果的人工智能基礎已經能夠讓之前那些產品和技術上的不可能,重新變為可能。進而改變了公司的發展藍圖。Schiller 的話就算一個小小的透露:

引用在蘋果,每天都有很酷的點子。機器學習讓我們能夠解決之前“不可能”的問題,並且已經規劃進了我們接下來打算做的事情當中。

其中一個例子就是在 iPad Pro 上使用的蘋果觸控筆。為了讓蘋果把高科技觸控筆列入產品中,不得不解決掉人們在電子設備上寫字,手會不小心觸碰到屏幕,從而導致各種字符混亂的問題。

使用機器學習模型“手掌誤觸”,可以有效的提高屏幕傳感器區別擦碰、觸摸和筆尖的精確度。

“如果它不能穩定的運行,那這就不是一張可供書寫的紙,觸控筆也沒啥用。”Federighi 説道。

如果你喜歡蘋果觸控筆,那就感謝機器學習吧。


也許蘋果到現在為止,機器學習方面最好的進步方法,就是從它最重要的人工智能產品——Siri 那裏獲得的。

Siri 起源於一個雄心勃勃的項目 DARPA 的智能助手,不久後,就有幾個科學家組建了一個公司,打算用這種技術來打造一個 app。

在 2010 年 Steve Jobs 親自説服了創始人把它賣給了蘋果。Siri 直接被構建進了操作系統中,併成為了 2011 年 10 月 iPhone 4S 發佈會的重頭戲。

而現在,它完完全全可以應用在實際中。當用户長按 Home 鍵或是簡單的説一句“Hey,Siri。”就可以使用(iPhone 有個特性,能讓其中一個收音器始終打開又不會費電)。Siri 無論在它工作時還是沉默時都和 Apple Brain 是一個整體。

就核心產品而言,Cue 用了產品的四個組件來説明:語音識別(理解你在和它説話),自然語言理解能力(掌握並理解你所説的話),執行(實現你的詢問和要求),回答(迴應你)。

“機器學習影響了這些極其重要的方面”。Cue 説道。


Siri 高級研發負責人 Tom Gruber(上)、以及 Siri 語音大師 Alex Acero(下)

Tom Gruber 在 2011 年其中一個創始人離開後加入了蘋果,提到在蘋果給 Siri 使用應用神經網絡之前,其用户羣就提供了大量數據,這對於鍛鍊這個神經網絡很重要。

引用Steve 曾説過,你會一夜之間從一個不知名的 app 一躍擁有一億用户,並且無需公測。用户會告訴你他們是怎麼和你的 app 對話,這就是第一次革命,接着,應用神經網絡就來了。

Siri 從最初的應用神經網絡到現在能夠應對用户的各種要求,全靠語音識別團隊的高管 Alex Acero 等幾位 AI 專家。90 年代早期,Acero 就開始了在蘋果語音識別團隊的生涯,然後又去了微軟研究院。

“我喜歡那裏的日子,我還發表了很多論文,”他説道“但是當 Siri 面世的時候,我覺得這就是一個把應用神經網絡得以實現的好機會啊!不是僅僅讓一百個人知道,而是要讓一百萬個人用到。”
換句話來説,這就是蘋果一直需要的科學家,熱衷於研發產品而不是發表論文。


機器學習非常顯著的、從多個方面對 Siri 造成了衝擊

在 Acero 三年前加入蘋果那時,Siri 的語音技術實際上還主要是來自第三方的協議授權,這注定要做出改變。Federighi 還注意到這實際上是蘋果不斷重複的模式:

引用當這個技術成為決定我們能否做出好產品的關鍵技術,我們就會建立自己的內嵌功能然後實現我們想要的效果。但如果想要讓它變得完美,我們必須自己擁有技術並且不斷創新,語音技術就是我們採納一個東西,並且最終實現落地的最好例子。

蘋果團隊第一步選擇了用神經網絡代替 Siri 原有的底層,“我們有一個不停運轉的大型 GPU 集羣,最終我們得到了大量的數據”Acero 透露到。2014 年 7 月的發佈證明這些循環性學習並沒有白費。

“在絕大多數語言中,錯誤率都實現了減半,有些情況下效果還會更好。這主要是因為深度學習技術以及我們的優化方式——不僅僅是算法本身,最重要是整個系統中內容的傳遞。”

這種內容的上傳通常意味着泄密。蘋果也不是第一家將 DNN 技術使用在語音識別上的公司,但是蘋果證明了它在控制整個傳輸系統這件事上,有着先天的優勢。

這首先就是因為蘋果一直自己生產自己的硬件芯片,Acero 甚至表示這讓他能夠直接和芯片設計團隊以及芯片固件工程師進行編程,讓神經網絡的效能最大化。Siri 團隊的需求甚至還影響了 iPhone 設計中的其他很多方面。

“當然,這不僅僅是芯片。設備上設置多少個麥克風、麥克風應該如何放置、如何調整硬件、處理音頻的底層軟件,這些組件都需要進行協調。對比一些只是開發軟件的公司,這個優勢實在領先太多。”

另外一方面:當蘋果的神經網絡能夠在一款產品中運行起來,它還能夠作為其他用途中的核心技術。最終結果是,機器學習讓 Siri 理解你,並且將輸入方式從鍵入變成了聽寫。

比如在你寫信息和郵件的時候,點擊麥克風按鈕、然後直接説,的確比跟軟鍵盤較勁容易得多。

另外一個 Cue 提到的 SIri 組成是自然語言理解。2014 年 11 月起,Siri 開始使用機器學習來理解用户輸入的內容,而更進一步基於深度學習的版本也在一年之後推出。

就像之前在語音識別上做的那樣,機器學習也提升了用户的體驗,尤其是在更靈活地理解用户命令。

Cue 為此專門拿出了自己的 iPhone 現場演示了一個例子,在調用 Siri 之後,他分別發出了“用 Square 現金給 Jane 發 20 美元(Send Jane twenty dollars with Square Cash)”、“直接給我妻子發 20 美元(Shoot twenty bucks to my wife)”,最終的得到的結果完全一樣。

蘋果最近還表示,如果沒有 Siri 帶來的這些而便利,它們不太可能迭代出現有這個在語音控制方面如此複雜的 Apple TV。

儘管早期的 Siri 強迫你使用一個相對固定的方式説話,但是被深度學習加成之後的超級版本不僅能夠區分一堆電影和音樂中的特殊選項。甚至還能處理一些模糊的概念:“我想看 Tom Hanks 主演的驚悚片(如果 Siri 足夠聰明,它最終推薦的應該是《達芬奇密碼》)”,在深度學習技術誕生之前,想要實現這樣的效果就是做白日夢。

藉助今年秋天即將發佈的 iOS 10 系統,Siri 的聲音成為了機器學習改良的最後一個部分。同樣的,這個改變也是用神經網絡直接代替了之前的第三方授權技術。

本質上來説,Siri 的發聲還是依靠一個採集了很多聲音的大數據庫,通過把句子打散成詞彙,再將詞彙的語音像堆積木一樣拼在一起。而機器學習所扮演的角色,則是讓單詞之間更加流暢,從而讓 Siri 的聲音更加像真人。

Acero 同樣也做了一個演示——分別讓 Siri 閲讀兩段一致的內容,第一個有着我們非常熟悉的“機器感”,而另外一個則非常流暢。而他所説的原因也非常簡單:“深度學習”。

雖然看起來這是一個很小的不起眼的細節,但 Siri 有一副更加自然的嗓音實際上能夠催生出大變化。Gruber 説了下其中的差別:

引用音頻只要更加高質量一點,用户們就會更加信任它。同時更好的語音也會引入用户,並且讓用户對 Siri 的使用率更高。

當蘋果最終將 Siri 對開發者開放,人們使用 Siri 的意願,以及機器學習所帶來的提升就變得更加重要了。對蘋果批評者的意見進行處理是一個非常長期的過程。

也有很多人指出,蘋果的第三方夥伴數量停留在了兩位數,與亞馬遜類似的 Alexa 擁有的、由外部開發者提供的超過 1000 種“技巧”相比,數量相差甚遠。

蘋果的回覆則指出這樣的對比並沒有意義,因為在亞馬遜產品上用户必須使用特定的語言去使用功能。而諸如 SquareCash、Uber 這樣應用通過 Siri 來使用也更加自然。

與此同時,Siri 的改變也給蘋果產品以及用户帶來了一些改變:用户得到的是新功能以及完成相同任務的更多方式;而 Siri 服務的請求次數也在不斷上漲。


對於不斷拓展機器學習的蘋果來説,最大的問題在於如何在成功的同時堅持其原有的隱私證詞。蘋果加密了用户的信息,這樣沒有任何人、哪怕是蘋果自己的律師也不能查看用户數據(記得之前吃癟的 FBI 嘛?)蘋果還專門表示:不會將收集的用户數據用於廣告目的。

在用户的角度這也許是值得尊敬的,但這對於吸引頂尖的人工智能人才沒有幫助。

引用所有機器學習的專家,都希望能夠擁有一大堆數據。但是因為隱私政策,蘋果一直不願使用這些數據。這種做法是否合理仍需進一步討論,但這確實讓蘋果一直被人看做人工智能世界中的局外人。
這種有普遍代表性的觀點,換回來的卻是蘋果高層的激烈抗議。他們認為在不保存用户存檔的前提下,為機器學習提供所有所需文件,甚至將用户行為的實例保存下來訓練神經網絡都是可能的。Federighi 補充到:

引用這一塊一直存在錯誤的敍述和權衡,大家認為我們是保護用户隱私的異類其實是一件好事,但是為了讓絕大多數用户的利益,我們願意給行業中的其他人指出一條發展之路。


我們已經找到了獲取我們需要的數據,同時又能保護用户隱私的方法。

這裏有兩個關鍵問題,第一個涉及個人信息在機器學習基礎系統中的處理,當用户的詳細信息被神經網絡所收集,那麼最終我們能得到什麼資料呢?

第二個問題涉及到為了訓練神經網絡和識別規律之時的信息聚集分類,你怎樣在保證羣體數據的同時剔除個人信息?蘋果其實有同時解決兩者的方法,Cue 表示:

引用有的人認為我們不能用人工智能來做這些數據分析,因為我們並不擁有這些數據,但是我們已經找到了方法,在獲取信息的同時保持隱私屬性。這也是我們的底線。

首先是第一個問題——保護被神經網絡識別的個人喜好和信息,解決方法在於用更加獨特的方法來控制軟硬件。簡單一點的解釋就是,最為私人的東西會停留在蘋果大腦之內,“我們將最敏感的信息保存在能夠執行 ML 的本地”。

舉個例子來説,右滑之後出現的應用列表。在設計中,這個位置需要顯示你接下來最可能打開的幾個應用。這些預測基於一系列因素,很多都涉及到用户行為本身,這對於其他用户來説並沒有意義,蘋果的處理方法就是直接在手機本地處理需求。

最終功能的效果也非常明顯,預測用户接下來用什麼應用基本能夠達到 90% 的準確率。

蘋果在設備上保存的其他個人信息主要是——用户使用 iPhone 輸入法鍵入的內容。通過利用神經網絡系統分析你的輸入,蘋果可以能夠發現關鍵性的時間和物品,比如航班信息,聯繫方式,甚至是約會——但是信息本身只會停留在你自己的手機當中。

即便部分信息會存儲在蘋果的雲中,也會通過特定處理,讓這些存儲的信息無法反向還原“蘋果公司不需要知道你的愛好,或者你什麼時候打算去哪裏玩”。

蘋果也在儘量減少保存的信息量,對此 Federighi 也提到了一個例子:如果你的一段對話中有一部分需要進行搜索,其他公司必須將整段對話上傳到雲端進行分析,而蘋果設備能夠在數據不離開設備的條件下檢測出關鍵信息——這是因為手機會將這些信息與手機內的“知識庫”進行匹配。

引用 它很精簡,但是是一個綜合性知識庫,包括了成千上萬的定位和對象。我們之所以採用本地化的策略,是因為我們知道你在哪裏。

Federighi 還透露,這個知識庫其實與所有的蘋果應用都有相連,包括我們用的搜索欄、地圖、甚至是瀏覽器,可以幫助用户實現自動糾錯。

引用它其實一直在 iPhone 後台,保持着工作狀態。

接下來的問題就是機器學習的循環問題:究竟蘋果的隱私政策是否真的影響到了它的神經網絡算法?因為通常來説,神經網絡都需要大量的數據來高效訓練網絡的準確度,但是蘋果並沒有放開使用所有用户的行為,那他們又怎麼能夠了解用户呢?

就像很多其他公司一樣,蘋果也是有利用一些公開的信息庫來訓練他們的神經網絡,但是有些時候的確需要更加及時、更加特定的信息,這些智能從用户的數據中來。

而蘋果的做法是——從用户那裏拿數據,但是又確保自己不知道這些數據對應的用户是誰。之前的做法是,完全讓數據匿名,然後以完全獨立於 Apple ID 的另外一套系統來標識他們。(另外一套系統和 Apple ID 之間的關係只有蘋果知道)

進入 iOS 10 時代之後,蘋果更採用了一種全新的技術:差分隱私。能夠在向大眾收集數據的同時完全不去辨識區分個體。

這方面的應用例子就好像蘋果向你展示最近的時髦詞彙,但是他們並不在之前所提到的知識庫甚至是輸入法的詞典當中;還有突然因為越來越多詢問而“浮出表面”的鏈接;或者單個 emoji 表情的使用頻率增加。

引用完成這些事的傳統方式是把所有信息,比如你輸入的所有字詞,上傳到服務器短,然後由他們來發現其中有意思的東西。我們也有做端到端的加密,所以我們選擇不這樣做。

雖然差分隱私現在聽起來更像一個學術詞彙,但是蘋果正在嘗試將這項技術普及出去。我們正在將它從研究所內轉移到數以十億記的用户面前。

Federighi  緊接着又補充了一些相關的細節:

引用我們在很多年前就開始做這件事,並且已經在大規模應用中獲得了有趣的成果。而且,你會為它的隱私程度感到意外。

他緊接着描述了一個系統其中包括了虛擬的隨機和加密機制,即便我專門寫過一本關於加密的書,也很難跟隨他的思維。但是總結一點來説,它實際上是把數學噪聲加到蘋果收集的用户信息碎片當中去。

在他看來蘋果的貢獻也是非常顯著的,同時也非常罕見的成為了蘋果對外公開的技術,因為蘋果授權相應的科學家將工作細節和研究成果公制於眾。


對於機器學習如何改變蘋果的產品,這一點我們是可以肯定的。但是機器學習將如何改變蘋果自身這並不明確。按照其中一種思維來説,機器學習似乎與蘋果本身的氣質不符。蘋果一直都是一家能夠全方位控制用户體驗的公司。所有東西都被預先設計好,並且以最謹慎的方式寫好代碼。

但是當工程師開始應用及其學習,他們實際上是在讓軟件自身不斷去發現解決方案。蘋果是否能夠適應當下的機器學習系統?機器學習的結果是否最終會影響實際產品的設計?這都還是變數。Federighi 對此表示:

引用這件事在內部其實也引起了很多爭議,我們之前其實進行過非常長遠的思考。之前我們都是根據自己的經驗,從多個維度去控制人機交互的細節,最終達到最佳的用户體驗。

但如果你嘗試通過大量數據訓練機器,從而模擬出用户的行為,結果蘋果設計師的經驗就不再佔據領導地位,一切都是數據説了算。


蘋果的典型用户將在自己的日常使用中體會到深度學習帶來的改變

但是蘋果沒有因此而退縮,Schiller 表示:

引用這些新技術的確在影響着我們設計產品的思路,最終有一天我們也會因為他們能夠讓我們打造出更好的產品而是用他們。

這也許就是蘋果最終的解決方案:蘋果接下來依舊不會對採用的人工智能技術過多標榜,而是一如既往的利用它們來提升產品質量,你 iPhone 裏面的那個“大腦”就是最好的例子。

典型的蘋果用户,將在體驗深度學習過程中愈發熱愛蘋果產品。而最令人激動的是這一切是那麼難以察覺,以至於當你回過頭看差別的時候不僅發出感歎:“這一切是怎麼發生的?”

至於天網嘛,也許還要等等。(全文完)

注:本文由李賡、文敏柔協作編譯。

題圖來自 Aliexpress

插圖來自 Backchannel


資料來源:愛範兒(ifanr)

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→