蘋果給 FaceTime 加入了裸露檢測,這是蘋果在隱私和道德之間的選擇

愛範兒 於 20 小時前發表 收藏文章
你肯定也看過蘋果和岳雲鵬合作的廣告,其中最核心的主張就是:
引用力保隱私安全,這很 iPhone。

蘋果是這麼説的,確實也是這麼做的。只是,當「隱私」和「道德」 被放在天平的兩端時,即便是蘋果,也會面臨進退維谷的難題。

▲ 蘋果和岳雲鵬合作廣告海報. 圖片來自:Apple

據 9to5mac 報道,蘋果在 iOS 26 的開發者預覽版中,推出了 FaceTime 的裸露檢測功能,意在檢測視頻通話中的不當裸露內容。

據悉,蘋果將通過設備端側的 AI 算法來實時識別通話中的裸露內容,當系統識別出可能的裸露畫面時,它會立即暫停視頻通話並顯示警告。

蘋果表示,該功能的設計初衷,是為了在兒童賬户上應用,給青少年提供一個更加安全的數字社交環境。

▲ FaceTime 凍結界面. 圖片來自:9to5Mac

該功能源自於蘋果在幾年前推行的 CSAM(兒童性虐待材料)掃描計劃。但不知道出於什麼考慮,這項功能在 iOS 26 開發者版本中被擴大到覆蓋所有年齡的用户。也就是説,成人用户也被「保護」起來了。

儘管蘋果強調所有識別工作都在設備本地處理,數據不會上傳至雲端,但年齡覆蓋擴大的情況還是在社交媒體上引發廣泛爭議。一位名為 krazygreekguy 的用户在 9to5mac 上評論道:

引用我理解背後的想法,但他們無權對成年人實施這種控制。沒有任何組織有權侵犯人們的隱私。
▲ 蘋果宣傳圖. 圖片來自:Apple

換言之,人們擔心這種年齡覆蓋的擴大是一種蘋果獨有權力的擴張,以至於到了過度干預私人生活的境地,甚至可能擴大到和色情意圖完全無關的場景。

試想一下,你正在和家裏的小孩視頻通話,只是因為光着膀子或者調整衣物,就可能會被系統誤判為不當裸露,而導致視頻被攔截:

引用難道我的 iPhone 認為我是個變態?

▲ FaceTime. 圖片來自:Apple

事實上,FaceTime 已經問世 14 年,作為蘋果生態的「元老級」功能,這也不是它首次引起爭議。2019 年,FaceTime 就曾因為技術漏洞,讓用户在未接通的情況下聽到對方通話的聲音。雖然蘋果迅速修復了漏洞,這也讓很多人對蘋果的隱私宣傳話術之下的真實保護能力,產生了疑慮。

▲ 蘋果宣傳圖. 圖片來自:Apple

作為公司的核心價值觀,蘋果對用户隱私保護方面一直很重視。

長期關注蘋果的人,可能會對 2015 年蘋果硬剛 FBI 的事件記憶猶新——當年,在加州聖貝納迪諾槍擊案後,FBI 為了獲取恐怖活動信息,要求解鎖涉案兇手使用的 iPhone,但遭到蘋果拒絕。當時,蘋果 CEO 蒂姆·庫克表示:後門一旦開了,就關不上了,將會危及所有用户的安全與隱私。

▲ FaceTime 界面. 圖片來自:Apple

但即便如此,蘋果也曾因隱私問題引發不小一些爭議。比如前面提到的 CSAM 掃描計劃,在推出時同樣備受批評。

從 2021 年的 iOS 15 開始,蘋果通過本地設備上的 NeuralHash 技術,將用户上傳到 iCloud 的照片與美國權威機構維護的 CSAM 數據庫進行哈希值比對,當超過預設閾值的情況發生,蘋果就會解密相關數據並進行人工審核,確認後將禁用賬户,並向美國國家失蹤和受虐兒童中心(NCMEC)舉報。

蘋果聲稱這一功能的用意是發現和揪出兒童性犯罪者,在技術上最大限度保護用户隱私,避免誤判和濫用。

但各路隱私保護組織和安全專家質疑蘋果是否會背離其一貫的隱私保護承諾,畢竟 CSAM 掃描究其根本還是識別了用户上傳的隱私信息。面對壓力,蘋果宣佈推遲該功能的發佈,轉而推出其他兒童保護措施,如信息通信安全和 Siri 搜索干預功能。

對於蘋果來説,「道德」與「隱私」也會出現不可兼得的情況。


回到剛開始説的 FaceTime 裸露檢測:從蘋果的初衷來看,這是一個為了更好保護青少年而推出的安全特性,它有助於防止青少年在視頻通話中接觸到不適當的裸露內容——類似的手機視頻通話性騷擾和欺詐案例,全球範圍內不勝枚舉。坐擁十幾億用户,蘋果確實也該承擔這樣的社會責任。

但另一方面,這種 「自動干預」 的邊界在哪裏,仍然是一個重要的問題。

當公共道德和個人隱私被擺在天平的兩端時,如何權衡利弊,並做出「正確」的決策。這或許會在未來很長一段時間裏,都困擾着蘋果。

本文作者:周芊彤、肖欽鵬


資料來源:愛範兒(ifanr)
標籤: 蘋果  FaceTime  裸露檢測  

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→