全世界都被騙到了?英偉達發佈會「數字替身」出場 14 秒,暴露了一個大問題

愛範兒 於 16/08/2021 發表 收藏文章
引用黃仁勳騙過了全世界,三個多月都沒人發覺!皮衣是假的廚房是假的,連他自己都是假的!

這兩天,一則震驚科技圈的消息四處瘋狂刷屏。事情是,英偉達最近公開了 4 月 GTC 發佈會的幕後紀錄片,展示技術人員如何通過 Omniverse 平台,製作現場各種 3D 仿真特效。其中包括完美複製出黃仁勳家的廚房,以及,合成了他本人的「數字人」。


什麼?眼前如此逼真的黃老闆竟然不是活人?

先不要激動,不是你想的那樣。實際上據英偉達博客稱,當天 1 小時 48 分的發佈會裏,「數字人」出場只佔了 14 秒(原片 01:02:41 – 01:02:55)。這 14 秒之外,全都是黃仁勳本人在演講。

21 個真假黃仁勳

被英偉達稱為發佈會高潮時刻的 14 秒,是長這樣的:

在介紹英偉達首款 CPU Grace 時,真廚房瞬間變成假廚房,並像變形金剛一樣開始「解體」。然後,場景進入虛擬空間,黃仁勳的「數字人」便穿着他的假皮衣上場了。

▲ 你沒看錯,由於疫情,這兩年英偉達發佈會都是在 CEO 家廚房開的

你完全可以把這段理解為對 Omniverse 平台的炫技曬肌肉。官方描述稱,這 14 秒將英偉達的深度學習與圖像研究團隊、工程師團隊和設計師團隊的工作,都很好地結合到了一起。
為了復刻這個廚房,技術人員從不同角度拍了幾百張照片,再進行 3D 建模。據稱,這裏邊東西多達 6000-8000 件。他們還在假廚房裏悄悄埋了 3 個彩蛋:一台印有英偉達 logo 的咖啡研磨機、一罐品牌名叫 Tao 的橄欖油,以及一個黃仁勳模樣的樂高小人。


至於「造假」CEO 本人,需要先給黃仁勳(和他的皮衣)來一次全身的 3D 掃描,以幾千張照片為基礎來建模,再用 AI 訓練面部動作和表情。


另外,他們找來了專門的演員,特意對黃仁勳過往演講的肢體語言進行學習模仿,再進行長達 8 小時的動作捕捉。在多番細節調整後,團隊做出了 21 個版本的「數字人」,供老闆最終挑選出鏡。

真的假的?14 秒背後的大問題

在 YouTube 上,這條幕後紀錄片的簡介是:看一羣藝術家,如何在英偉達發佈會 Keynote 中模糊現實和渲染的界限。在博客正文,英偉達表示,廚房「解體」的瞬間讓觀眾們大吃一驚,大家開始懷疑整個發佈會到底有多少是真實的,有多少是 AI 的功勞。

老實説,回頭認真看這 14 秒,廚房「解體」的效果還算驚豔,但合成版黃仁勳的肢體動作比較僵硬,甚至口型有些對不上。要辨別出來是 AI 的傑作,跟真人版區分開來並不算太難。


但最初在誤讀的消息傳出時,我也一度陷入自我懷疑,開始感覺這 1 小時 48 分鐘裏,黃老闆真人出鏡時的每個笑容,似乎都有着扎克伯格同款的機器人味道。

嗯,看來他是假的。嗯?他真是假的嗎?

為什麼我們會為真假老黃的問題而感到困惑?可能是因為,我們生活在一個「眼見未必為實」的世界裏。

以 Deepfake 技術為例,曾經它被用來生產女明星換臉色情影片,或政客名人假新聞。如今,這項技術的應用變得更廣泛了,只需要一張大頭照,你身邊的女同事或女性朋友都可能成為裸照受害者

萬物皆可 Deepfake 的年代,任意篡改視頻和語音也只是基操勿 6。

電話那頭的人類萌妹,實際上可能是摳腳大漢詐騙犯在操縱的 AI。2019 年,就有騙子通過 AI 合成的語音,冒充一家英國能源公司德國母公司的 CEO,成功從該公司員工手裏騙走 22 萬歐元(約合 173 萬人民幣)。

今天,就連直播都未必可信。舉個例子,英偉達最近推出了一種實時虛擬形象技術。即使程序員正戴着口罩在咖啡館摸魚,對方在實時會議畫面裏看到的,也可以是他此刻人在辦公室西裝革履風度翩翩。只要你願意,還可以瞬間切換到陽光與海灘的度假形象。


多位專家提醒,這種現象很容易讓人們對社交網絡的內容、乃至對整個社會的不信任。

隨着現實和虛擬的界限日漸模糊,我們分辨人類和 AI 的雷達將會頻繁失靈。在元宇宙(Metaverse)或將成真抵達的未來,你問我眼前的老黃是不是真老黃?我真不敢回答。

人類需要一個小小的陀螺

就在上個月,CNN 紀錄片《Roadrunner: A Film About Anthony Bourdain》引起了一波關於 AI 使用道德倫理的討論。

紀錄片的主人公,是已故的明星廚師 Anthony Bourdain。片中採用了很多他生前的視頻和音頻素材,但有一點,導演並沒有主動告知公眾:有 3 句聽起來像是 Bourdain 本人敍述的旁白,其實是由 AI 技術模仿生成的。

▲ Anthony Bourdain

雖然這 3 句話的原文都來自 Bourdain 撰寫的郵件,但仍然讓人感到不適、憤怒和被欺騙。紐約大學新聞學教授 Meredith Broussard 表示,跟虛構的影視作品不同,人們認為紀錄片是真實的,如果作品中使用了 AI,就應該明確説明。

Gartner Research 的分析師 Nicole Greene,也贊成在 AI 介入的時候明確告知,「不管是品牌跟虛擬偶像合作,還是電影用 AI 技術重現逝世演員的角色,只要消費者知道正在發生的事情,他們是可以接受的。」

▲《速度與激情 7》,用 CG 特效讓 Paul Walker「起死回生」

從 2015 年開始,美聯社一直使用 AI 自動生成公司財報類新聞,每一篇都會附上註釋:「本故事由 Automated Insights 自動生成」。清清楚楚告訴你,這就是 AI 搬磚寫的稿子。

這簡單的一句説明,就像是恐怖電影開始前的「家長指引」,方便麪包裝和漢堡廣告的「一切以實物為準」。它是最基本的信息告知,也是生產方對消費者的負責任。在 Deepfake 等技術作惡消耗信任的時代,甚至能帶來信任的重建。

我們並不拒絕 AI 闖入現實生活,畢竟,它為高效和創意帶來了無限種新的可能性(至於 AI 的濫用,那是另一個話題了)。但我們都希望能擁有知情權。
目前全球最火的虛擬偶像之一 Lil Miquela,2016 年出道,2018 年才承認自己並非真實的人類。現在,她的 Instagram 自我介紹寫的是「一個住在洛杉磯的 19 歲機器人」;而同樣受歡迎的 Imma,則稱自己為「對日本文化感興趣的虛擬女孩」。

雖然本質上只是一串由 0 和 1 組成的代碼,但絲毫不影響年輕人對她們的追捧。今天,Miquela 和 Imma 坐擁百萬粉絲,時尚和廣告合作資源接到手軟,是名副其實的社交網絡紅人。

▲你能看中圖中哪位模特是真人嗎?

回頭看這次英偉達的真假黃仁勳,如果能勞煩 AI 或工作人員在演示畫面加一行説明,是不是就可以避免「震驚!全世界都被騙到了」「發佈會中的老黃全是假的」這種烏龍事件?

在真假難辨的世界裏,人類需要有《盜夢空間》裏那個旋轉或倒下的陀螺,提醒我們:前方是虛擬空間,請保持警惕,小心通行。


目前,Facebook、Google 和 Twitter 等互聯網公司都在研究如何檢測並遏制 Deepfake 視頻的傳播,一些地區也頒佈了相關禁令。但這仍然像是一場「貓抓老鼠」的遊戲。

至於 AI 的使用界限和道德倫理問題,未來估計也會有相關法律法規出台。朋友,我們正站在元宇宙的入口,假亦真時真亦假,一切才剛剛開始。


資料來源:愛範兒(ifanr)
標籤: 英偉達  NVIDIA  黃仁勳  

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→