你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

愛範兒 於 05/09/2023 發表 收藏文章
上世紀末的作品《攻殼機動隊》中,全身義體化的素子,懷疑自己是否仍然存在。身體、記憶和其他人的關係,當這些事物都能夠被複制,也就無法成為肉身生命的論據。

AI 歌手爆火之時,孫燕姿也在迴應裏提出類似的觀點,你並不特別,你已經是可預測的,而且不幸你也是可定製的。

我們可以加上一句,任何人都是可以被 AI 描述和生成的,哪怕你從未做過某些事情。

魯迅真的説過,一見短袖子,立刻想到白臂膊。人類的想象力是共通的,毫不意外,每當技術有新進展,某個垂直賽道會被開發得越發成熟:搞黃色。

從明星網紅,到每個普通人

2017 年興起的色情 Deepfake 有續集了。

之前是換臉的「移花接木」,眼下是數行文字的「無中生有」。

AI 作圖發展到如今,已經有了很多分享 AI 模型的網站,你可以用來生成各種風格的圖片,莫奈筆調風景畫、韋斯·安德森配色產品圖,當然也包括彷彿真人出鏡的色情場景。

「Create Anything(創造任何東西)」,這是其中一個網站(避免有宣傳之嫌,名字就不透露了)打出的旗號。雖然啥都能幹,不少用户更願意在「十八禁」大展拳腳。


在文本框輸入名人名字,加上「裸體」等提示詞,就會得到一個模糊的圖像。接下來是另外的價錢,每月 4 美元試水基礎版,或者每月 15 美元尊享專業版。

▲ 付費解鎖界面,NSFW 意為「工作場所不宜」,一般指色情、暴力等內容.
不僅如此,生成圖片之後,提示詞公開可見,讓類似喜好的其他用户沿用或者迭代都很方便。

另外,這個網站在聊天軟件 Discord 有 3000 多名成員和數十個聊天室,他們討論的都是怎麼精進提示詞技巧,從而更符合自己對某個部位和姿勢的想象。

▲ 好萊塢女星的 AI 模型,已經下載 1300 次.

網站的創始人在接受採訪時説,NSFW 只佔平台內容的一小部分,每月有 100 萬個活躍的創作者產出獨特的作品。

在另一個類似的網站,用户可以上傳、共享和發現自定義模型,同樣是什麼風格都有,動漫風、遊戲風、膠片復古風…… 但人性所致,帶顏色的模型人氣居高不下,最熱門的幾個已經被下載六七萬次。

▲ 一個「擦邊球」模型.

色情固然是互聯網的一部分,然而問題在於,訓練這些模型的真實人物圖片,是在互聯網擅自抓取的,並沒有經過本人的同意。

有些圖片也不是完全露骨,而是讓名人穿着內衣,或者某個部位看起來更大,但五十步笑百步的做法,仍然是不道德的。

這時候就需要稍微解釋下原理。很多個性化的 AI 模型,都是基於開源的 Stable Diffusion 微調,而 LoRA 又是一種主流的模型微調訓練方法,因為它相對輕量化,用少量圖片訓練,便能生成特定的人物、物體或畫風。

▲ 之前很火的賽博 COSER 用的也是 LoRA. 圖片來自:@勘雲工造

那麼對於色圖,誰成為了微調數據集呢?

獨立媒體公司 404 Media 調查發現,其中一個模型的訓練數據,來自「美版貼吧」Reddit 的幾個成人主題社區。


願意上傳圖片,不代表願意充當 AI 的口糧。一位負責管理社區的 Reddit 用户懷疑,大多數在 Reddit 發佈裸照的人,可能並不知道照片正在被用來餵養 AI 模型。

倒也不是發出裸照才有威脅。7 月初,德國電信發了一條關於兒童數據安全的廣告,展現個人數據被拿去使用是多麼容易,後果又是多麼嚴重,呼籲家長儘量少在互聯網分享兒童隱私。

▲ 德國電信廣告部分截圖,兒童照片可能會被用於製造成人內容.

這也意味着,威脅不僅在明星和網紅頭上盤旋,也可能擊中在互聯網路過的普通人,恐怕離人人都有一個 AI 模型的未來也不遠了,只要你我在互聯網上有過數字痕跡。

根據今年 7 月的互聯網狀況統計報告,近 50 億人(48.8 億)活躍在社交媒體上,佔世界總人口的 60.6%。


或許有人會問,這不是 Deepfake 換臉時就有的毛病嗎?是的,但偽造圖片的腳步不會停下,已經存在的問題變本加厲。

從基於生成式對抗網絡的 Deepfake,到模擬粒子熱運動過程的擴散模型,訓練數據集擴大了、算法框架迭代了、算力水平也提升了。更直觀的是,普通人在 AI 上也有參與感了。

從前我們更偏向 AI 消費者,或是刷到真假難辨的湯姆·克魯斯微微一哂,保持看熱鬧的旁觀心態,或是換上好玩的濾鏡跟進社交媒體潮流,交出去的基本是自己的個人信息。

▲ TikTok 的「湯姆·克魯斯」,本人看了也得犯迷糊.

現在我們都可以是 AI 生產者,登錄 AI 模型網站,在文本框輸入提示詞,由雲計算處理需求,幾分鐘就可以生成某位名人的定製 AI 作品,哪怕質量不好,用户規模和圖片數量是空前的,每個月產出上百萬張圖片不在話下。

▲ 某 AI 模型網站的生成速度,最多需要 1 分鐘.

AI 成人內容的可怕之處還在於,既要從真人取材,也要回歸「真實」。

各網站最受歡迎的模型之一非常強調現實感,用户們還在 Reddit 討論怎麼給某個器官特寫。行業裏最優秀的創作者,甚至稱自己的作品就像「1080P+ 視頻的定格幀」。

可想而知,騷擾和勒索也可能會增加,技術的惡面往往最先向無法自保的人刀劍相向。

是興趣,更是交易

和性搭上了邊,那就不缺交易。買家是出於個人興趣,賣家則是因為真金白銀。除了上文提到的訂閲模式,用 AI 色圖賺錢的方式還有很多,雖然基本都是「打零工」。

在 Patreon、Ko-fi 等具有打賞、贊助功能的平台,可以找到創作者的蹤影。一位創作者在 Patreon 有 100 多名付費會員,巔峯時期每個月能賺到 1500 美元。

他還順便加入了另外一個平台的「創作者計劃」,每張圖片入賬 0.001 美元,雖然單價低,但好在他使喚 AI 的速度夠快。

▲ Patreon 的訂閲界面.

任務眾包平台 Fiverr 也值得一提,它是一個連接甲方乙方的中介,幾乎可以購買和出售任何數字化「零活」,比如寫作、翻譯、設計,不少 AI 創作者明碼標價,按照模型和圖片數量階梯收費。

▲ 一位 Fiverr 創作者的接活界面.

還有作風更加極客的創作者,直接在 AI 模型網站貼出比特幣錢包地址。

別説個體創作者了,平台同樣賺得盆滿缽滿。

有的 AI 模型網站自己也有打賞功能,同時提供每月 5 美元的會員福利,讓用户可以搶先體驗新功能,並在官網和 Discord 上的用户名後面戴上獨特的徽章。

▲ AI 模型網站的打賞功能.

號稱全世界第二大成人網站的 OnlyFans,不像 P 站收入主要來自廣告並按視頻點擊量和創作者分成,創作者可以通過用户訂閲和按次付費賺錢。

有觀點認為,OnlyFans 改變了成人產業,因為創作者拿回了主導權,通過自己的作品直接獲得收入。

然而現在,出圖更快的「AI 師傅」也在復刻這套商業模式,「傳統手藝人」的生財之路可能再次被打斷。


這一集我們在 Deepfake 視頻大行其道的時候就看過。彭博社採訪的一位 29 歲網紅,是其中一位惴惴不安的受害者。

放在以前,如果想看她玩電子遊戲,可以每月花 5 美元訂閲 Twitch,如果想看她尺度更大的內容,可以每月花 15 美元訂閲 OnlyFans。


然而現在,粉絲可以花更少的錢或者免費觀看她的 Deepfake 視頻,只要帶着她的大名搜索 Google。與此同時,心理創傷如影隨形:

引用人們總是在發佈新視頻,在你不同意的情況下看到自己出現在色情片中,感覺很噁心。

AI 色圖這把火,也遲早燒到真人頭上。一位在 Reddit 發圖的「女菩薩」很是悲觀:

引用過去沒有采取任何措施來保護我們,所以我不明白為什麼現在會激勵任何保護措施。
操作猛如虎,維權打地鼠

作惡成本低、維權成本高,是 2017 年「黃色」Deepfake 興起之時就有的毛病了,現在它只會變得更加嚴重。

撤下未經本人同意的 AI 色圖,往往是靠受害者自行發現,或者平台事後補救。


按照 Google 的服務條款,如果證據充分,用户可以請求 Google 刪除某條具體的鏈接。然而「野火燒不盡」,這就像一個沒有終點的打地鼠遊戲。

不過,Google 也在改進排名系統,減少此類內容的出現。

▲ Google 的服務條款.

提供 AI 模型的平台們也並非沒有意識到,技術存在被濫用的可能,但前所未有的內容規模,已經不允許平台只是沿用以前的審核策略。

404 Media 記者發現,某 AI 模型網站的服務條款允許色情內容,也允許真人內容,但不允許兩者兼而有之的真人色情內容,尤其涉及到未成年時。

然而,此類內容仍然不斷髮布,部分被平台刪除,部分已經「倖存」了幾個月。

▲ 某 AI 模型網站的服務條款.

只能説,意識到位了,但方法沒有。對技術的規範,總是相對技術落後半步。

類似地,生成真人色情圖像,違反了 Discord 的社區規則,但管理起來並不容易,靠的主要是用户自覺。

Discord 的信任與安全團隊,負責檢查用户、版主或記者的報告,如果有人確實違反了社區準則,那就發出警告、刪除內容、關停賬號等,存在一定的被動性。

▲ Discord 的社區準則,上為原文下為翻譯.

諷刺的是,把 AI 色圖分享到 Discord,也會被 AI 模型網站的用户內部批評,不是問心有愧,而是因為這壞了規矩,有可能讓社區被禁:「你可以在網站上創建它,但不能在這裏分享。」

甚至法律也不一定派上用場,就像 Deepfake 存在這麼久了,美國只有幾個州在為它立法,但因為雜亂無章,很難真正執行,並且有些創作者想盡辦法隱藏身份,既然找不到人維權,很多時候受害者只能吃下啞巴虧。

好在幾個更加主流的文生圖工具,用技術為技術事先附加了制約。


OpenAI 旗下的 Dall-E,儘可能減少了訓練數據中的裸體圖像,並且在實際使用過程中,阻止某些提示詞的輸入,以及在圖片顯示給用户之前掃描輸出結果。

Midjourney 也有屏蔽詞和人工審核,還計劃推出更先進的、能夠關聯上下文的過濾功能。

Stable Diffusion 背後的公司 Stability AI 也曾迴應過類似的問題,「對任何開源代碼所做的事情都是無法控制的」。

儘管如此,Stability AI 認為,識別此類行為並將其定為犯罪,還有很多事情可以做,開發者社區和互聯網基礎設施提供商也應該參與進來。


簡言之,對技術的規範就像鈍刀子割肉,不能立刻起效,而 AI 色圖的問題遠比以前嚴重,靠的是一條運行順暢的「生產鏈」:

  • 提供訓練圖像的內容社區;
  • 生成色圖的開源技術;
  • 將 AI 模型和圖片商業化的平台;

自從 Deepfake 問世,我們就遇到了同樣的問題。人性難測,技術的普及和濫用只有一步之遙,工具更加容易上手了,商業模式也走通了,那麼創建和分發色圖的動力就更大了。


很多時候,互聯網的成人行業已經被「非人化」地看待,當真正非人的 AI 取而代之,繼續滿足刻板印象,可能導致物化更上一層樓,而不是停止物化。

就像《攻殼機動隊》提出的問題那樣,真實和虛假不再溝壑分明。完全像你的人做出了你從來不會做的事,但你很難證明那不是你,數據就是你,存在過的痕跡就是你。

每當 AI 被最先應用到色情產業,總有人説,這會加速技術普及,或者不再需要真人。有人用金錢兑換慾望,有人不經意被投入技術熔爐,卻沒有誰會為傷害買單。


資料來源:愛範兒(ifanr)
標籤: AI  

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→