新年新氣象,除了和財神爺搞好關係,守住錢袋子也很重要。
技術落地的過程,往往是黃色內容和詐騙套路的進化史。
趁着假期還有餘額,教長輩警惕 AI 新型騙局,才能實現「相親相愛一家人」家族羣的「共同富裕」。
一抓一大把的 AI 博主,比「假靳東」更能騙人
《大話西遊》裏説,人是人他媽生的,妖是妖他媽生的,代碼產出的 AI 沒有父母,但想裝得有血有肉,讓你誤解它是人類。
最近,視頻號冒出了不少「俄羅斯美女」。她們個個膚白貌美,普通話流暢但斷句和咬字奇怪,聲調和前後鼻音讀不準。當然,考慮到她們外國人的身份,帶點口音才顯得自然。
她們熱情,也熱愛中國文化,為視頻打上「俄羅斯女孩在中國」「中俄友誼」之類的標籤,為觀眾朋友帶來「家鄉特產」的牛筋腸、大列巴、羊奶粉、酸黃瓜、巧克力、手工皂。
她們兩彎似蹙非蹙罥煙眉,一雙似喜非喜含情目,除了帶貨也會輸出觀點,相信愛情無國界,信奉平平淡淡才是真,感嘆這裏的繁華,想把爸媽和妹妹也接來發展。
她們可能是彼此失散多年的姐妹,葉連娜和艾琳娜就長得一模一樣,IP 還都是山東的。她們聚是一團火、散是滿天星,分佈在五湖四海,莉娜是上海的,尼娜是安徽的,艾琳是河北的,卡佳是遼寧的,阿麗莎是福建的。
這些俄羅斯美女都是 AI,平台貼心地標註了。通過她們虛化誇張的模糊背景、沒摳好的頭髮絲、循環的幾套表情和動作、過於接地氣的台詞,我們也能分辨一二。
但評論區的中老年看不出來,真心希望她們留下來,「俄羅斯美女」們回覆時只掛念着自己的任務,完成了一場不動聲色的軟性詐騙。
被美貌所惑是人之常情,不分年齡。小紅書的 AI 顏值博主,用時髦的、極具網感的人設實現老少通殺。「西裝精英男」「白襪體育生」「純慾女神」…… 乍一看,只以為是 P 圖 P 過了的真人。
這時候辨別是不是 AI,看手仍然是一種方式,因為臉相對平面,容易學習,而手有三維結構,比較耗費功夫。手指數量超出無須多言,手指關節扭曲得留個心眼,非必要不露手也十分可疑。類似地,肌肉、四肢、衣服等細節也可能有着顯而易見的破綻。
其餘的分辨方式越來越向玄學和直覺發展:畫風油膩、文案網抑雲、沒有生活氣息、光影效果不自然、眼神透着死氣,臉部過於精緻完美,只有靜態圖片沒有視頻,單看一張圖片不好確定,但多看幾張就能發現,什麼姿勢都是一個表情……
小紅書 AI 博主 @cyberAngel_ 本職是一名軟件工程師,AI 繪畫權當為愛發電的業餘愛好,他不隱藏使用 AI 的事實,帖子標題註明「AI 繪畫」,賬號簡介也寫着「我只是一個沒有感情的機器人」。
▲ 圖片來自:小紅書 @cyberAngel_
同時 @cyberAngel_ 認為,未來的 AI 繪畫將越來越難以分辨真假,AI 生成和 AI 檢測是互相進化的,創作者們更加清楚 AI 哪裏不像真人,所以會努力讓這部分「像」真人,比如 AI 產出的美少女過於完美,可以適當模糊化,加點「膠片感」。
哪怕 AI 顏值博主還沒那麼真,和「俄羅斯美女」大同小異的劇情已經出現,平台明明已經提示「疑似包含 AI 創作信息」,評論區仍有人留下彩虹屁,甚至追着詢問衣服鏈接,似乎真或假的問題,最終將不可避免地讓位於美麗即是正義。
等到粉絲量上來了,AI 顏值博主的變現方式可以十分多樣,有的自力更生,通過廣告等將流量變現,有的知識付費,賣課、賣定製模型,按 @cyberAngel_ 的話説,「新媒體有新媒體的變現方式,技術有技術的變現方式」。
▲真人模型.
AI「俄羅斯美女」和「顏值博主」,和之前騙中老年女性情感和錢財的「假靳東」有些相似之處,卻更加可怕,也更加有想象空間。
「假靳東」沒什麼技術含量,和明星相關的視頻和照片是下載或者打包購買的,深情的聲音是用變聲軟件偽造的,粗糙得「一眼假」,AI 的段位更高,有時候還真的沒那麼好辨別。
只能説,當我們看到盤靚條順的互聯網帥哥美女時,最好不要默認是真人,也不必太真情實感,網紅公司不想花錢在真人 KOL 上,觀眾也更加快速地消費批量的美貌和廉價的觀點,多麼符合互聯網的傳播規律。
AI 模仿你的臉,還要恐嚇你的心
除了通過「顏值博主」和「俄羅斯美女」廣撒網,AI 同樣也能精準鎖定。
或者説,AI 既能編織出温柔鄉,也能改頭換面當 PUA 大師。
一類常見的 AI 詐騙是,騙子偽造來電顯示和熟人聲音,告訴接到電話的中老年,他們的孫子孫女遇到了麻煩,要麼是犯了事需要拿錢消災,要麼是身陷險境得用贖金救出。
國外報道了好幾起這樣的電話詐騙事件,劇情大同小異,綁架、受傷、酒駕追尾…… 類似的事情也發生在國內,尤其是利用「時空差」,編造留學生被綁架,從而詐騙家長。
套路本身並不新鮮,已經橫行了幾年,但因為技術發展,算力、樣本等各方面的要求降低了,效果更逼真了,騙局更容易實施了。
AI 語音克隆界的領頭羊 ElevenLabs 只需一美元和一分鐘的高質量音頻,讓你瞬間掌握 29 種語言和多種語氣,還保留自己的口音、語調和節奏。
雖然如今的 Elevenlabs 再三保證,只有你可以克隆自己的聲音,並且有驗證程序證明聲音屬於你自己,然而這是亡羊補牢,2023 年 Elevenlabs 剛推出測試版時,泰勒·斯威夫特等名人的克隆語音已經滿天飛了。AI 泰勒·斯威夫特説什麼,本人無權決定。
不過,對方固然可以偽造來電顯示和聲音,但如果當事人頭腦清醒,掛斷電話,重新輸入手機號,主動聯繫到親人,謊言往往不攻自破。
比起語音,視頻通話可能更讓相信「眼見為實」的中老年懷疑人生。
屏幕那端不知是人是狗的古早笑話永不過時,技術上也不難實現。比較常見的操作是,通過虛擬攝像頭軟件和 AI 換臉功能,和對方進行聊天。
CCTV 採訪的、為公安機關提供技術支持的一家深圳科技公司表示,進行視頻聊天的實時換臉時,不管是頭像還是朋友圈照片,上傳圖像後,特徵識別只需要 30 秒左右,然後 AI 開始建模,建模完成後進行實時轉換。
一對一的視頻或許尚存戒心,如果一對多的「專業團隊」呢?
最近,一家跨國公司香港分公司因為 AI 被騙走了 2500 萬美元。受害人是一名財務職員,其收到了英國總部「CFO」的郵件,受邀參與了一場涉及「秘密交易」的視頻會議,會上不僅有「CFO」,還有幾個眼熟的「同事」。
與會同事並非真的在場,騙子下載了公開視頻,通過 Deepfake 偽造了真人的臉和聲音,再套用到視頻會議。為了避免露餡,「CFO」單方面下指令,「同事」們沒有和受害人交流,並且視頻很快掛斷了,騙子之後通過郵件等方式繼續和受害人聯繫。
▲ 警方示範怎麼用 Deepfake 偽造多人視頻會議.
雖然此事有了調查結果,也有網友懷疑是內鬼作祟而已。跨國公司的風險管控措施如何不為人知,但可以確定的是,AI 換臉還可以延伸到很多地方,從最早的色情片換頭,到假冒明星在直播間帶貨。
所幸,AI 還沒有那麼完美,辨別方式依然簡單可行。
假如是通過 AI 換臉視頻,攝像頭的原始畫面在幾層轉換時十分消耗算力,聲音和畫面往往會有延時。另外,可以引導對方做些動作,比如張嘴、大幅度搖頭、把手指擋在臉前來回移動等,若是 AI 換臉,「人臉」可能會出現變形和瑕疵。
除了從技術的 bug 突破重圍,還有百試不爽的一招是,問些你知我知他不知的隱私問題,或者編造謊言故意套路,看對方如何接招。
當然,技術的不足只能解一時之困,不妨戰略上蔑視、戰術上重視,不能覺得自己一定不會被騙,可能只是高端局還沒出現。
AI 詐騙並不新,但新的數字鴻溝已經出現
2023 年被稱為生成式 AI 的元年,然而技術的推廣有滯後性,或許大多數普通人更能感知的是,看似並不新鮮的、但近年越發普及的技術,如何影響了日常生活。
技術是把雙刃劍的道理人人明白,Elevenlabs 可以讓有語言障礙的人發聲,HeyGen 讓黴黴對口型説出不帶翻譯腔的中文,妙鴨相機讓人足不出户收穫精修證件照,技術的光明面和陰暗面並無長短,只是客觀存在罷了。
然而,對於很多中老年來説,智能手機和互聯網本來就玩不明白,現在 AI 又來搗亂了。
AI 時代,文字、聲音、圖片和視頻都有可能是假的,甚至以組合形式上場,騙子偽造的身份更加具體,詐騙也更加對症下藥和真情實感,讓中老年受騙的概率更高。
以魔法對抗魔法,以技術攻防技術,是個此消彼長的貓鼠遊戲,中老年未必能快速消化,我們或許從詐騙的本質入手,降低中老年上當的可能。
不管技術如何發展,很多詐騙的套路萬變不離其宗:竊取隱私,利用恐懼、貪慾、情緒價值編故事,冒充熟人或包裝自己獲取信任,圖窮匕見以錢為最終目的。
在 AI 時尚教皇出圈後,一位粉絲近 1300 萬的 X(原 Twitter)大 V 感嘆:「我以為教皇的羽絨服是真的,沒有多想。我不可能在技術的未來中倖存下來。」
對於中老年來説,眼見不等於真實、有圖未必是真相的規則更難被適應。我們可以告訴他們一些簡單、傳統但依然有效的辦法。
一類是小心駛得萬年船,不輕易相信互聯網的內容,不接騷擾電話,不點陌生鏈接,儘量不在互聯網過度暴露人臉、聲音、指紋等個人生物信息。
尤其接到可疑電話、短信時,不要盲目相信「一面之詞」,不管對方是誰,談到錢就多個心眼,通過多種方式驗證對方身份,如果對方説家人遭遇了某事,再次回撥家人電話確認情況是否屬實。
另一類是主動出擊有備無患,中老年有自己偏好的媒體,家人可以將政府部門微信公眾號等信源的反詐內容轉發給他們。如果條件允許,也可以向中老年展示如何使用 ChatGPT 等 AI 工具。
當然,對於不懂智能手機的老人,儘量在源頭解決問題,最好不要在微信、支付寶綁定銀行卡,只存少量的零錢。
AI 詐騙得逞只是最後的結果,防範 AI 騙局卻可以隨時開始。
技術應當服務於每一個人,引路人為後來者照亮數字世界的燈塔,探明水下未知的暗礁,我們才能共同走向一個技術不被恐懼而是被合理使用的未來。
資料來源:愛範兒(ifanr)
技術落地的過程,往往是黃色內容和詐騙套路的進化史。
趁着假期還有餘額,教長輩警惕 AI 新型騙局,才能實現「相親相愛一家人」家族羣的「共同富裕」。
一抓一大把的 AI 博主,比「假靳東」更能騙人
《大話西遊》裏説,人是人他媽生的,妖是妖他媽生的,代碼產出的 AI 沒有父母,但想裝得有血有肉,讓你誤解它是人類。
最近,視頻號冒出了不少「俄羅斯美女」。她們個個膚白貌美,普通話流暢但斷句和咬字奇怪,聲調和前後鼻音讀不準。當然,考慮到她們外國人的身份,帶點口音才顯得自然。
她們熱情,也熱愛中國文化,為視頻打上「俄羅斯女孩在中國」「中俄友誼」之類的標籤,為觀眾朋友帶來「家鄉特產」的牛筋腸、大列巴、羊奶粉、酸黃瓜、巧克力、手工皂。
她們兩彎似蹙非蹙罥煙眉,一雙似喜非喜含情目,除了帶貨也會輸出觀點,相信愛情無國界,信奉平平淡淡才是真,感嘆這裏的繁華,想把爸媽和妹妹也接來發展。
她們可能是彼此失散多年的姐妹,葉連娜和艾琳娜就長得一模一樣,IP 還都是山東的。她們聚是一團火、散是滿天星,分佈在五湖四海,莉娜是上海的,尼娜是安徽的,艾琳是河北的,卡佳是遼寧的,阿麗莎是福建的。
這些俄羅斯美女都是 AI,平台貼心地標註了。通過她們虛化誇張的模糊背景、沒摳好的頭髮絲、循環的幾套表情和動作、過於接地氣的台詞,我們也能分辨一二。
但評論區的中老年看不出來,真心希望她們留下來,「俄羅斯美女」們回覆時只掛念着自己的任務,完成了一場不動聲色的軟性詐騙。
被美貌所惑是人之常情,不分年齡。小紅書的 AI 顏值博主,用時髦的、極具網感的人設實現老少通殺。「西裝精英男」「白襪體育生」「純慾女神」…… 乍一看,只以為是 P 圖 P 過了的真人。
這時候辨別是不是 AI,看手仍然是一種方式,因為臉相對平面,容易學習,而手有三維結構,比較耗費功夫。手指數量超出無須多言,手指關節扭曲得留個心眼,非必要不露手也十分可疑。類似地,肌肉、四肢、衣服等細節也可能有着顯而易見的破綻。
其餘的分辨方式越來越向玄學和直覺發展:畫風油膩、文案網抑雲、沒有生活氣息、光影效果不自然、眼神透着死氣,臉部過於精緻完美,只有靜態圖片沒有視頻,單看一張圖片不好確定,但多看幾張就能發現,什麼姿勢都是一個表情……
小紅書 AI 博主 @cyberAngel_ 本職是一名軟件工程師,AI 繪畫權當為愛發電的業餘愛好,他不隱藏使用 AI 的事實,帖子標題註明「AI 繪畫」,賬號簡介也寫着「我只是一個沒有感情的機器人」。
▲ 圖片來自:小紅書 @cyberAngel_
同時 @cyberAngel_ 認為,未來的 AI 繪畫將越來越難以分辨真假,AI 生成和 AI 檢測是互相進化的,創作者們更加清楚 AI 哪裏不像真人,所以會努力讓這部分「像」真人,比如 AI 產出的美少女過於完美,可以適當模糊化,加點「膠片感」。
哪怕 AI 顏值博主還沒那麼真,和「俄羅斯美女」大同小異的劇情已經出現,平台明明已經提示「疑似包含 AI 創作信息」,評論區仍有人留下彩虹屁,甚至追着詢問衣服鏈接,似乎真或假的問題,最終將不可避免地讓位於美麗即是正義。
等到粉絲量上來了,AI 顏值博主的變現方式可以十分多樣,有的自力更生,通過廣告等將流量變現,有的知識付費,賣課、賣定製模型,按 @cyberAngel_ 的話説,「新媒體有新媒體的變現方式,技術有技術的變現方式」。
▲真人模型.
AI「俄羅斯美女」和「顏值博主」,和之前騙中老年女性情感和錢財的「假靳東」有些相似之處,卻更加可怕,也更加有想象空間。
「假靳東」沒什麼技術含量,和明星相關的視頻和照片是下載或者打包購買的,深情的聲音是用變聲軟件偽造的,粗糙得「一眼假」,AI 的段位更高,有時候還真的沒那麼好辨別。
只能説,當我們看到盤靚條順的互聯網帥哥美女時,最好不要默認是真人,也不必太真情實感,網紅公司不想花錢在真人 KOL 上,觀眾也更加快速地消費批量的美貌和廉價的觀點,多麼符合互聯網的傳播規律。
AI 模仿你的臉,還要恐嚇你的心
除了通過「顏值博主」和「俄羅斯美女」廣撒網,AI 同樣也能精準鎖定。
或者説,AI 既能編織出温柔鄉,也能改頭換面當 PUA 大師。
一類常見的 AI 詐騙是,騙子偽造來電顯示和熟人聲音,告訴接到電話的中老年,他們的孫子孫女遇到了麻煩,要麼是犯了事需要拿錢消災,要麼是身陷險境得用贖金救出。
國外報道了好幾起這樣的電話詐騙事件,劇情大同小異,綁架、受傷、酒駕追尾…… 類似的事情也發生在國內,尤其是利用「時空差」,編造留學生被綁架,從而詐騙家長。
套路本身並不新鮮,已經橫行了幾年,但因為技術發展,算力、樣本等各方面的要求降低了,效果更逼真了,騙局更容易實施了。
AI 語音克隆界的領頭羊 ElevenLabs 只需一美元和一分鐘的高質量音頻,讓你瞬間掌握 29 種語言和多種語氣,還保留自己的口音、語調和節奏。
雖然如今的 Elevenlabs 再三保證,只有你可以克隆自己的聲音,並且有驗證程序證明聲音屬於你自己,然而這是亡羊補牢,2023 年 Elevenlabs 剛推出測試版時,泰勒·斯威夫特等名人的克隆語音已經滿天飛了。AI 泰勒·斯威夫特説什麼,本人無權決定。
不過,對方固然可以偽造來電顯示和聲音,但如果當事人頭腦清醒,掛斷電話,重新輸入手機號,主動聯繫到親人,謊言往往不攻自破。
比起語音,視頻通話可能更讓相信「眼見為實」的中老年懷疑人生。
屏幕那端不知是人是狗的古早笑話永不過時,技術上也不難實現。比較常見的操作是,通過虛擬攝像頭軟件和 AI 換臉功能,和對方進行聊天。
CCTV 採訪的、為公安機關提供技術支持的一家深圳科技公司表示,進行視頻聊天的實時換臉時,不管是頭像還是朋友圈照片,上傳圖像後,特徵識別只需要 30 秒左右,然後 AI 開始建模,建模完成後進行實時轉換。
一對一的視頻或許尚存戒心,如果一對多的「專業團隊」呢?
最近,一家跨國公司香港分公司因為 AI 被騙走了 2500 萬美元。受害人是一名財務職員,其收到了英國總部「CFO」的郵件,受邀參與了一場涉及「秘密交易」的視頻會議,會上不僅有「CFO」,還有幾個眼熟的「同事」。
與會同事並非真的在場,騙子下載了公開視頻,通過 Deepfake 偽造了真人的臉和聲音,再套用到視頻會議。為了避免露餡,「CFO」單方面下指令,「同事」們沒有和受害人交流,並且視頻很快掛斷了,騙子之後通過郵件等方式繼續和受害人聯繫。
▲ 警方示範怎麼用 Deepfake 偽造多人視頻會議.
雖然此事有了調查結果,也有網友懷疑是內鬼作祟而已。跨國公司的風險管控措施如何不為人知,但可以確定的是,AI 換臉還可以延伸到很多地方,從最早的色情片換頭,到假冒明星在直播間帶貨。
所幸,AI 還沒有那麼完美,辨別方式依然簡單可行。
假如是通過 AI 換臉視頻,攝像頭的原始畫面在幾層轉換時十分消耗算力,聲音和畫面往往會有延時。另外,可以引導對方做些動作,比如張嘴、大幅度搖頭、把手指擋在臉前來回移動等,若是 AI 換臉,「人臉」可能會出現變形和瑕疵。
除了從技術的 bug 突破重圍,還有百試不爽的一招是,問些你知我知他不知的隱私問題,或者編造謊言故意套路,看對方如何接招。
當然,技術的不足只能解一時之困,不妨戰略上蔑視、戰術上重視,不能覺得自己一定不會被騙,可能只是高端局還沒出現。
AI 詐騙並不新,但新的數字鴻溝已經出現
2023 年被稱為生成式 AI 的元年,然而技術的推廣有滯後性,或許大多數普通人更能感知的是,看似並不新鮮的、但近年越發普及的技術,如何影響了日常生活。
技術是把雙刃劍的道理人人明白,Elevenlabs 可以讓有語言障礙的人發聲,HeyGen 讓黴黴對口型説出不帶翻譯腔的中文,妙鴨相機讓人足不出户收穫精修證件照,技術的光明面和陰暗面並無長短,只是客觀存在罷了。
然而,對於很多中老年來説,智能手機和互聯網本來就玩不明白,現在 AI 又來搗亂了。
AI 時代,文字、聲音、圖片和視頻都有可能是假的,甚至以組合形式上場,騙子偽造的身份更加具體,詐騙也更加對症下藥和真情實感,讓中老年受騙的概率更高。
以魔法對抗魔法,以技術攻防技術,是個此消彼長的貓鼠遊戲,中老年未必能快速消化,我們或許從詐騙的本質入手,降低中老年上當的可能。
不管技術如何發展,很多詐騙的套路萬變不離其宗:竊取隱私,利用恐懼、貪慾、情緒價值編故事,冒充熟人或包裝自己獲取信任,圖窮匕見以錢為最終目的。
在 AI 時尚教皇出圈後,一位粉絲近 1300 萬的 X(原 Twitter)大 V 感嘆:「我以為教皇的羽絨服是真的,沒有多想。我不可能在技術的未來中倖存下來。」
對於中老年來説,眼見不等於真實、有圖未必是真相的規則更難被適應。我們可以告訴他們一些簡單、傳統但依然有效的辦法。
一類是小心駛得萬年船,不輕易相信互聯網的內容,不接騷擾電話,不點陌生鏈接,儘量不在互聯網過度暴露人臉、聲音、指紋等個人生物信息。
尤其接到可疑電話、短信時,不要盲目相信「一面之詞」,不管對方是誰,談到錢就多個心眼,通過多種方式驗證對方身份,如果對方説家人遭遇了某事,再次回撥家人電話確認情況是否屬實。
另一類是主動出擊有備無患,中老年有自己偏好的媒體,家人可以將政府部門微信公眾號等信源的反詐內容轉發給他們。如果條件允許,也可以向中老年展示如何使用 ChatGPT 等 AI 工具。
當然,對於不懂智能手機的老人,儘量在源頭解決問題,最好不要在微信、支付寶綁定銀行卡,只存少量的零錢。
AI 詐騙得逞只是最後的結果,防範 AI 騙局卻可以隨時開始。
技術應當服務於每一個人,引路人為後來者照亮數字世界的燈塔,探明水下未知的暗礁,我們才能共同走向一個技術不被恐懼而是被合理使用的未來。
資料來源:愛範兒(ifanr)
請按此登錄後留言。未成為會員? 立即註冊