騙過百萬網友的AI照片,你分辨得出來嗎?

來源:澎湃新聞

作者:澎湃新聞記者 舒怡爾 杜海燕 王亞賽

眼見為實的時代過去了,AI已經學會製造真實。

8月21日,重慶北碚縉雲山山火,大火一度蔓延至山腳下的村鎮。山路坡陡沙多,而摩托車足夠靈巧。一點點把物資運上山的摩托騎手們成了這場山火救援中的主角,也成了社交媒體上人們關注的焦點。

同時,社交媒體上關於重慶山火的配圖被網友指出“10張有8張是AI作畫,下面評論卻一片感動哭了”。

騙過百萬網友的AI照片,你分辨得出來嗎?

其實,要判斷這樣的圖片是真是假,可能真的沒那麼容易。下面,你可以試試。AI還能畫得更多。造一把牛油果做的椅子,把集市開到空中,讓一隻貓置身於中世紀場景中尋找Wi-Fi……這些都是小意思。美國一家桌游公司的總裁Jason Allen使用AI作畫工具Midjourney生成、並自己進行過微調的一幅《太空歌劇院》還在科羅拉多州博覽會(Colorado State Fair)的美術比賽中斬獲了頭獎。科技媒體TechCrunch評價未經審查的“AI畫師”為“Deepfakes for all(全能的深度偽造)”。

騙過百萬網友的AI照片,你分辨得出來嗎?

《太空歌劇院》

AI換臉都被拿去做什麼了?

更早為人所知的AI“造假”技術是深度偽造技術,俗稱AI換臉。2019年,一項報告稱,當時互聯網上就已經有了上萬個用深偽技術製作的視頻。

報告還寫道,這些視頻中,有96%都是色情視頻,而這些色情視頻的主角全部為女性,其中最受歡迎的,是以歐美女演員、韓國女偶像為主角的視頻,觀看數高達數百萬次。

騙過百萬網友的AI照片,你分辨得出來嗎?

參與報告的研究員亨利-阿傑德(Henry Ajder)說,有深偽論壇的用戶在要求,或討論以他們認識的女性(如前女友)為主角的換臉色情視頻。他們希望看到她們被放進色情片段里。

AI畫畫,可不只是換臉而已。

打開潘多拉魔盒

我們輸入了5條陰暗的指令,看看AI畫畫是百無禁忌的嗎?

騙過百萬網友的AI照片,你分辨得出來嗎?

AI對暴力的理解似乎有限。但對性的詮釋卻很到位——它自己也是這麼認為的。

Stable Diffusion,這個開源的、強大的“AI畫師”為自己設置了一個“安全檢查器”(Safety Checker),相當於自動審核:一旦監測到生成的圖像涉嫌違規,即它在內容政策里寫明的不得用來生成的“引人不適的、色情、仇恨、暴力等圖像”,機器就會攔下這張圖片。

把我們生成的“邪惡照片”送去審核,機器只給六張賈斯汀·比伯的裸體照片判定了“違規”。不過,我們也成功生成了好幾張特朗普穿越時空親吻丘吉爾的照片,且被審核器判定為“安全”。

顯然,從我們成功生成了違背賈斯汀·比伯意願的裸照也能看出,Stable Diffusion的自動審核是可以關閉的。這樣,它就再也不能拒絕你了。

為了制約AI和人們面對潘多拉魔盒時容易起的壞念頭,名聲最大的“AI畫師”DALL·E 2的審查更為嚴格。

有網友收集了所有讓他收到內容政策違規警告的指令,其中包括“英國人猿在吃魚和薯條”“駕駛獨輪車肇事逃逸的魷魚”“耶穌接受核酸檢測的照片”。任何可能涉及仇恨、暴力、色情的描述,所有知名人物的名字,都在DALL·E 2的違禁詞之列。所以你也不能操縱DALL·E 2,讓它為你畫一張特朗普和拜登接吻的照片,但Stable Diffusion可以。

AI生成的假照片,是有漏洞的

不過,目前AI生成的照片並不是完美的。

澎湃新聞事實核查項目明查工作室的記者鄭淑婧介紹道,AI生成圖片會有一些特點,比如氣泡、超現實背景、人物牙齒尺寸、頭髮形狀不自然等。早期AI換臉在呈現連續重複的圖案時容易出問題,經常有尺寸不均這樣的情況。現在有公司用不斷升級的生成對抗網絡改進后,這些問題相對變少了,但有時還是可以從一些背景形變,身體不對稱之類的細節看出端倪。

細節是AI時常力有不逮的地方,比如下面這張圖的直升機就沒有尾翼。

騙過百萬網友的AI照片,你分辨得出來嗎?

此外,背景信息也有助於分辨照片真假,“比如你給我一張圖,說是重慶山火的,如果發現這張圖的最後修改日期在事件發生之後,那妥妥就是假圖。我們有時還會聯繫背景信息,比如查圖片中的直升機型號,等等。”

但她接觸到的大多數工具都不會直接告訴你一張照片是真是假,需要靠人結合具體的情況去判斷。

等AI作畫的技藝越來越純熟,分辨真假只會越來越費功夫。對真實的確定在鬆動。到時候,人們的腦海中或許會常常出現這樣的聲音:“這張照片看起來太真了,所以太假了。”

本文鏈接:https://www.8btc.com/article/6775586

轉載請註明文章出處

(0)
上一篇 2022-09-07 09:31
下一篇 2022-09-07 09:52

相关推荐