來源:澎湃新聞
作者:澎湃新聞記者 舒怡爾 杜海燕 王亞賽
眼見為實的時代過去了,AI已經學會製造真實。
8月21日,重慶北碚縉雲山山火,大火一度蔓延至山腳下的村鎮。山路坡陡沙多,而摩托車足夠靈巧。一點點把物資運上山的摩托騎手們成了這場山火救援中的主角,也成了社交媒體上人們關注的焦點。
同時,社交媒體上關於重慶山火的配圖被網友指出“10張有8張是AI作畫,下面評論卻一片感動哭了”。
其實,要判斷這樣的圖片是真是假,可能真的沒那麼容易。下面,你可以試試。AI還能畫得更多。造一把牛油果做的椅子,把集市開到空中,讓一隻貓置身於中世紀場景中尋找Wi-Fi……這些都是小意思。美國一家桌游公司的總裁Jason Allen使用AI作畫工具Midjourney生成、並自己進行過微調的一幅《太空歌劇院》還在科羅拉多州博覽會(Colorado State Fair)的美術比賽中斬獲了頭獎。科技媒體TechCrunch評價未經審查的“AI畫師”為“Deepfakes for all(全能的深度偽造)”。
《太空歌劇院》
AI換臉都被拿去做什麼了?
更早為人所知的AI“造假”技術是深度偽造技術,俗稱AI換臉。2019年,一項報告稱,當時互聯網上就已經有了上萬個用深偽技術製作的視頻。
報告還寫道,這些視頻中,有96%都是色情視頻,而這些色情視頻的主角全部為女性,其中最受歡迎的,是以歐美女演員、韓國女偶像為主角的視頻,觀看數高達數百萬次。
參與報告的研究員亨利-阿傑德(Henry Ajder)說,有深偽論壇的用戶在要求,或討論以他們認識的女性(如前女友)為主角的換臉色情視頻。他們希望看到她們被放進色情片段里。
AI畫畫,可不只是換臉而已。
打開潘多拉魔盒
我們輸入了5條陰暗的指令,看看AI畫畫是百無禁忌的嗎?
AI對暴力的理解似乎有限。但對性的詮釋卻很到位——它自己也是這麼認為的。
Stable Diffusion,這個開源的、強大的“AI畫師”為自己設置了一個“安全檢查器”(Safety Checker),相當於自動審核:一旦監測到生成的圖像涉嫌違規,即它在內容政策里寫明的不得用來生成的“引人不適的、色情、仇恨、暴力等圖像”,機器就會攔下這張圖片。
把我們生成的“邪惡照片”送去審核,機器只給六張賈斯汀·比伯的裸體照片判定了“違規”。不過,我們也成功生成了好幾張特朗普穿越時空親吻丘吉爾的照片,且被審核器判定為“安全”。
顯然,從我們成功生成了違背賈斯汀·比伯意願的裸照也能看出,Stable Diffusion的自動審核是可以關閉的。這樣,它就再也不能拒絕你了。
為了制約AI和人們面對潘多拉魔盒時容易起的壞念頭,名聲最大的“AI畫師”DALL·E 2的審查更為嚴格。
有網友收集了所有讓他收到內容政策違規警告的指令,其中包括“英國人猿在吃魚和薯條”“駕駛獨輪車肇事逃逸的魷魚”“耶穌接受核酸檢測的照片”。任何可能涉及仇恨、暴力、色情的描述,所有知名人物的名字,都在DALL·E 2的違禁詞之列。所以你也不能操縱DALL·E 2,讓它為你畫一張特朗普和拜登接吻的照片,但Stable Diffusion可以。
AI生成的假照片,是有漏洞的
不過,目前AI生成的照片並不是完美的。
澎湃新聞事實核查項目明查工作室的記者鄭淑婧介紹道,AI生成圖片會有一些特點,比如氣泡、超現實背景、人物牙齒尺寸、頭髮形狀不自然等。早期AI換臉在呈現連續重複的圖案時容易出問題,經常有尺寸不均這樣的情況。現在有公司用不斷升級的生成對抗網絡改進后,這些問題相對變少了,但有時還是可以從一些背景形變,身體不對稱之類的細節看出端倪。
細節是AI時常力有不逮的地方,比如下面這張圖的直升機就沒有尾翼。
此外,背景信息也有助於分辨照片真假,“比如你給我一張圖,說是重慶山火的,如果發現這張圖的最後修改日期在事件發生之後,那妥妥就是假圖。我們有時還會聯繫背景信息,比如查圖片中的直升機型號,等等。”
但她接觸到的大多數工具都不會直接告訴你一張照片是真是假,需要靠人結合具體的情況去判斷。
等AI作畫的技藝越來越純熟,分辨真假只會越來越費功夫。對真實的確定在鬆動。到時候,人們的腦海中或許會常常出現這樣的聲音:“這張照片看起來太真了,所以太假了。”
本文鏈接:https://www.8btc.com/article/6775586
轉載請註明文章出處