ChatGPT Plus 停售,留出防治 AI 風險空窗期

ChatGPT Plus 停售,留出防治 AI 風險空窗期

能體驗GPT-4模型的ChatGPT,因需求量太大而暫停了升級為Plus的功能,算力似乎爆表了。

這下,有錢都沒地兒充會員了,用戶們暫時需要回到“GPT-3.5時代”。這或許留給人類一個空窗期,可以好好思考一下前段時間上千名科技精英簽名呼籲暫停“比GPT-4更強的大模型實驗”的事兒,他們希望能提前應對AI的風險問題。

ChatGPT Plus 停售,留出防治 AI 風險空窗期

當前,人們肉眼可見的AI風險是造假,生成式AI大模型在人類的腦洞下,給教皇“穿上了巴黎世家的羽絨服”,讓馬斯克陷入了“和通用汽車女CEO約會”的緋聞中,還憑空捏造了“2001年俄勒岡州9.1級大地震”……

隨着AI生圖的效果越來越優秀,真實與虛假的界限正在模糊,無論光影、人物神態、年代質感,AI生成的圖幾乎能達到以假亂真的程度。當有人用AI 製造假新聞、假歷史時,我們該如何區分真偽,應對虛假造成的影響?

當GPT-4因算力爆表有限地向人類開放時,我們或許該冷靜的看看,當前的AI風險線構建到了哪種程度。

造假潮

86歲的羅馬教皇方濟各“身着束腰白色羽絨服”的圖片,在引發幾千萬次瀏覽后被AI生圖應用Midjourney澄清,這是利用該應用創建併發布在Reddit上的假照片。

特斯拉CEO 埃隆·馬斯克也親自下場闢謠自己的緋聞照,“我永遠都不會穿(圖片中)那件外套”。那張圖片里,他和通用汽車的CEO瑪麗·芭拉“被十指緊扣,街頭約會”。這張圖在幾小時內傳播了超過700萬次。

ChatGPT Plus 停售,留出防治 AI 風險空窗期

有關教皇(左)與馬斯克的假圖

知名模特 Chrissy Teigen 都被“時尚教皇”的圖片騙到了,“我以為教皇的羽絨服照片是真的,完全沒有多想,”她不禁感慨,“在高科技的未來我簡直活不下去。”

如果這兩張圖片尚處於名人“花邊”的範疇里,那麼接下來的AI造假圖帶來的影響就大得多了。

在Reddit論壇上,有網友分享了一組畫面和質感偏向20年前的“新聞圖片”。

圖片里,人們在機場里露出驚恐的表情;

ChatGPT Plus 停售,留出防治 AI 風險空窗期

街道上空的大橋坍塌,有車輛被壓在了橋下;

ChatGPT Plus 停售,留出防治 AI 風險空窗期

城市的廢墟里,救災人員憂慮地面對着鏡頭;

ChatGPT Plus 停售,留出防治 AI 風險空窗期

這組照片被描述為“2001年卡斯卡迪亞9.1級大地震,引發的海嘯摧毀了俄勒岡州”。但事實上,這場災難並不存在,圖片是網友用Midjourney生成的。

而這種“生造歷史”的圖片在Reddit論壇的Midjourney板塊中正在成為潮流。

網友Arctic_Chilean就偽造了“2012年7月超級太陽風暴造成大規模停電”的場景。真實歷史是,太陽在2012年7月23日確實產生過強烈的日冕物質拋射,但這次拋射與地球擦肩而過。造圖的網友假設“如果地球沒有這麼幸運”,那麼“全球電網和衛星等設施將遭受嚴重破壞”,“長達數月的大規模停電”就會發生,“北半球還會出現美麗的極光”。

ChatGPT Plus 停售,留出防治 AI 風險空窗期

網友製作的假“太陽風暴致停電”圖

Arctic_Chilean試圖將這些假設利用AI生圖應用變成可視化的場景,搞了20多張虛構的圖片。太陽風暴的圖片有明顯的渲染痕迹,工作人員監控城市電網的圖片很像電影場景,但NASA的發布會和機場的人群照,一般人看上去很難辨別真偽。

另一位Reddit網友kawaiilovecraft選擇了更遙遠的年代,生造了“1977年蘇聯藍色瘟疫事件”的組圖。照片中,田野和樹木呈現藍色,人類穿着白色防護服行動,俄羅斯風格的城市裡濃煙四起。

ChatGPT Plus 停售,留出防治 AI 風險空窗期

網友製作的假“蘇聯藍色瘟疫事件”組圖

或許是因為70年代蘇聯的照片庫存較少、無法為Midjourney提供足夠的訓練,這組“歷史照片”雖然做舊了,但在畫面上反倒呈現出一種詭異的不真實感。

製作“太陽風暴致停電”組圖的在Arctic_Chilean事後總結,Midjourney善於捕捉2012年的新聞畫面的風格,在生成天際線和地標上的極光照片方面也能達到逼真效果,但無法生成城市斷電的場景;而“蘇聯藍色瘟疫”圖組的評論里出現了為圖片效果“找補”的評論, “冷戰時期鐵幕的另一邊發生過很多不為人知的事,到現在也沒有解密。你的圖片提供了一個不錯的腦洞”。

我們不排除網友的動機是試驗Midjourney生圖到底有多逼真,如果這些圖片用於虛構的文學、影視等創作,至少觀眾還能在“知假”的底線上品評創作意義;但我們也不能排除這些假圖在不斷傳播的過程中“失假”,被當成真事兒貼進維基百科。

假信息恐慌

假圖文進入維基百科被當成真事兒,這可不是危言聳聽。

去年6月,一起發生在中文維基百科上的造價事件被揭露后,網友直呼“大無語”。

用戶 “折毛”編造了100多萬字圖文並茂的“古羅斯史”,3年都沒人發現。直到一位愛好俄羅斯歷史的網文作者“伊萬”查找背景資料時,對詞條“卡申銀礦”存疑,多方查證后發現“擁有300多年歷史的銀礦資源”根本不存在,順騰摸瓜,“伊萬”揭露了這個存在嚴重造假的“古羅斯史”。而這3年裡,“折毛”被不少用戶視為領域權威,胡編的歷史詞條甚至被評為“典範條目”或“優良條目”,還獲得了網站審查的“巡查豁免”。

“折毛”被封號,他也在網上為造假道了歉。

想象一下,假如這裡面還有生成類AI參與,把文本和圖片大數據真真假假地混雜一下,沒個專業的人士,假歷史可能更難被發現。如果無人矯正,一直這麼流傳下去,假的也沒準變成真的,作假者甚至會偽裝成權威。

人們常說“有圖有真相”,而AI終於讓“有圖也不見得是真相”成了現實,一些人也開始積累辨別AI圖片的技巧,比如看手指、看光影細節等。

但是,上個月發布的Midjourney V5 版本已經基本解決了畫不好手指的問題。一位正在使用該應用的畫師表示,新版本生成的圖片中仍有手部不自然的情況,但此前版本中的手指數量錯誤和形態扭曲等問題已經消失。

如果再不樹立“標註規則”,分辨真實與偽造或許會越來越難。而AI製圖的另一個問題是,製作圖片的門檻低到約等於沒有。

用戶只需要發出指令,各種 AI 生圖工具就可以迅速生成海量的逼真圖片。在全網各個AI圖片社區,人們討論最多的是,如何寫指令才能得到預期效果。當然,人們想得到理想的圖片還需要較為複雜的指令,但即便如此,AI製圖的門檻仍然比繪畫和PS小得多。

比如,火爆全網的“時裝教皇”就是一個普通人的娛樂之作。創作者巴勃羅·澤維爾(Pablo Xavier)是一名31歲的建築工人,在採訪中,他稱完全沒料這張圖會走紅。談到創作歷程,澤維爾說,靈感來自於“嗑藥時產生的幻覺”,“我忽然想生成一張教皇的圖,接着各種想法像潮水一樣湧來,巴黎世家的羽絨服、巴黎或羅馬的街道等等”。

生成虛假圖片的技術在互聯網上存在了很久,但一直都只在小範圍內引起討論。在知乎上就有這樣一個問題——有哪些匪夷所思的合影?網友紛紛貼出不為人知的名人合影,如特朗普和邁克爾·傑克遜,普京和里根,卓別林和梅蘭芳等等。

ChatGPT Plus 停售,留出防治 AI 風險空窗期

知乎上“匪夷所思的合影”最近出現AI質疑

過去幾年裡,評論區都在討論合影背後的故事,但最新的評論終於開始質疑照片的真假:“這是AI合成的不”。隨着AI能產出“量大管飽”的高質量假信息,這個問題終於被懟到所有人眼前,擔憂與恐懼已經出現:

“這很可怕,對吧。以後要怎麼判斷一張照片是真是假呢?”

“太可怕了,因為你發布的所有照片看上去都是可信的。如果沒人告訴我是假的,我會一直被愚弄。”

“真的難以相信這些圖像不是真的而是由midjourneyV5生成的……這讓我們困惑於一個充滿虛假信息的未來,我們應該問問自己是否真的想要這項技術。”

AI生成的信息大有泛濫之勢,人類世界做好分清真假的準備了嗎?

規則缺位

面對生成式大模型的“日更”進化速度,一些規則現在社交平台上出現了,但出台規則的主體顯然還遠遠不夠豐富。

今年2月,推特推出了在推文下方添加註釋的“社區筆記(CommunityNotes)”功能。有人認為,社區筆記或將能夠幫助推特打擊謠言,減少假消息傳播,其中就包括AI生成的圖片。此前廣為流傳的“特朗普被捕”、“教皇穿時裝”等AI假圖已被添加了說明。

不過,也有人覺得社區筆記功能雖然有機器算法加持,但仍需要由後台人工審核,標記效率遠遠比不上假圖生成的速度。一個例證是,最近的假圖都是在廣為流傳后才被標註。

還有網友指出,教皇、馬斯克、特朗普都是名人,他們的人氣決定了事關他們的虛假圖片更易被推特注意到,“如果普通人被假圖了,傳播範圍又不那麼廣,推特似乎做不了什麼。”畢竟,連中國網紅羅玉鳳多次闢謠沒有推特賬號后,以“鳳姐”為名的假賬號仍然存在且仍在吸粉。

除了推特,今年3月,TikTok也宣布所有顯示真實場景的deepfakes(深度偽造)都必須貼上“偽造”或“篡改”的標籤,還要求公眾人物的deepfakes不得用於政治或商業代言。不過,這條規則還沒有明確針對AI生成的圖片。

調查機構Bellingcat的創始人艾略特·希金斯(Eliot Higgins)認為,社交媒體平台應該開發能夠辨別 AI 生成圖像的新技術,並將這種技術融入自己的平台。不過考慮到“術業有專攻”,Midjourney等AI製圖軟件和社媒平台合作開發識別技術,或許是一種更可行的思路。

希金斯的建議正是一些AI專家們強調過的,各種AI大模型的開發公司應該進入到規則的建設隊伍中,光有傳播渠道的“限制”是不夠的,從源頭上就應該為假文、假圖打標籤。

此前,已經有AI公司在做相關開發,由於有太多人用AI 語音工具 ElevenLabs從事違法活動,比如偽造兒子的聲音向父母要錢這種,ElevenLabs引入了一系列技術層面的遏制措施,包括推出AI 檢測工具,用於驗證某個音頻剪輯是否用他們的技術生成。

可見,目前針對AI生成內容的識別或標記開發,仍處於應用開發方各自為陣的狀態,尚未形成達成共識的統一行規,也還沒有具有針對性的監管規則,顯然這是一個系統工程。

正如3月29日非營利組織未來生命研究所(Future of Life Institute)那封《暫停巨型AI實驗》的公開中所述,AI開發人員必須與政策制定者合作,大幅加快強大的AI管理制度的開發,其中的制度內容就包括了“幫助區分真實和合成數據的溯源、水印系統”的研發。

如今,生成式大模型的代表應用ChatGPT關閉了Plus付費功能,某種程度上也意味着GPT-4的使用受到了限制;而Midjourney也因計算資源有限而限制着免費用戶的使用量。這客觀上給建立AI規則留下了一個空窗期。

面對新技術的一體兩面,開發者、第三方組織、監管部門是時候共同面對挑戰了。

本文鏈接:https://www.8btc.com/article/6812314

轉載請註明文章出處

(0)
上一篇 2023-04-16 23:42
下一篇 2023-04-16 23:42

相关推荐