ChatGPT被指不靠譜遭封殺,人類面臨新問題:AIGC的事實核查

來源:澎湃新聞

記者 吳天一

ChatGPT被指不靠譜遭封殺,人類面臨新問題:AIGC的事實核查

圖片來源:由無界版圖AI工具生成

·Stack Overflow認為,ChatGPT很容易與用戶互動,且可以快速生成大量回答,這讓網站充斥着許多第一眼看起來是正確的答案,但在仔細檢查后就能發現其中的錯誤。

·信息爆炸時代,以人為媒介傳播的虛假信息尚且讓審核機制“頭疼”,很難想象當人工智能開始編造謊言,會帶來多大的挑戰。

隨着OpenAI公司的人工智能(AI)聊天機器人ChatGPT爆火,不少網友開始在社交媒體上分享ChatGPT的回復。但近日程序員版“知乎”,以對新人不友好著稱的編程問答網站Stack Overflow暫時禁止用戶分享ChatGPT生成的回復。

Stack Overflow表示,與社區協商后,將在未來一段時間內做出最終決定。該網站認為,ChatGPT很容易與用戶互動,且可以快速生成大量回答,這讓網站充斥着許多第一眼看起來是正確的答案,但在仔細檢查后就能發現其中的錯誤。

這就提出了一個全新的問題:如何對人工智能生成內容(AIGC)進行事實核查?正如知名人工智能科學家、紐約大學教授Gary Marcus在推特上所說:“如果Stack Overflow都不能跟上這些看似可信但不正確的信息,那麼社交媒體和搜索引擎呢?”

ChatGPT被指不靠譜遭封殺,人類面臨新問題:AIGC的事實核查

編程問答網站Stack Overflow。

ChatGPT產生的答案有很高的錯誤率

“主要問題是,雖然ChatGPT產生的答案有很高的錯誤率,但它們往往第一眼看起來可能是對的,而且使用人工智能導致答案非常容易生成。我們需要減少這些內容。目前在Stack Overflow上使用ChatGPT創建帖子的行為已經被禁止。如果用戶在此臨時規定發布后使用了ChatGPT,將會受到制裁。”Stack Overflow的運營人員表示。

ChatGPT作為OpenAI創建的實驗性聊天機器人,基於其大計算模型GPT-3.5運行,自發布后很快受到網絡用戶的熱烈歡迎。ChatGPT鼓勵人們提問,而且能提供令人印象深刻和流暢的結果:從創作詩歌、歌曲、電視劇本,到回答瑣事問題和編寫代碼。

雖然很多用戶對ChatGPT的功能印象深刻,但也有人注意到它容易產生看似合理但錯誤的回答。例如,讓機器人寫一個公眾人物的傳記,它很可能插入錯誤的人物生平。讓它為特定功能編寫程序,它也許會生成看起來可信但最終不正確的代碼。

像其他生成式大型語言模型一樣,ChatGPT通常在虛構事實。有些人稱之為“幻覺”或“隨機的鸚鵡學舌”,但這些模型的目的本來就是組織一段流利的文本,而不是一個事實。

一些人注意到,ChatGPT的與眾不同之處在於,它非常善於讓自己的“幻覺”聽起來十分合理。

例如,技術分析師Benedict Evans要求ChatGPT“為Benedict Evans寫一篇個人簡介”。他在推特上說,這個結果“看似合理,但幾乎完全不真實”。

普林斯頓大學計算機科學教授Arvind Narayanan也在推特上指出:“人們對使用ChatGPT學習感到興奮。這很好,但危險的是,除非你已經知道答案,否則你無法判斷它什麼時候是錯的。我嘗試了一些基本的信息安全問題。在大多數情況下,答案聽起來似乎有理,但實際上漏洞百出。”

大型語言模型的潛在風險

ChatGPT頻出的錯誤是人工智能文本生成模型(也稱為大型語言模型)的幾個眾所周知的缺點之一。這些系統通過分析從網上抓取的大量文本來訓練機器人。人工智能在這些數據中尋找統計規律,並利用這些規律來預測給定的句子中,接下來應該出現什麼單詞。然而,這意味着他們缺乏世界上許多系統運行的硬編碼規則,導致他們傾向於產生“流利的廢話”。

考慮到這些系統的巨大規模,不可能準確判斷它們的輸出有多少是錯誤的。但至少Stack Overflow已經認為,ChatGPT目前誤導用戶的風險太高了。

另一些人則把人工智能審核的問題交給ChatGPT本身,要求ChatGPT回答支持和反對它自己的論據。在一個回復中,ChatGPT自己也得出了與Stack Overflow完全相同的結論:“總的來說,是否允許在Stack Overflow上使用人工智能生成答案是一個複雜的決定,需要社區仔細考慮。”

人工智能專家們目前也在討論這些大型語言模型帶來的潛在威脅。Facebook母公司Meta的首席人工智能科學家楊立昆(Yann LeCun)認為,雖然大型語言模型肯定會產生錯誤信息,但只有當錯誤信息被廣泛傳播、閱讀和相信了才會產生傷害。也有人說,這些系統大規模且廉價生成文本的能力,勢必會使得虛假信息大量傳播。

對審核機制的挑戰

迄今為止,幾乎沒有證據表明大型語言模型有不好的影響。但Stack Overflow和其他一些專家相信,這些系統的龐大體量確實會帶來新的挑戰。該網站的運營人員在宣布禁用ChatGPT時也表達了同樣的觀點,他們指出:“人工智能生成的答案有數千個,而這些答案通常需要具有專業知識的人詳細閱讀,才能確定答案實際上是錯誤的,這些錯誤信息已經淹沒了我們以志願者為基礎的高質量問答社區。”

令人擔憂的是,這種模式可能會在其他平台上重複,大量人工智能內容會用看似合理但不正確的回答淹沒真實用戶的聲音。

然而,ChatGPT究竟如何在網絡的不同領域發揮作用,將取決於平台的性質及其審核功能。大量錯誤回答產生的問題能否在未來通過過濾器等工具得到緩解還有待觀察。

一位曾經在《GQ》和《滾石》等出版物工作的事實核查員表示,紙質新聞時代,每個事實都必須包含權威的一手或二手資料來源,但現在已經很少有出版物有事實核查員,這就把責任推給了記者和編輯。信息爆炸時代,以人為媒介傳播的虛假信息尚且讓審核機制“頭疼”,很難想象當人工智能開始編造謊言,會帶來多大的挑戰。

有不少專家強烈反對ChatGPT有朝一日可能取代傳統搜索引擎的想法。如果Stack Overflow這種專業網站的審核速度都無法跟上人工智能帶來的錯誤信息,那麼很難想象其他網站能夠管理鋪天蓋地的AI“廢話”。

當一個錯誤信息像閃電一樣在社交媒體上傳播時,搜索引擎需要提供可證實的信息,而不是一段看似可信的內容。

華盛頓大學語言學教授Emily Bender最近再次強調大型語言模型“不適合”搜索:“因為它們被設計成只會胡編亂造,也沒有任何信息素養。”

OpenAI在其發布演示的博客中也明確指出了這一弱點,並解釋說修復它是“具有挑戰性的”。OpenAI表示:“在人工智能的強化學習訓練中,目前尚沒有真相來源;訓練模型更加謹慎,使其能夠拒絕回答問題;監督訓練會誤導模型,因為理想的答案取決於模型知道什麼,而不是人類演示者知道什麼。”

所以很明顯,OpenAI非常清楚ChatGPT在看似無所不知的表面下充滿了“廢話”,因為他們從來沒有想過這項技術會是提供真相的來源。

不過,最重要的問題是:人類用戶會接受這些似是而非的回答嗎?

在這個輿論時常反轉的時代,可能真的會。因為只要一個消息聽起來合理,許多人就會認為這是正確的。

本文鏈接:https://www.8btc.com/article/6792042

轉載請註明文章出處

(0)
上一篇 2023-03-22 04:19
下一篇 2023-03-22 04:19

相关推荐