IEEE Spectrum調查:AI 的 6 種最壞情況

對於人類社會,人工智能(AI)帶來的最大威脅是什麼?好萊塢科幻電影的“想象”提供了答案:它逐漸進化,獲得人類思考能力,然後變成霸主,奴役或毀滅人類。也有些觀點認為:在AI不知不覺殺死所有人之前,會存在許多危險情形。

2022年1月份,IEEE Spectrum訪談了多位技術專家,列舉出了當前6種AI危險事例,這些危險比科幻電影的描述“風平浪靜”,卻同樣具有威脅性,如果放任自由會有意想不到的後果。它們分別是:虛擬定義現實、AI軍備競賽、隱私透明、斯金納箱現象、AI偏見以及過度擔憂AI影響。

1
當虛擬定義現實……

當人類無法區分數字世界中的真實與虛假時,會發生什麼?

設想這樣一個場景:AI已經擁有完美生成的能力,利用先進的機器學習工具生成的圖像、視頻、音頻和文本已經“以假亂真”。但如果決策者陷入假信息旋渦,並做出決斷,不可避免會導致危機。當上升到國家高度,甚至會發動戰爭。喬治敦大學的研究員安德魯•羅恩(Andrew Lohn)認為:AI已經能夠產生大量以假亂真的信息。而且AI的特點是“隨着大量信息的生成,系統會不斷與真實信息進行對比,並且升級生成能力”。

AI信息生成技術也被稱為“DeepFake”,其帶來的惡作劇已經造成了某些影響。例如去年5月份,一些歐洲高級議員收到了一些“俄羅斯反對派人物”的視頻會議邀請,還煞有其事地討論了克里米亞問題之類的政治事務,結果發現在這些所謂的“俄羅斯反對派人物”都是別人用Deepfake換臉假冒的。這些受騙者包括拉脫維亞議會外交事務委員會主席Rihards Kols,以及來自愛沙尼亞和立陶宛的議員……

2
一場危險的逐底競賽

當談到AI和國家安全時,開發速度既是重點也是問題所在。由於AI系統能為用戶帶來速度優勢,所以最先開發軍事應用的國家將獲得戰略優勢。但是,一味追求速度可能會犧牲哪些設計原則呢?

首先,是“質量”問題。例如黑客會利用系統中微小的缺陷。喬治敦大學的海倫·托納(Helen Toner)表明:“從一個無傷大雅單點故障開始,然後所有通信失靈,人們恐慌,經濟活動陷入停滯;隨後持續的信息缺乏,再加上其他錯誤計算,可能導致局勢失控。”

另一方面,瑞典的斯德哥爾摩國際和平研究所高級研究員文森特•布拉南警告可能發生重大災難:“大國為了贏得先發制人的優勢而‘偷工減料’,如果一個國家將開發速度置於安全、測試或人為監督之上,那麼這將是一場危險的競逐。”例如,為了獲得速度優勢,國家安全領導人可能會傾向於授權指揮和控制決策,取消黑盒機器學習模型的人為監督。想象一下,如果自動發射導彈防禦系統處於無人監督的環境下會發生什麼?

3
隱私和自由意志的終結

使用數字技術的過程中產生了大量的電子數據,例如發送電子郵件,閱讀文本,下載,購買,發帖等等。當允許公司和政府訪問這些數據時,也意味着賦予工具監視和控制我們的權限。

隨着面部識別、生物識別、基因組數據分析等技術興起。安德魯•羅恩擔心:“我們有時候並沒有意識到大數據跟蹤和監視技術的不斷發展,會使我們進入了未知的危險領域。”數據一旦被收集和分析,其作用就會遠遠超出跟蹤和監視的功能,例如AI的預測性控制功能。今天,AI系統可以預測我們將購買哪些產品,我們將觀看哪些娛樂節目,以及我們將點擊哪些鏈接。當這些平台比我們自己更了解我們時,我們可能不會注意到這種微小的變化,但它剝奪了我們的自由意志並使我們受到外部力量的控制。

IEEE Spectrum調查:AI 的 6 種最壞情況

4
人類的斯金納箱實驗

曾經在20世紀70年代,有位叫做Walter Mischel的研究專家,在美國斯坦福大學附屬幼兒園基地內進行了著名的“棉花糖”實驗,又稱——延遲滿足”實驗。

而這個實驗的觀察數據,以及後期對這些孩子的追蹤觀察說明:

那些延遲滿足能力強的孩子,自我控制能力也就越強,可以在沒有外界監督的情況下,自主性的控制調節自身行為,在某一個任務完成程度上,要更勝一籌。

當前,具備延遲滿足能力孩子也會屈服於AI算法給出的誘惑。

進一步,社交媒體用戶已經成為實驗室中的老鼠,生活在斯金納盒子里。這些用戶沉迷於手機,被迫犧牲更多寶貴的時間和注意力在數字平台上。

海倫·托納認為:“算法經過優化,可使用戶儘可能長時間地‘留’在平台上。”著名作家馬爾科姆·默多克解釋道:“通過以喜歡,評論和關注的形式提供獎勵,算法會縮短我們大腦的工作方式,讓我們不自覺地去參與下一個。”

為了最大化廣告利潤,公司把我們的注意力從工作、家人、朋友,責任甚至愛好上轉移。更糟糕的是,如果推送內容質量下降,用戶會痛苦和暴躁。海倫·托納警告:“我們在平台上花費的時間越多,花在追求積極、高效和充實生活上的時間就越少。”

5
人工智能設計的“暴政”

把更多的日常生活交給人工智能機器是有問題的。即使出於最好的意圖,AI系統的設計,包括訓練數據和數學模型,也反映了編程人員的“狹隘”經驗和興趣。

當前,許多AI系統沒有考慮到不同人的不同經歷和特徵,AI模型的訓練往往基於有偏見的觀點和數據,無法充足考慮每個人的獨特需求來解決問題,因此此類系統在人類社會中缺乏一致性。甚至在AI大規模應用之前,對日常生活中常見物品的設計往往也是迎合了特定類型的人。例如,研究表明,汽車、包括手機在內的手持工具,甚至辦公室環境中的溫度設置都是為適合中等身材的男性而設置的,這使得包括女性在內的各種身材和體型的人處於劣勢,有時甚至會對他們生活造成危害。

當不屬於有偏見規範的個人被忽視、邊緣化和排斥時,AI就會變成卡夫卡式的守門人:拒絕提供客戶服務、工作、醫療等服務,這些設計決策的目的約束人們,而不是將他們從日常事務中解放出來。此外,這些選擇還可以將一些最惡劣的偏見轉化為種族主義和性別歧視,造成嚴重缺陷和有偏見的判決結果。

6
對人工智能的恐懼剝奪了人類的利益

構建機器智能的過程最終以數學為中心,正如默多克所言:“如果我們不注意的話,線性代數會做非常瘋狂而強大的事情。”但是,如果人們變得極度害怕AI,並且督促政府通過剝奪“AI便利”方式對其進行監管,那會怎樣呢?

畢竟AI已經幫助人類實現了重大科學進展,例如DeepMind的AlphaFold模型通過氨基酸序列精確預測蛋白質摺疊結構方面取得了重大突破,使科學家能夠識別98.5%的人類蛋白質的結構,這一里程碑將為生命科學的快速發展提供堅實的基礎。考慮到這些AI好處,政府為防範“AI作惡”而採取的下意識監管行動也可能適得其反,併產生它們自己意想不到的負面後果,在這些後果中,我們對這項巨大技術的威力感到如此恐懼,以至於我們拒絕利用它為全世界帶來實際好處。

參考鏈接

Via https://spectrum.ieee.org/ai-worst-case-scenarios

(0)
上一篇 2022-01-25 19:39
下一篇 2022-01-25 19:39

相关推荐