馬斯克“暫停AI訓練”被指是鬧劇,又有機構要求調查OpenAI

來源:澎湃新聞

記者 方曉

·專註於人工智能技術倫理的AI和數字政策中心要求美國聯邦貿易委員會調查OpenAI是否違反了消費者保護規則,認為其推出的AI文本生成工具“存在偏見、具有欺騙性,並且對公共安全構成風險”。

·OpenAI首席執行官山姆·奧特曼發布推文:“在颶風眼中非常平靜。”他宣布將在5月和6月展開一次全球之旅,與世界各地的用戶與開發者交流。

馬斯克“暫停AI訓練”被指是鬧劇,又有機構要求調查OpenAI

圖片來源:由無界 AI工具生成

包括特斯拉首席執行官埃隆·馬斯克在內的1748人簽署公開信,呼籲暫停訓練比GPT-4更強大的人工智能系統至少6個月。 這封信立即引起了軒然大波,並在科技界持續震蕩了兩天。

一些公開信的簽名者收回立場,一些知名簽名者被證明本人並沒有簽署,還有許多人工智能研究人員和專家反對這封信的建議。有媒體稱這是一場巨大的鬧劇。

與此同時,專註於人工智能技術倫理的AI和數字政策中心(CAIDP)要求美國聯邦貿易委員會(FTC)調查OpenAI是否違反了消費者保護規則,認為其推出的AI文本生成工具“存在偏見、具有欺騙性,並且對公共安全構成風險”。

對於這些爭議,OpenAI首席執行官山姆·奧特曼(Sam Altman)似乎比較淡定。他在3月30日發布推文:“在颶風眼中非常平靜。”稍早前,他在推特上說:“一個良好的AGI(通用人工智能)未來所需要的東西:1)調整超級智能的技術能力,2)大多數領先的AGI工作間的充分協調,3)一個有效的全球監管框架,包括民主治理。”

馬斯克“暫停AI訓練”被指是鬧劇,又有機構要求調查OpenAI

山姆·奧特曼:在颶風眼中非常平靜。

奧特曼還宣布將在5月和6月進行一次全球之旅,與OpenAI的用戶、開發者和對人工智能感興趣的人進行交流。他將訪問多倫多、里約熱內盧、拉各斯、馬德里、布魯塞爾、慕尼黑、倫敦、巴黎、特拉維夫、迪拜、新德里、新加坡、雅加達、首爾、東京和墨爾本。

“今年是1440年,天主教會要求暫停使用印刷機6個月”

這封引發爭議的公開信由非營利組織生命未來研究所(Future of Life Institute)撰寫,其使命是“減少強大技術帶來的全球災難性和存在性風險”。該機構是一些長期主義支持者的聚集地,長期主義是一種由硅谷科技精英推動的世俗宗教,宣揚尋求大量財富以引導人類解決在遙遠未來所面臨的問題。具體而言,該研究所專註於減輕人類長期的“生存”風險,如超級智能。表達過長期主義信念的馬斯克在2015年向該研究所捐贈了1000萬美元。

“只有當我們確信它們(人工智能系統)的影響是積極的並且風險是可控的時候,才應該開發強大的人工智能系統。”信中說,“所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統至少6個月。”“人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用於高級人工智能設計和開發的共享安全協議,並由獨立的外部專家進行嚴格審計和監督。”

“這並不意味着總體上暫停AI開發,只是緊急從奔向不可預測的大型黑盒模型的危險競賽中收回腳步。”信中澄清道,指的是微軟和谷歌等大型科技公司之間的AI軍備競賽,這些企業在過去幾個月快速發布了許多新的人工智能產品。

除了馬斯克以外,其他值得注意的簽名者包括蘋果公司聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)、Stability AI首席執行官埃馬德·莫斯塔克(Emad Mostaque)、圖靈獎得主約書亞·本希奧(Yoshua Bengio)和《人類簡史》作者兼歷史學家尤瓦爾·赫拉利(Yuval Harari)。開發GPT系列人工智能模型並將其商業化的OpenAI沒有員工簽署這封信。

生命未來研究所向VICE證實,所有簽署者都是“通過直接溝通獨立核實的”。儘管有這樣的驗證過程,但這封信一開始就有很多虛假的簽名者,包括冒充OpenAI首席執行官奧特曼、Meta公司首席人工智能科學家楊立昆(Yann LeCun)的人,後來研究所清理了名單。

這封信自公布以來,受到了許多人工智能研究人員包括簽名者的審視。紐約大學教授加里·馬庫斯(Gary Marcus)告訴路透社,“這封信並不完美,但精神是正確的。”Stability AI的首席執行官莫斯塔克在推特上說:“我不認為6個月的暫停是最好的主意,也不同意所有的東西,但那封信里有一些有趣的東西。”

楊立昆在推特上嘲諷:“今年是1440年,天主教會要求暫停使用印刷機和活字印刷術6個月。想象一下,如果普通人能夠接觸到書籍,會發生什麼?他們可以自己閱讀聖經,社會就會被摧毀。”

AI“大牛”、斯坦福大學教授吳恩達(Andrew Ng)在推特上說,呼籲在6個月內暫停讓人工智能取得超過GPT-4的進展是一個糟糕的想法。“我看到在教育、醫療、食品等方面有許多新的應用,這將幫助許多人。改進GPT-4將有所幫助。讓我們平衡人工智能正在創造的巨大價值與現實的風險。”他認為,除非政府介入,否則沒有現實的方法來實施暫停並阻止所有團隊擴大大型語言模型的規模。讓政府暫停他們不了解的新興技術是反競爭的,樹立了一個可怕的先例,是糟糕的創新政策。

“負責任的人工智能是重要的,人工智能也有風險。媒體普遍認為,人工智能公司正在瘋狂地輸送不安全的代碼,這不是真的。絕大多數(可悲的是,不是所有)人工智能團隊都認真對待負責任的人工智能和安全。”吳恩達寫道,“6個月的暫停期並不是一個實用的建議。為了促進人工智能的安全,圍繞透明度和審計的法規將更加實用,併產生更大的影響。在推進技術發展的同時,讓我們也對安全進行更多投資,而不是扼殺進步。”

一些人工智能專家批評說,這封信進一步推動了“人工智能炒作”周期,而不是列出具體行動。一些人認為,它促進了長期主義的觀點,這是一種被批評為有害和反民主的世界觀,因為它珍視超級富豪,允許在某些理由下採取道德上可疑的行動。

馬斯克與奧特曼曾對峙

由於馬斯克曾捐贈生命未來研究所,有分析人士懷疑,他之所以呼籲暫停訓練比GPT-4更強大的人工智能系統,是因為在這場競賽中落後而感到沮喪。

OpenAI成立於2015年,是一家非營利組織,馬斯克當時是該組織的公眾形象。2016年初《連線》的一篇文章附有一張照片,馬斯克雙臂交叉,給人的印象是準備徹底改變另一個行業。但馬斯克離開OpenAI背後也有故事。

馬斯克“暫停AI訓練”被指是鬧劇,又有機構要求調查OpenAI

2016年《連線》的一篇文章附有一張照片,馬斯克雙臂交叉,給人的印象是準備徹底改變AI行業。

據科技媒體Semafor披露,2018年奧特曼與馬斯克展開對峙,當時馬斯克對OpenAI的進展不滿意。幾家大型科技公司多年來一直在幕後開發人工智能工具,谷歌在2010年代末取得了重大進展。馬斯克擔心OpenAI落後於谷歌,他告訴奧特曼他想接管公司以加快發展。但奧特曼和OpenAI的董事會拒絕了馬斯克控制這家機構的想法。馬斯克帶着錢離開了OpenAI,這迫使OpenAI於2019年3月從非營利組織轉變為有“利潤上限”的營利組織,以成功籌集資金。

Paleofuture.com創始人、《福布斯》撰稿人馬特·諾瓦克(Matt Novak)認為,幾乎可以肯定的是,特斯拉正在研究強大的人工智能技術。該公司需要複雜的軟件來運行其所謂的“完全自動駕駛”功能,儘管它仍然不完美,並且一直是許多安全問題調查的對象。

馬斯克還一直在開發人形機器人Optimus,並在2022年展示了原型,但開發仍處於起步階段。人工智能技術對像Optimus這樣的機器人非常有用,但沒有跡象表明馬斯克或其工程師已經開發了任何接近OpenAI產品的東西。

“GPT-4跨越了傷害消費者的紅線”

3月30日,AI和數字政策中心向FTC提出投訴。與生命未來研究所的公開信類似,投訴書呼籲放慢生成式人工智能模型的發展,並實施更嚴格的政府監督。CAIDP主席馬克·羅騰伯格(Marc Rotenberg)是上述公開信的簽署人之一。

馬斯克“暫停AI訓練”被指是鬧劇,又有機構要求調查OpenAI

AI和數字政策中心向FTC投訴OpenAI。

CAIDP稱GPT-4模型存在潛在威脅,可以產生惡意代碼和高度定製的宣傳方式,有偏見的訓練數據可能導致在招聘等方面形成刻板印象或不公平的種族和性別偏好。它還指出,OpenAI的產品界面在隱私方面有重大缺陷,比如最近的一個漏洞將ChatGPT的對話歷史和可能的支付細節暴露給其他用戶。

CAIDP認為GPT-4跨越了傷害消費者的紅線,應該採取監管行動,讓OpenAI對違反FTC法案第5條的行為負責,該條禁止不公平和欺騙性的貿易行為。投訴書說: “OpenAI在充分了解這些風險的情況下向公眾發布了GPT-4,用於商業用途”,包括潛在的偏見和有害行為。它還將AI“幻覺”或生成式模型“一本正經地胡說八道”現象定義為一種欺騙形式。 “ChatGPT將宣傳欺騙性的商業聲明和廣告。”投訴書警告說,有可能將其納入FTC的權限範圍。

在投訴書中,CAIDP要求FTC停止GPT模型的任何進一步商業部署,並要求在未來推出任何模型之前對模型進行獨立評估。它還要求提供一種可公開訪問的報告工具,類似於允許消費者提出欺詐投訴的工具。

FTC已表示有興趣監管人工智能工具。近年來有人警告說,有偏見的AI系統可能會招致執法行動,在本周與司法部的聯合活動中,FTC主席利納·汗(Lina Khan) 表示,該機構將尋找大型科技公司試圖鎖定競爭的跡象。但是,如果FTC對OpenAI進行調查,將標誌着其行動的重大升級。

本文鏈接:https://www.8btc.com/article/6811808

轉載請註明文章出處

(0)
上一篇 2023-04-07 02:00
下一篇 2023-04-07 04:01

相关推荐