作者:夢晨
來源:量子位
原文標題:《GPT-5 不能停!吳恩達 LeCun 直播回懟馬斯克:汽車都還沒發明,要什麼安全帶》

圖片來源:由無界 AI工具生成
大模型研究不能停!
吳恩達和 LeCun 為了這事兒,甚至親自搞了場直播。畢竟再不出手,事態眼看着越來越嚴重了:
馬斯克等人叫停 GPT-5 研發的事態再次升級,已從千人聯名發展到超過 13500 人簽署。
兩人還直言,暫停 AI 研究就是反理性:
AI 研究暫停 6 個月,才是真正巨大的傷害。
應該受監管的是 AI 產品,而不是背後的研究。

此前暫停比 GPT-4 強大的 AI 試驗的呼籲,已得到深度學習三巨頭中的 Yoshua Bengio 簽名支持,Hinton 未簽名但表示“要比 6 個月更長才行”。
此次吳恩達與 LeCun 兩人,除了直播闡述各自的觀點外,還回應了網友關心的更多問題。
觀看了直播和視頻回放的網友們則表示,視頻出境比推特發言提供了更多的上下文背景和微妙的語氣差異。

AGI 逃出實驗室,需要擔心嗎?
LeCun 認為,現在人們對 AI 的擔憂和恐懼應分為兩類:
一、與未來有關的,AI 不受控制、逃離實驗室、甚至統治人類的猜測。
二、與現實有關的,AI 在公平、偏見上的缺陷和對社會經濟的衝擊。
對第一類,他認為未來 AI 不太可能還是 ChatGPT 式的語言模型,無法對不存在的事物做安全規範。
汽車還沒發明出來,該怎麼去設計安全帶呢?
對第二類擔憂,吳恩達和 LeCun 都表示監管有必要,但不能以犧牲研究和創新為代價。
吳恩達表示,AI 在教育、醫療等方面創造巨大價值,幫助了很多人。
暫停 AI 研究才會對這些人造成傷害,並減緩價值的創造。
LeCun 認為,“AI 逃跑”或者“AI 統治人類”這種末日論還讓人們對 AI 產生了不切實際的期待。
ChatGPT 給人帶來這種想法是因為它語言流利,但語言並不是智能的全部。
語言模型對現實世界的理解非常表面,儘管 GPT-4 是多模態的,但仍然沒有任何對現實的“經驗”,這就是為什麼它還是會一本正經地胡說八道。
而且這個問題,4 年前 LeCun 已經在《科學美國人》上與冷泉港實驗室神經科學家 Anthony Zador 一起撰文回應過了,標題就叫《不必害怕終結者》。
在直播節目中 LeCun 再次重申了文章的主要觀點。
統治的動機只出現在社會化物種中,如人類和其他動物,需要在競爭中生存、進化。
而我們完全可以把 AI 設計成非社會化物種,設計成非支配性的(non-dominant)、順從的(submissive)、或者遵守特定規則以符合人類整體的利益。

吳恩達則用生物科學史上的里程碑事件“阿希洛馬會議”來比較。
1975 年,DNA 重組技術剛剛興起,其安全性和有效性受到質疑。世界各國生物學家、律師和政府代表等召開會議,經過公開辯論,最終對暫緩或禁止一些試驗、提出科研行動指南等達成共識。
吳恩達認為,當年的情況與今天 AI 領域發生的事並不一樣,DNA 病毒逃出實驗室是一個現實的擔憂,而他沒有看到今天的 AI 有任何逃出實驗室的風險,至少要幾十年甚至幾百年才有可能。
在回答觀眾提問“什麼情況下你會同意暫停 AI 研究?”時,LeCun 也表示應該區分“潛在危害、真實危害”與“想像中的危害”,當真實危害出現時應該採取手段規範產品。
第一輛汽車並不安全,當時沒有安全帶、沒有好的剎車、也沒有紅綠燈,過去的科技都是逐漸變安全的,AI 也沒什麼特殊性。
而對於“如何看待 Yoshua Bengio 簽署了聯名?”這個問題,LeCun 表示他和 Bengio 一直是朋友,他認為 Bengio 擔心的點在於“公司為了盈利掌握科技本質上就是壞的”,但他自己不這麼看待,兩人觀點一致之處在於 AI 研究應該公開進行。

Bengio 最近也在個人網站詳細解釋了他為什麼會簽署。
隨着 ChatGPT 到來,商業競爭激烈了十多倍,風險在於各公司會急於開發巨大的 AI 系統,把過去十幾年間開放的透明的習慣拋在腦後。
直播結束后,吳恩達與 LeCun 兩人還在與網友做進一步交流。

對於“你為什麼不相信 AI 會逃出實驗室”,LeCun 表示讓 AI 在一個特定硬件平台上保持運行都很難了。

對於“AI 達到奇點發生突變、不受控制”的回應則是,在現實世界中每個進程都會有摩擦力,指數增長會迅速變成 Sigmoid 函數。

還有網友開玩笑說,語言模型經常被形容為“隨機吐出詞彙的鸚鵡”,但真實的鸚鵡危險多了,有喙、爪子和傷害人的意圖。

LeCun 補充道,澳大利亞鳳頭鸚鵡更兇狠,我呼籲對鳳頭鸚鵡實施 6 個月的管制。
One More Thing
對於影響力越來越大的 AI 暫停 6 個月提案,也有越來越多的人表達自己的觀點。
比爾蓋茨對路透社表示“我不認為讓一個特定的組織暫停就會解決這些問題。在一個全球性的行業中,暫停很難執行”。
據福布斯報道,谷歌前 CEO 埃里克施密特認為“監管部門大多數人對科技的理解還不足以正確規範其發展。另外如果在美國暫停 6 個月,只會讓別的國家受益。”
與此同時,AI 研究界另一股聲音的影響力也逐漸加大。
由非贏利組織 LAION-AI(Stable Diffusion 訓練數據提供者)發起的請願書也有超過 1400 人簽署。
這個項目呼籲建設公眾資助的國際化超級 AI 基礎設施,配備 10 萬最先進的 AI 加速芯片,確保創新和安全。
就相當於粒子物理學界的 CERN(歐洲核子研究組織)。
支持者包括 LSTM 之父 Jürgen Schmidhuber,HuggingFace 聯合創始人 Thomas Wolf 等知名研究者。

完整視頻回放:
https://www.YouTube.com/watch?v=BY9 KV8 uCtj4&t=33 s
AI 轉寫文本:
https://Gist.GitHub.com/simonw/b3 d48 d6 fcec247596 fa2 cca841 d3 fb7 a
參考鏈接:
[1] https://Twitter.com/AndrewYNg/status/1644418518056861696
[2] https://blogs.scientificamerican.com/observations/dont-fear-the-terminator/
—完—
本文鏈接:https://www.8btc.com/article/6812826
轉載請註明文章出處