撰文:Billy Perrigo
來源:《時代》周刊
編譯:巴比特

圖片來源:由無界 AI工具生成
一封包括馬斯克在內的數百名科技界大佬簽名的公開信,敦促全球領先的人工智能實驗室暫停訓練新的超強系統 6 個月,稱人工智能的最新進展給“社會和人類帶來了深刻的風險”。
這封信是在 OpenAI 的 GPT-4 公開發布僅兩周后發出的,GPT-4 是有史以來最強大的人工智能系統,使研究人員削減了他們對 AGI(或超越人類認知能力的人工通用智能)何時到來的預期。許多專家擔心,隨着人工智能軍備競賽的升溫,人類正在夢遊般地進入災難。
信中寫道:“高級人工智能可能代表着地球生命史上的一個深刻變化,應該以相應的謹慎和資源來規劃和管理。”“不幸的是,這種水平的規劃和管理並沒有發生,儘管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發和部署更強大的數字思維,沒有人——甚至包括它們的創造者——能夠理解、預測或可靠地控制。”
除了馬斯克之外,簽名名單上還有 900 多人(截止本文發布時已有 1126 位簽名者),其中包括蘋果公司聯合創始人 Steve Wozniak、Sapiens 作者 Yuval Noah Harari,以及一些負責機器學習方面多項突破的人工智能領域最傑出的學者們。截至發稿,沒有 OpenAI 的員工在信上簽名,儘管首席執行官 Sam Altman 的名字曾短暫出現在名單上,但隨後就消失了。此外,至少有四名谷歌員工,包括來自其子公司人工智能實驗室 DeepMind 的三名員工,Stability AI 的首席執行官 Emad Mostaque 和人類技術中心(Center for Humane Technology)的執行主任 Tristan Harris 也出現在名單上。《時代》周刊無法核實所有簽名是否真實。

“當代人工智能系統現在在一般任務上正變得具有人類競爭力,”信中寫道,該信目前在 Future of Life Institute 的網站上。“我們必須問自己:我們應該讓機器用宣傳和謊言淹沒我們的信息渠道嗎?”我們是否應該把所有的工作都自動化掉,包括那些令人滿意的工作?我們是否應該發展非人類思維,讓它們最終在數量上、智力上超過我們,淘汰我們並取代我們?我們是否應該冒着失去對我們文明的控制的風險?這種決定決不能委託給未經選舉的科技領袖”。
這封信呼籲所有人工智能實驗室同意利用擬議的六個月暫停時間繼續進行安全研究。信中說:“人工智能實驗室和獨立專家應利用這一暫停,共同制定和實施一套先進的人工智能設計和開發的共享安全協議,由獨立的外部專家進行嚴格的審計和監督。““這些協議應該確保遵守這些協議的系統是安全的,排除合理懷疑。”這封信背後的人指出,他們不是在呼籲暫停人工智能的發展,而是“從轉向具有新興能力的越來越大的不可預測的黑箱模型的危險競賽中退後一步”。
公開信的簽署者、《重啟人工智能》(Rebooting AI)一書的作者 Gary Marcus 告訴《時代》周刊,他簽上自己的名字是因為他覺得有責任站出來。他說:“短期和長期都存在嚴重的風險,在人類最需要人工智能責任的時候,企業似乎已經失去了方向。”“冒着如此大的風險,如此迅速地進入未知領域,似乎不是一個好辦法。如果(企業)不太重視這些風險,我們其他人就有必要大聲說出來。”
人工智能安全初創公司 SaferAI 的首席執行官 Simeon Campos 告訴《時代》周刊,他在這封信上簽字是因為,如果連這些系統的發明者都不知道它們是如何運作的,不知道它們有什麼能力,也不知道如何對它們的行為進行限制,那麼就不可能管理好系統的風險。“我們目前在做什麼?”Campos 說。”我們在全速競賽中把這類系統的能力提升到了前所未有的水平,對社會產生變革性影響。我們必須放慢這些系統的發展速度,讓社會適應並加速替代性的 AGI 架構,這些架構在設計上是安全的,而且是可以正式驗證的。“
公開信的結尾充滿了希望。“社會曾經暫停過對社會產生潛在災難性影響的其他技術。我們在這裡也可以這樣做。讓我們享受一個漫長的 AI 夏天,而不是毫無準備地匆忙進入秋天。”
本文鏈接:https://www.8btc.com/article/6811338
轉載請註明文章出處