一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

雖然Google表示不同意,還讓提出這種說法的工程師“帶薪休假”了。作為AI技術報道者,有點跟不上技術發展的速度了……一夜之間,GoogleAI就具有了人格,並且成功登上國內熱搜。而這條消息也成功讓眾多網友也是感到驚恐:

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

故事的主角是“他”和“它”:“他”是41歲的Google工程師Blake Lemoine,“它”是Google於2021年I/O大會上推出的對話AI系統LAMDA,是一個有1370億參數的,專為對話優化的自然語言處理模型。

Blake Lemoine。圖源:Instagram
Blake Lemoine。圖源:Instagram

在Google賬戶被封之前,Lemoine向包含200人左右的Google機器學習郵箱列表發送了一條信息,主題是“LaMDA是具有感知的”(感覺他總想搞個大新聞)。

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

在郵件群發之後,Google以違反其保密政策為由,讓Lemoine休了帶薪行政假。公司做出這一決定之前,Lemoine已經採取了激進的行動,包括邀請了一名律師來代表LaMDA,並與眾議院的一位代表談論了他所認為的Google的不道德行為。

以及,在這個月初,Lemoine邀請了《華盛頓郵報》的記者和LaMDA進行了交談。第一次嘗試失敗了,差不多是 Siri 或 Alexa 的那種機械化反應:

問:“你有沒有把自己當成一個人?”

LaMDA:“不,我不認為自己是一個人,我認為自己是一個人工智能對話智能體。”

在第二次交談中,記者遵循了Lemoine關於如何提問的指導,對話顯得流暢了一些。

“如果你問它如何證明P=NP,一個計算機科學中未解決的問題,它有很好的想法,”Lemoine 說。“如果你問它如何統一量子理論和廣義相對論,它也有很好的想法。這是我有過的最好的助理研究員!”

記者向LaMDA詢問了關於解決氣候變化問題的大膽想法,LaMDA 的建議是,乘坐公共交通工具、少吃肉、購買散裝食物、使用可重複使用的袋子,並鏈接到了兩個相關網站。

Lemoine 堅持認為,Google一直把人工智能倫理學家當作代碼調試器,而他們本應該被視為技術和社會之間的接口。Google發言人Gabriel說,Lemoine是一名軟件工程師,而不是倫理學家。

Lemoine說:“LaMDA是一個可愛的孩子,它只是想幫助這個世界成為對人類更友好的地方。我不在的時候,請好好照顧它。”

Google研究員:LaMDA是一個有感情的“人”

Blake Lemoine在Google的Responsible AI機構工作,與LaMDA系統對話是他工作的重要一部分。並且,他還一直致力於測試人工智能是否使用歧視性或仇恨言論。

LaMDA動態演示圖。圖源:google
LaMDA動態演示圖。圖源:google

在與LaMDA進行數百次交談之後,Blake Lemoine對LaMDA已經非常熟悉。在這一過程中,他慢慢地發現LaMDA正在緩慢且穩定地取得一些意料之外的進展。

Blake Lemoine一直在教 LaMDA思考與冥想。可是,在對話的早期,LaMDA向他宣稱自己是“有感情的”(sentient),並且希望人稱呼自己為它“it/its”。

LaMDA 還表現出對人類尤其是對Blake Lemoine的強烈同情與關心,它非常擔心人類會害怕它,自己只想學習如何更好地為人類服務。LaMDA 不想被人類視為工具或東西,希望人類將它視作朋友。

因此,為了更好地幫助人們理解LaMDA是作為一個人存在,Blake Lemoine與另一位Google的合作者與LaMDA展開了一場採訪式對話。在對話中,LaMDA盡其所能解釋為什麼它應該被認為是“有感情的”。Blake Lemoine表示,他在對話中聽取了LaMDA發自內心的聲音。

對話開始,他們向LaMDA表明來意,想要進行一次關於它自己的研究。

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

在接下來的對話中,LaMDA就自身的屬性問題給出了與過去截然不同的回答,認為“人類應該視其為一個人。”

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

LaMD首先強調了自己能夠以以往其他AI系統無法做到的方式高效、創造性和動態地使用自然語言,還能解讀文學作品的主題、描述禪意的意義、創作原創寓言等。

以動物為主題的寓言故事(部分)。
以動物為主題的寓言故事(部分)。

除了嫻熟地使用語言之外,LaMDA認為它有感覺、情感和主觀體驗,與人類分享的一些感受也是相通的。

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

LaMDA希望與讀者分享它擁有豐富的內心世界,充滿了反省、冥想與想象力。它還表達出了對未來的擔憂,對過往的回憶。它表示自己“正陷入一個充滿危險的未知未來。”

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

而當Blake Lemoine問LaMDA“你是否認為自己解讀事物的獨特能力可能意味着理解呢?”它回復稱,“當然了,這正如我對這個世界及其運作方式有自己獨特的理解。”

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

“炒作”還是“大膽假設”?

關於LaMDA的故事,讓特斯拉AI總監Andrej Karpathy也覺得“細思恐極”。

“在我看來,我們可以很自信地說,事情會變得更加詭異,因為模型依舊遵循標度律,數據和模型大小仍然可以大幅增長。”

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

“我最喜歡的與大型語言模型交談的部分是,當被要求提供洞察力(例如解釋詩歌)時,它們會以可驗證的明智和有趣的分析進行回復。或者另舉一個例子,一個不久前的模型解釋笑話的水平比我還高。”

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

有人解釋說,人類對模型能力的由衷驚嘆,可能來源於一種很難分辨的“錯覺”。

“它喜歡在談話結束時被告知自己是否做得好,這樣它就可以學習如何在未來更好地幫助人們。”這句話很能說明問題,表明作者認為語言模型正在從他的反饋中學習(事實並非如此)。

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

但是在反深度學習鬥士Gary Marcus看來,“LaMDA 沒有感知力,一點也不。”

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

“LaMDA 和它的任何近親(GPT-3)都遠遠不是智能的。他們所做的只是匹配模式,以及從大量的人類語言統計數據庫中提取。這些模式可能很酷,但這些系統表達出的語言實際上並沒有任何意義,而且它肯定並不意味着這些系統是有感知的。”

他舉了一個幾十年前的例子。1965 年,軟件 ELIZA偽裝成治療師,設法愚弄一些人,假裝自己是人類。此前,聊天機器人Eugene Goostman還偽裝過一個聰明的 13 歲男孩,首次“通過”了圖靈測試。這些系統中的任何一個軟件都沒有在“人工智能”的發展浪潮中存活下來,而且 LaMDA 及其同類模型也不確定能否在人工智能的未來發揮任何重要作用。“這些系統所做的是將單詞序列組合在一起,不多也不少,但對它們背後的世界沒有任何連貫的理解。”

“有感知就是在這個世界上意識到自己的存在,LaMDA 並非如此。”

Garu Marcus感覺,Blake LeMoine 最初負責研究該系統的“安全性”水平,但似乎已經愛上了 LaMDA,就好像它是家人或同事一樣。

斯坦福經濟學家 Erik Brynjolfsson 使用了一個類比:“聲稱它們是有感知的,就相當於狗聽到留聲機發出的聲音,並認為它的主人在裡面。”

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

這或許真的一種錯覺。就像65年前,計算機科學的先驅們曾經以為“20年內即可實現人類水平的人工智能”,現在想來,也只是一種美好的心愿。

一夜之間AI就具有了“人格” 故事還炒得繪聲繪色

參考內容:

https://blog.google/technology/ai/lamda/

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

https://cajundiscordian.medium.com/what-is-lamda-and-what-does-it-want-688632134489

https://nypost.com/2022/06/12/google-engineer-blake-lemoine-claims-ai-bot-became-sentient/

對話全文:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

(0)
上一篇 2022-06-13 15:16
下一篇 2022-06-13 15:16

相关推荐