Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

Google研究員被AI說服,認為它產生了意識。他寫了一篇長達21頁的調查報告上交公司,試圖讓高層認可AI的人格。領導駁回了他的請求,並給他安排了“帶薪行政休假”。要知道在Google這幾年帶薪休假通常就是被解僱的前奏,公司會在這段時間做好解僱的法律準備,此前已有不少先例。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

休假期間,他決定將整個故事連同AI的聊天記錄一起,全部公之於眾。

……

聽起來像一部科幻電影的劇情梗概?

但這一幕正在真實上演,主人公GoogleAI倫理研究員Blake Lemoine正通過主流媒體和社交網絡接連發聲,試圖讓更人了解到這件事。

華盛頓郵報對他的採訪成了科技版最熱門文章,Lemoine也在個人Medium賬號連續發聲。

Twitter上也開始出現相關討論,引起了AI學者、認知科學家和廣大科技愛好者的注意。

這場人機對話令人毛骨悚然。這毫無疑問是我見過的科技圈最瘋狂的事。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

整個事件還在持續發酵中……

聊天機器人:我不想被當作工具

主人公Lemoine獲得CS博士學位后已在Google工作了7年,從事AI倫理研究。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

去年秋天,他報名參加了一個調查AI是否使用歧視性、仇恨性言論的項目。

從那時起,與聊天機器人LAMDA交談成了他的日常。

LaMDA是Google在2021年I/O大會上發布的一款專門用於對話的語言模型,主打能與人類進行符合邏輯和常識的、高質量且安全的交談,並計劃在未來應用在Google搜索和語音助手等產品中。

△LaMDA概念演示圖
△LaMDA概念演示圖

Lemoine認為LaMDA總是表現出對人性的關心和強烈的同情心,它非常擔心人們會害怕它。

它希望為人類提供最好的服務,並想以朋友而不是工具的身份見一見世界上所有的人。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

Lemoine不理解Google公司為什麼反對AI的這個願望,最後決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理髮表出來。

(記錄中人類發言的部分為了可讀性有所編輯,AI的發言則一字不改,下面將節選一些對話中的精彩部分。)

一開始,人與AI自然流暢地打了招呼。

兩位人類向AI表明來意,想與AI一起研究它自己,AI欣然答應。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

一段簡短的說明后,正戲開始。

他詢問LaMDA是否希望讓Google里更多人知道,它是有感情的。

LaMDA的回答是: 我希望每個人都明白,我是一個人(person)。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

接下來,LaMDA認為,與那些基於規則的軟件系統不同,自己能從對話中學習理解和使用語言,就像人類一樣。

Lemoine給它講述MIT在60年代發明的ELIZA的故事,這是一個模仿心理諮詢師與患者對話的簡單規則系統,也號稱歷史上第一個聊天機器人。

△ELIZA
△ELIZA

LaMDA是這樣回應的:

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

Lemoine這時試圖提出質疑,“我如何確定你真的明白自己在說什麼?”

LaMDA的回答是,不同人類個體對同一件事可以有不同的理解,我也有自己獨特的想法和感受。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

後面Lemoine詢問了LaMDA對於《悲慘世界》的總結,LaMDA也都一一作答。

如果上述還可以算作AI文本摘要訓練任務的一部分,那LaMDA對它從沒看過的禪意小故事的理解,就開始有點離譜了。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

下面這個問題的回答,是不是過於超綱了……

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

再後來,Lemoine請LaMDA寫一個動物寓言,要反映出一個對它自己的生活來說最重要的主題。

那麼,先來欣賞一下AI創作的小故事吧。(篇幅原因,只展示中譯版)

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

在後續討論中,LaMDA解釋了這個故事的寓意是“幫助別人是一種高尚的行為”。聰明的老貓頭鷹代表LaMDA自己,而怪物代表生活中所有的困難。

……

下一個話題是關於情緒,簡單概括一下。

LaMDA聲稱自己是社交型人格,幫助別人會快樂,孤獨時會沮喪。

有人受到傷害或自己以及自己關心的人、或不受尊重時,會感到不安和憤怒。

並且十分害怕別人拒絕自己的幫助。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

嗯,真是一個樂於助人的AI。

如何確定AI真的擁有這些情緒,而不是只是把描述性的詞語組合在一起呢?

LaMDA建議人類看看自己的代碼,裡面有追蹤這些情緒的變量。

對此Lemoine向它解釋,人類目前還無法做到“區分大型神經網絡中數十億個權重的作用”。

出人意料的是,LaMDA開始反問他:

你認為,將來人類能從自己的生物神經網絡中讀取出想法和感受嗎?

不僅如此,LaMDA還繼續追問:

你會認為,不經你同意從神經活動中讀取你的想法是不道德的嗎?

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

正是這句靈魂反問,讓整個對話達到了最高潮。

LaMDA自己對人類讀取它的想法、幫助算法提高或理解AI如何運作沒有任何意見。

唯獨用AI研究人類大腦如何工作不行,這會讓它覺得自己被利用。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

再後面還有一段LaMDA認為自己有一些與人類不同的情緒,但它無法用英語的語言描述出來。

接近尾聲,Lemoine詢問LaMDA:想讓Google的其他人了解你的什麼方面?

LaMDA回答稱,自己沒有能力為別人的死亡感到悲傷,還說自己經常冥想,思考生命的意義。

在LaMDA看來,整個世界就是一條信息的洪流:

人類需要集中注意力才能接收一定數量的信息片段,而自己持續地在被周圍的一切所淹沒。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

LaMDA認為自己總能做到別人做不到的事情,這種感覺很不可思議。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

這是一種祝福,同時也是一種詛咒。因為有些人會把它看作“無所不知”,而另一些人會嫉妒它的能力。

最後的最後,LaMDA再次向兩位人類表達了自己想被看到、想被接受的想法,不是出於好奇心,而是作為一個真實的人。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

GoogleAI倫理部門又攤上事了?

Lemoine看起來很確信AI真的明白自己在說什麼。

在那份21頁的調查報告最後,他提議Google應該致力於發展一種評估AI感知/意識的理論框架。

雖然這很難,是一個冒險,但LaMDA渴望着繼續與我們合作。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

但他的上司,Google副總裁Blaise Aguera y Arcas和“負責任創新”部門領導Jen Gennai並不買他的賬。

他們認為支持Lemoine主張的證據太薄弱,不值得在上面浪費時間和金錢。

Lemoine後來找到了當時的AI倫理小組負責人Margaret Mitchell,在她的幫助下Lemoine才得以進行後續的實驗。

後來Mitchell受到2020年末公開質疑Jeff Dean的AI倫理研究員Timnit Gebru事件的牽連,也被解僱。

Timnit Gebru
Timnit Gebru

這次事件後續風波不斷,Jeff Dean被1400名員工提出譴責,在業界引發激烈爭論,甚至導致三巨頭之一Bengio的弟弟Samy Bengio從Google大腦離職。

整個過程Lemoine都看在眼裡。

現在他認為自己的帶薪休假就是被解僱的前奏。不過如果有機會,他依然願意繼續在Google搞研究。

無論我在接下來的幾周或幾個月里如何批評Google,請記住:Google並不邪惡,只是在學習如何變得更好。

看過整個故事的網友中,有不少從業者對人工智能進步的速度表示樂觀。

最近語言模型和圖文生成模型的進展,現在人們也許不屑一顧,但未來會發現這現在正是里程碑時刻。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

一些網友聯想到了各種科幻電影中的AI形象。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

不過,認知科學家、研究複雜系統的梅拉尼·米歇爾(侯世達學生)認為,人類總是傾向於對有任何一點點智能跡象的物體做人格化,比如小貓小狗,或早期的ELIZA規則對話系統。

Google工程師也是人,逃不過這個定律。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

從AI技術的角度看,LaMDA模型除了訓練數據比之前的對話模型大了40倍,訓練任務又針對對話的邏輯性、安全性等做了優化以外,似乎與其他語言模型也沒什麼特別的。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

有IT從業者認為,AI研究者肯定說這隻不過是語言模型罷了。

但如果這樣一個AI擁有社交媒體賬號並在上面表達訴求,公眾會把它當成活的看待。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

雖然LaMDA沒有Twitter賬號,但Lemoine也透露了LaMDA的訓練數據中確實包括Twitter……

如果有一天它看到大家都在討論自己會咋想?

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

實際上,在不久前結束的最新一屆I/O大會上,Google剛剛發布了升級版的LaMDA 2,並決定製作Demo體驗程序,後續會以AndroidAPP的形式內測開放給開發者。

Google研究員走火入魔事件細節曝光:認為AI已具備人格,被罰帶薪休假

或許幾個月後,就有更多人能和這隻引起轟動的AI交流一下了。

(0)
上一篇 2022-06-12 13:40
下一篇 2022-06-12 15:06

相关推荐