虛擬人是坐不了牢,但企業可能替它坐牢

來源:虎嗅

作者:袁加息

虛擬人是坐不了牢,但企業可能替它坐牢

頭圖|《底特律:變人》遊戲截圖

AIGC大模型放飛了市場對虛擬人的想象。

給ChatGPT穿一個“皮套”,應該就是個很好用的虛擬人了。再想多一點,我可以拿自己所有的歷史數據,訓練出來一個我的虛擬分身,讓這個“我”做我的秘書。分佈式、定製化的AIGC,世界上每一個人都可以擁有一個虛擬分身。一些不重要的工作和社會交際,就讓分身們在虛擬空間裡面自動完成。

再往下設想,事情就會變得狂野。一個現成的擔憂來自電影《流浪地球》:人類把太多決策交給了人工智能,結果人工智能掐指一算,發現幹掉人類才是世界的最優解。

虛擬人是坐不了牢,但企業可能替它坐牢

MOSS計算髮現,保存人類文明的最優選擇是毀滅人類。| 圖片來源:《流浪地球2》劇照

我們還沒有為一個充斥着虛擬人的世界做好倫理上的準備。

這確實關係到虛擬人治理與合規的未來趨勢。最近,官方開始把關注的目光聚焦於AI的應用層面。一個重要的事件是本月底,歐盟議會計劃就《人工智能法》舉行投票。而前日信通院發起的《可信虛擬人生成內容管理系統技術要求》標準制定項目,並且正在籌備《可信虛擬人白皮書》,更是把目標直指虛擬人AIGC。

虛擬人如果獲得了更強大的智能內核,它應該遵循怎樣的社會責任邏輯?

治理虛擬人,本質上還是治理真人

一位遊戲從業者告訴虎嗅,“虛擬人有很多定義和應用場景,但歸根到底虛擬人可以分成兩種,有靈魂的和沒有靈魂的”。

目前而言,虛擬人的“靈魂”是很貴的。它一方面需要技術的解決方案,另一方面需要內容方面的持續投入。在C端消費市場,“靈魂”或曰“人格”是虛擬人IP的核心競爭力:讓虛擬人擁有一個好看的皮囊並不難,有趣的靈魂才能吸引粉絲持續地關注。這往往需要背後一整個內容的策劃與生產團隊,以及一些合格的“中之人”。部分虛擬偶像還需要用戶共創和用戶生成內容來起到充實人格的作用。所以它們的內核依然是PGC或UGC。此外,虛擬人要在表情、聲音、動作、交互上顯得有靈氣,需要相當大的技術投入。在這些成本的約束下,即便是大廠旗下的虛擬人也不可能在以上所有方面都擅長。

虛擬人成為怎樣一個“人”,這是個運營問題,而非技術問題——在目前以及可預見的將來都是如此。虛擬人的人格是由運營商、用戶、中之人賦予的,技術只是實現的手段。於是針對虛擬人的治理,主要還是管理虛擬人背後的真人。

目前國內的互聯網生態,已經開始處理這一類問題原初版本。比如在2020年,著名主持人何炅將一家技術公司告上法庭,原因是該公司的APP產品為用戶提供了定製聊天機器人的服務,於是有用戶用何炅的姓名和肖像“調教”出來一個聊天機器人。最終北京互聯網法院認定,被告公司的產品不僅侵犯了何炅的肖像權,而且還對原告的人格自由和人格尊嚴造成潛在負面影響,判決被告賠禮道歉、賠償損失。

聊天機器人也好,更複雜一些的AI應用也好,涉及到一些用現有邏輯就能解決的法律問題。監管和執法部門只需要把從前給傳統媒體和互聯網治理畫的“紅線”稍微再畫長一點,就能把AIGC、虛擬人也涵蓋進去。

2023年1月10日,網信辦、工信部、公安部聯合發布的《互聯網信息服務深度合成管理規定》(以下簡稱為《規定》)開始實施。該法規的關鍵詞“深度合成”(Deep Synthesis),指的是用深度學習或虛擬現實方法生成數字作品的技術,涵蓋AI生成的文字、圖像和聲音,也包含合成人聲、換臉、仿真空間等數字產品——這主要是AI領域在兩年前出圈的應用,但也能夠將AIGC納入合規範圍。

《規定》中的具體內容主要是從前監管要求的必要延伸。比如,傳統上的信息服務,需要保證產品的信息安全屬性,不侵犯他人的隱私、肖像權、人格權、知識產權;這些原則現在也按《規定》適用於深度合成的產品或者服務。類似地,《規定》還要求內容平台履行審核義務,保證平台上發布的深度合成作品符合法律法規、不危害國家安全和社會穩定。

從現有的新規和判例可以看到,雖然目前虛擬人在版權、人格權、內容安全等方面存在爭議,但這些爭議在多數情況下沒什麼好爭的。線問題上,沒有新鮮事。業內需要的只是一套明確的合規原則和責任認定,然後在各自的角色上繼續開展工作。

商湯科技是AI數字人技術的一個領軍企業,其發言人告訴虎嗅:“《規定》給出了比較符合當前業務邏輯的責任劃分,為‘技術支持者’、‘內容提供者’及其他行業主體提供了比較明確的合規預期,並且也有助於規範市場,提升消費者的信心。”

不要被科幻帶跑

擔憂虛擬人倫理風險的言論很有市場。但杞人憂天的角色不適合由政府監管來領銜。虛擬人的社會責任探索,還是需要由企業和市場更自發地完成。這裡面,企業社會責任有很大的發揮空間。

這裡有一個新鮮出爐的反面教材:歐盟的《人工智能法》。這部法律草擬於2021年,即將在3月底(也就是本文發稿的幾天後)拿到歐洲議會上投票。

但是,投不投票已經不重要了。因為ChatGPT的面世,已經顛覆了《人工智能法》的一部分初衷。比如,歐盟《人工智能法》提議禁止一些有悖人權的人工智能應用,比如某些人臉識別應用。但是像ChatGPT這種泛用途的生成式AI,很難用原有的立法思路去判定它的風險性。順着《人工智能法》的精神,歐盟可以權且把GPT判定為“高風險AI”。但這無異於固步自封。

其實即便在ChatGPT問世之前,歐洲議會的議員已經提出反對意見,指《人工智能法》對AI的應用管得太細,將阻礙歐盟的科技創新。

一位AI倫理的研究者告訴虎嗅,其實歐盟的立法從2018年生效的《通用數據保護條例》(GDPR)開始,就已經對AI技術的發展產生實質上的阻礙作用了。很多技術企業由於這部數據安全法的限制,而難以實現技術上的創新。

《人工智能法》又一次實踐了歐盟立法機構的行事風格:快速介入、保護人權、對技術保持充分的不信任。歐盟在AI技術還在急速演化的階段,就倉促立法規範,導致《人工智能法》陷入如今的尷尬局面。這說明,現階段的AI倫理方面的治理還是需要由企業來主導

雖然立法和行政部門不宜在AI治理領域介入過多,但是法律的保守立場是一貫的。

具體到虛擬人議題上,法律在未來可預見的時間裡,應該不會把AI和虛擬人當人看待。換句話說,再完善的人工智能,法律也不會認為它具備能動性和自主動機;AI和虛擬人牽涉的各種風險,最終都要追責到相關的個人或者組織頭上。

這看起來或許非常不浪漫。在各種科幻作品中的人工智能造物,乃至真實投入市場的虛擬偶像、虛擬網紅,都被營造出一種“有自己獨立的想法和人格、能自主決策”的樣子。但是從當下法學的主流態度來看,法律是不會把虛擬人當作責任主體的。虛擬人所犯的所有錯誤,都需要背後的技術供應商、內容供應商、運營商等實體來承擔。我們短時間內不能指望虛擬人會依法承擔任何責任,抑或享有任何經濟和政治權利。虛擬人只是作品,一如你早上煎的雞蛋也是作品。作品原本就不應和“坐牢”扯上關係。作品出了問題,只能是你的責任。

至此,我們可以把“如何給虛擬人一個合格的靈魂”這麼一個浪漫的問題,簡化成一個企業治理和社會責任問題。

負責任AI,一個企業治理話題

經過幾年的討論和積澱,人類對AI的一般倫理要求,通常總括為“負責任AI”(responsible AI)或“可信AI”(trustworthy AI)這兩個概念。兩個表述也可以套用到AI的各個子產物上。正如信通院要制定的那個標準,說的是“可信虛擬人內容生成”。

“負責任”或“可信”的總要求,又可以拆分成幾條具體的原則。不同科技公司有不同的拆法,但基本上大同小異。就拿行業先驅微軟為例,它把負責任AI歸納為6個原則:公平性、安全與可靠、隱私與數據安全、包容性、透明性、可問責性

還拿《流浪地球》舉例,電影中的MOSS人工智能通過常人無法理解的計算,得出“保存人類文明的最優選擇是毀滅人類”的結論。從可信AI的原則上講,MOSS首先是不透明的,是一個計算黑箱,很難看出她是哪根筋搭錯了,才得出那樣逆天的結論;同時也是不安全、不可靠、不可控的;最後她還是不可問責的,MOSS給作品中的人類社會造成種種問題,但人們卻拿她一點辦法沒有。

電影中的這種AI很能創造戲劇衝突,但現實中的AI倫理工作,與其假想出這樣一個逆天的AI,然後再感到茫然無措,不如從一開始就杜絕失控的苗頭。

產業鏈上比較大的技術供應商通常都設有專門的AI倫理部門,他們依據對可信AI的原則拆分,開發出促進公平、安全、透明等特性的技術解決方案,並將方案開源。比如下圖是IBM開源出來的一些促進AI公平性的算法。

虛擬人是坐不了牢,但企業可能替它坐牢

來源:IBM可信AI官網

但技術遠不是全部。正如信通院和京東探索研究院的《可信人工智能白皮書》所說,沒有完美的技術,關鍵在於如何使用技術

可信AI也是一套企業的工作方式,乃至是企業文化。微軟在公司的負責任AI辦公室網站上透露,團隊在設計和研發AI產品時都會圍繞前述的“負責任AI六原則”進行腦暴,分析可能的問題與疏漏,並且在運營中持續監測其表現。微軟也建議AI的運營使用者也這麼做。

單靠公司內部腦暴還是不夠的。正如OpenAI的首席技術官Mira Murati在採訪中表示,由於GPT是一個非常泛用的工具,開發者其實很難事先知道它的所有潛在影響力和缺陷。所以公司才將GPT的部分功能開放給公眾,以探索這項技術的潛在問題。

可信虛擬人有什麼特別的治理問題

具體到結合AIGC的虛擬人,會引發什麼特殊的治理問題嗎?目前業界存在一些社會責任思考,只不過這些思考的體系化和行業共識程度低一些。對此,商湯科技作為《可信虛擬人生成內容管理系統技術要求》的主要編製單位之一,向虎嗅透露了參與該項目的一些初衷。

關於可信虛擬人的特殊問題,商湯提到,當AIGC技術被用於虛擬人生成之後,尤其當擁有ChatGPT那樣的智能交互能力之後,虛擬人可以實現“超寫實”的效果。讓人真假難辨的虛擬人,可能會放大相關的風險,加重給當事人可能造成的危害。在這種情況下,除了現行的AIGC管理方式之外,負責任的企業可以同時利用一系列技術方案來加固虛擬人的可信力度。公司希望今年就這個問題推進行業內達成共識。

據商湯科技介紹,在虛擬現實與元宇宙產業聯盟(XRMA)中,成員企業一致認同“可信”問題是與產業發展同等重要的,技術推進與社會責任不可偏廢。此外另一個共識在於“虛擬人不與現實脫鉤”——AIGC不與真人的意願脫鉤,虛擬人的權屬不與現實約束脫節,且產業不與監管脫節。這些共識,預計會在“可信虛擬人AIGC”以及今後的各個行業標準中,得到進一步的闡發。

本文鏈接:https://www.8btc.com/article/6811202

轉載請註明文章出處

(0)
上一篇 2023-03-31 19:03
下一篇 2023-03-31 19:04

相关推荐