進擊的虛擬人:法律風險及防範

一、背景

隨着計算機軟硬件性能的日益提升,虛擬人的仿真程度日趨提高且使用成本日益低廉,越來越多的場景開始使用虛擬進行營銷、宣傳、演出。

比如新華社使用虛擬主播進行新聞播報和採訪;萬科給虛擬員工頒發了最佳新人獎;阿里使用虛擬網紅進行代言營銷;而洛天依這樣的虛擬演員更是頻頻登台各大晚會,擁有海量的粉絲;甚至明星們也紛紛推出自己的虛擬人形象,進行廣告宣傳、直播帶貨。

另外,利用虛幻引擎或是英偉達等公司的平台工具,製作、使用虛擬人的門檻進一步降低,讓即使是普通用戶也更容易打造自己的虛擬人形象,以虛擬主播的形式活躍於網絡。

在整個虛擬人行業高速發展的同時,法律風險也如影隨形。除了諸多傳統虛擬形象知識產權領域的法律問題依舊存在,虛擬人伴隨着的個人信息保護、科技倫理、深度合成技術的合規義務都需要虛擬人的運營方予以關注。

二、虛擬人的權利基礎:版權

版權是企業“掌控”虛擬人的權利基礎,因此也是最需要關注的法律問題之一。此前,媒體就報道過B站某簽約虛擬主播的形象涉嫌抄襲,后調查顯示,該虛擬主播的立繪面部的確與另一虛擬主播高度相似,相關立繪形象為個人約稿。畫師也發佈道歉聲明,承認在創作時“過度借鑒”另一虛擬形象的眼睛部分。

進擊的虛擬人:法律風險及防範

因此,企業在簽約或創作虛擬人時,應當盡最大努力確保沒有權利瑕疵,即虛擬人的形象不應當抄襲其他虛擬人的形象或真實人物的肖像權。

如果企業與虛擬人運營機構簽約或是委託創作,那麼需要簽約對象或畫師進行書面承諾作品原創,且不存在抄襲;如果企業自行創作虛擬人,則可以使用“凈室開發”的方案,該方案通常在軟件開發中用於降低侵權風險,即依據版權法“創意-表達”兩分法的保護思路,對虛擬人形象的創意團隊與設計進行分離,確保將開發過程中的版權風險降到最低。

三、虛擬人的數據權益與數據安全

虛擬人與其他傳統虛擬形象最大的區別在於虛擬人高度依賴網絡空間,以數據的形態存在,所以虛擬人的數據權益幾乎等同於自然人的人身權,是虛擬人賴以存在的法律基礎。

但遺憾的是,《民法典》中對數據權益的保護着墨不多,僅在第127條中規定“法律對數據、網絡虛擬財產的保護有規定的,依照其規定。”而《數據安全法》更多是從安全的角度對數據進行了原則性的規定:“任何組織、個人收集數據,應當採取合法、正當的方式,不得竊取或者以其他非法方式獲取數據。”(第32條)

因此法律目前對包括虛擬人在內的各類數據僅能依據法律原則進行保護,暫缺少具體的內容規定,這一直接後果是相關糾紛的解決需要高度依賴協議中的約定。比如某虛擬人製作軟件會在《用戶協議》中要求使用者將所有使用該軟件製作的虛擬人數據權益以知識產權的形式免費授權給軟件開發公司:

進擊的虛擬人:法律風險及防範

虛擬人的運營方作為數據處理者,需要履行的數據保護義務:1)建立健全全流程數據安全管理制度;2)組織開展數據安全教育培訓;3)採取相應的技術措施和其他必要措施,保障數據安全;4)在網絡安全等級保護制度的基礎上,履行數據安全保護義務。此外,在一些特殊的場景下,虛擬人的運營方也需要關注人格權保護的法律風險。

四、人格權:虛擬人背後的個人信息、聲音及其他

儘管虛擬人並不直接具有人格權,很多場景下虛擬人也不是由真人直接扮演,但在虛擬人背後仍可能由自然人提供動態捕捉的素材或是配音,依舊涉及個人信息與聲音保護的問題。

對於動作捕捉技術,在一些動作確實有可識別性,因為步態識別已經是一項較為成熟的技術,並且國家標準《信息安全技術 步態識別數據安全要求(徵求意見稿)》就曾公開徵求意見。如果是以特定動作作為虛擬人特色的,那麼需要特別關注相關動作捕捉人員的個人信息問題,獲得相應的授權。

聲音的授權更加複雜,如果是直接配音,那麼根據《民法典》自然人的聲音是參照肖像去進行保護,並且也需要考慮聲音具有可識別性的問題。那麼,在獲取授權時,需要同時獲得聲音權益與個人信息兩項不同權益的授權。

而在一些特殊的場景下,用虛擬人對現實或已故的自然人進行還原,則會面臨更複雜的問題,比如足球、籃球或其他運動遊戲中,對真實運動員的還原是重要賣點之一,但如何取得肖像授權卻是極為困難。比如EA的足球遊戲宣稱通過FIFPro(國際職業足球運動員聯合會)獲得了球員肖像權的授權,但仍舊會被質疑球員從未給FIFPro提供過授權。此外,遊戲中對於球員數據的模擬,也會是一個極具爭議的問題,畢竟沒有球員會希望見到自己在遊戲中的數值偏低。

進擊的虛擬人:法律風險及防範

因此,儘管虛擬人不具有人格權,但虛擬人背後自然人的各項人格權益仍然是不可忽視的一個問題,是用虛擬映射現實時無法迴避的一個問題。

五、虛擬人與科技倫理

使用虛擬人技術模擬已故或在世的知名人物或近親屬已經完全可以做到以假亂真,虛擬人在網絡空間的頻繁出現也會改變人與人之間的社會關係。換言之,虛擬人因為高度的擬真性,因此在很多場景下具有相當高的科技倫理風險。

2022年3月,中共中央辦公廳、國務院辦公廳正式印發《關於加強科技倫理治理的意見》,劃定了我國未來一段時間科技倫理治理工作的路線圖。而此前,2021年九部委發布的《關於加強互聯網信息服務算法綜合治理的指導意見》要求“企業應建立算法安全責任制度和科技倫理審查制度”。在《互聯網信息服務深度合成管理規定(徵求意見稿)》中也要求“深度合成服務提供者和深度合成服務使用者應當遵守法律法規,尊重社會公德和倫理,堅持正確政治方向、輿論導向、價值取向,促進深度合成服務向上向善。”

在數據安全角度,虛擬人作為一項使用了大量新技術的業務場景,應當關注科技倫理的合規要求。《數據安全法》第28條專門規定了:“開展數據處理活動以及研究開發數據新技術,應當有利於促進經濟社會發展,增進人民福祉,符合社會公德和倫理。”

虛擬人運營企業作為自身研發、運營過程中科技倫理審查的第一責任人,需要將科技倫理的合規嵌入到運營工作中的全流程中,通常需要:1)組建倫理委員會或專門的審核小組,總體負責虛擬人技術的倫理規範審查;2)制定虛擬人倫理審查管理制度,明確各部門的職責與注意事項;3)將倫理審查嵌入項目立項、對外合作、客戶服務、員工培訓等各個工作環節;4)等等。

在企業內部建立虛擬人倫理審查的機制,是為了更好地在糾紛發生時保護企業,確保虛擬人業務能夠“長命百歲”。

六、虛擬人使用深度合成技術的合規與思考

深度合成技術是虛擬人最為重要的技術基礎之一,正是因為深度合成技術的使用提升了虛擬人的擬真程度。

2022年1月,國家網信辦發布《互聯網信息服務深度合成管理規定(徵求意見稿)》,就深度合成技術的規制公開徵求意見,徵求意見稿將以下與虛擬人相關的深度學習的技術列為規制範圍:

進擊的虛擬人:法律風險及防範

在《互聯網信息服務深度合成管理規定(徵求意見稿)》中,專門要求在提供虛擬人相關的深度合成服務商時,應當使用顯著方式對深度合成信息內容進行標識,向社會公眾有效提示信息內容的合成情況(第14條)。

進擊的虛擬人:法律風險及防範

在當前版本的徵求意見稿中,我國規劃要求深度合成服務提供者承擔部分監管責任,對使用其技術或服務的深度合成服務使用者通過用戶協議、平台規則進行管理。而此種監管模式下,更多地是將深度合成服務使用者視為個人用戶(如個人使用換臉APP),貌似忽略了機構、企業使用虛擬人用於對外運營的場景。

這樣的監管模式可能會對虛擬人的運營單位與研發單位之間的法律關係造成直接影響,甚至會對虛擬人權益的歸屬、分配帶來衝擊。當然我們也需要等待該管理規定的正式版本,不排除正式施行版本比起當前版本進行較大修訂的可能性。

史宇航,法學博士,執業律師,註冊信息安全專業人員(CISP),註冊信息隱私管理人員(CIPM)

本文鏈接:https://www.8btc.com/article/6741000

轉載請註明文章出處

(0)
上一篇 2022-04-06 09:53
下一篇 2022-04-06 10:40

相关推荐