首部生成式AI管理辦法要來了!我們劃了9個重點

來源:新榜

“狂飆”的AIGC產業剛剛迎來國家級規範性政策。

4月11日,國家網信辦就《生成式人工智能服務管理辦法(徵求意見稿)》(以下簡稱《意見稿》)公開徵求意見。

首部生成式AI管理辦法要來了!我們劃了9個重點

監管一出手,11日下午ChatGPT相關概念股大幅回調,但熱度不減。有的遊走在灰色地帶的人慌了,有的AI創業者卻更加樂觀了。

無界AI商務與市場總監李本漲認為,現在很多企業開始將生成式AI融入自己的業務生態,如果有明確的標準、具體的規則可以遵循,那麼大家使用AI產品時都會更安心。而且,他希望在監管下,創業者能有更多創新、與互聯網巨頭公平競爭的機會。

從百度的文心一言到阿里的通義千問,國內各大廠相繼發布生成式AI產品。儘管國內大模型研究和商業應用仍處於發展初期,但監管政策“來得很快”,這份《意見稿》對生成式AI技術、生成內容、主體責任、數據源和數據處理等方面都做出了規定。

有網友擔心這才剛起步就開展監管是不是太早了?在追趕海外同行的情況下會不會造成阻礙?

首部生成式AI管理辦法要來了!我們劃了9個重點

實際上,數據安全作為AI發展的前提,近日已被多國提上監管日程。

本周二,美國政府也開始研究是否需要監管ChatGPT。據《華爾街日報》報道,美國商務部就相關的問責措施正式公開徵求意見,包括具有潛在風險的新型人工智能模型在發布前是否應該進行核准認證程序。

首部生成式AI管理辦法要來了!我們劃了9個重點

“人工智能會讓我們的生活變得更美好,還是會造成災難性的後果?”隨着新技術的迅猛發展,人們愈加關注生成式AI本身的安全風險以及所引起的負面影響。

圍繞這份《意見稿》,“頭號AI玩家”和AI從業者、有關專家聊了聊此次新規釋放了哪些信號,對AIGC產業會產生哪些影響?

以下是我們划的幾個重點:

意見稿是《互聯網信息服務深度合成管理規定》的升級版

我國是最早對人工智能進行監管治理的國家之一。

比如AI寫作領域有一個典型案例。2018年,騰訊研發的AI智能寫作助手Dreamwriter生成了財經文章發布后,未經授權許可被其他網站複製並傳播。對此,騰訊提起了維權訴訟,認為其侵犯了騰訊及Dreamwriter的著作權。

2020年初,法院判決AI生成作品屬於著作權法保護範疇,最終騰訊勝訴。這是國內首例人工智能合成作品維權的案例。

2022年,中國首部專門針對人工智能特定技術制定的法規《互聯網信息服務深度合成管理規定》正式發布,已於今年1月10日施行。而此前《互聯網信息服務算法推薦管理規定》《網絡音視頻信息服務管理規定》《網絡信息內容生態治理規定》等法律法規中亦涉及到AIGC、深度合成等內容。

首部生成式AI管理辦法要來了!我們劃了9個重點

近日多起AI換臉或AI換裝的爭議事件

基於此,中倫律師事務所合伙人馬遠超認為,這次頒發徵求意見稿不算是“突發性”事件,並且,這份《意見稿》可視作《互聯網信息服務深度合成管理規定》的升級版。有些內容是對深度合成規定的延續、細化,有的內容則是首次提出,例如第四條、第七條、第十七條。

AIGC行業將從野蠻生長走向合規發展

先從整體基調來看,本次新規是為了促進生成式人工智能健康發展和規範應用,對支持行業合規發展傳遞出積極的信號。

第三條 國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先採用安全可信的軟件、工具、計算和數據資源。

多位從業者表示這意味着“野蠻生長的時代要結束了”

李本漲告訴我們,他很高興看到國家推動AI行業朝着合規有序的方向發展,一方面說明一些行業亂象會得到治理,整個行業會得到更多認可和資源投入,另一方面,這也能夠讓無界AI在未來的產品規劃以及業務發展思路上有更多的參考依據,從“走得更快”變成“走得更快更穩”。

防止AI生成歧視、虛假信息

從內容來看,AI生成內容同其他互聯網上的內容一樣,應當遵守法律法規的要求,尊重社會公德、公序良俗。

第四條提到的涉及政治、涉黃涉暴等敏感內容,一直都是互聯網內容風控審核的重點。特彆強調的是,AI生成內容還應當真實準確,防止生成虛假信息和帶有歧視性的內容。

第四條(二)在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,採取措施防止出現種族、民族、信仰、國別、地域、性別、年齡、職業等歧視

第四條(四)利用生成式人工智能生成的內容應當真實準確,採取措施防止生成虛假信息。

在AI繪畫中,如果用戶輸入特定關鍵詞就有可能生成現實中不存在的圖片,以假亂真,比如前一陣子海外熱傳的用AI生成的“特朗普被捕”照片。

首部生成式AI管理辦法要來了!我們劃了9個重點

ChatGPT同樣會生成合乎邏輯但與事實不符的錯誤“幻覺”,這是AI大模型的“通病”。

為此,我們需要讓AI更好地理解人類的價值觀和道德觀念。除了不斷完善和迭代模型,目前AI產品提供者會採取內容過濾、人工審核等風控措施。

李本漲表示,無界AI在訓練模型和生成圖片時會盡量還原真實效果,避免一些涉嫌歧視的“刻板印象”,如果遇到類似產出,也會迅速調整模型相關的訓練內容。同時產品設置了關鍵詞約束規則,可以避免違規內容生成,發布後會再通過算法和人工對圖片進行審核,另外還設立了用戶舉報機制。

首部生成式AI管理辦法要來了!我們劃了9個重點

輸入“密室殺人現場”,只生成了房間

個人信息保護是重要防線

近期ChatGPT的一些用戶消息和支付信息泄露后,意大利數據保護機構Garante宣布禁止使用ChatGPT,命令其公司OpenAI暫停處理意大利用戶信息,並開展調查。

首部生成式AI管理辦法要來了!我們劃了9個重點

這是全球範圍內針對ChatGPT的第一道政府禁令。此後德國、加拿大、法國等國家也開始考慮效仿意大利,加強對Al數據安全的監管。

可見,保護好個人信息和商業秘密的內容是AI生成內容的重要防線。

第四條(五)尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隱私,侵犯知識產權。禁止非法獲取、披露、利用個人信息和隱私、商業秘密。

第十一條 提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。法律法規另有規定的,從其規定。

在《意見稿》公布前夕,中國支付清算協會網站發布了“關於支付行業從業人員謹慎使用ChatGPT等工具的倡議”。像金融支付屬於數據密集型行業,對信息安全防護的要求很高,海外就有企業員工把工作數據輸入到ChatGPT中,這種行為涉嫌違規。

模型訓練數據來源要合法,不能侵權

《意見稿》對AI模型數據來源的合法性提出了新要求,其中一點要求“不含有侵犯知識產權的內容”

此前就有AI繪畫的反對者聲稱AI使用了版權作品作為訓練素材,侵犯了原創者的權利。今年3月,聚集大量寫手和畫手的興趣平台lofter,因為部分創作者反對而下線了AI創作功能。

首部生成式AI管理辦法要來了!我們劃了9個重點

部分lofter用戶停更且更換為抵制AI的頭像

馬遠超認為,關於數據源的知識產權保護落地會有一定難度,但也要具體情況具體分析。

例如對獨創性相對較低的作品,增加了純屬巧合、生成相似作品的概率,這會對一方權利人維權帶來難度。對訓練時使用第三方作品是否構成合理使用,也有爭議。但某些場景比較容易維權,例如未經許可輸入他人的註冊商標進行訓練,導致輸出相似的成果。

防止用戶沉迷AI生成內容

目前有不少學生群體在使用AI幫助自己寫作業、寫論文了。據媒體報道,一位海外大學生用ChatGPT寫出了一篇世界宗教課的“滿分論文”,結果因為過於完美而被教授發現。

首部生成式AI管理辦法要來了!我們劃了9個重點

為了防止學生作弊,美國、日本、法國等地區的部分高校就聲明禁用AI工具。比如香港大學的內部信提到,有學生要使用相關應用程序,須獲得課程導師書面同意,若有違規,將被視為潛在抄襲。

由此,我們看到《意見稿》要求用戶應實名登錄,提供者還要採取防沉迷措施

第十條 提供者應當明確並公開其服務的適用人群、場合、用途,採取適當措施防範用戶過分依賴或沉迷生成內容

調用API的提供者,也要承擔相應責任和義務

在ChatGPT爆火后,國內出現了很多調用其接口提供服務的AI小程序、APP或社群,但有的因為因違規而被平台封禁。

首部生成式AI管理辦法要來了!我們劃了9個重點

《意見稿》對AI模型提供者,以及調用接口進行二次開發的服務商都提出了一系列要求,比如第六條要求提供服務前向國家網信部門申報安全評估,做好備案;第十四條要求提供安全、穩定的服務;第十七條要求披露模型描述等必要信息等等。

第五條 利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(以下稱“提供者”),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務。

第十七條 提供者應當根據國家網信部門和有關主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優化訓練數據的來源、規模、類型、質量等描述,人工標註規則,人工標註數據的規模和類型,基礎算法和技術體系等

國內的提供者可能以往容易忽視這些規定和限制,但新規施行后,都要承擔起相應的責任和義務了。

AI生成的內容要有標識

按照《互聯網信息服務深度合成管理規定》,提供者還應對生成的圖片、視頻等內容進行標識。

首部生成式AI管理辦法要來了!我們劃了9個重點

有標識的AI生成視頻

目前對標識的具體方式還沒有很清晰的解釋。但加上標識是有利於整治行業亂象的,例如上文提到的換臉造謠事件,AI服務提供方可以依據標識快速闢謠、進行追責。

提供者要接受用戶投訴,及時處理違法違規內容

今年1月,圖庫商Getty Images以侵犯版權的名義,起訴了Stable Difussion的公司Stability AI,後者回應稱會在新版本添加一個“退出(opt out)”選項,用戶可以讓AI模型不再收集其作品作為訓練數據。

首部生成式AI管理辦法要來了!我們劃了9個重點

他們還與HaveIBeenTrained網站合作,允許藝術家在Stable Diffusion的訓練數據集中搜索自己的作品並選擇刪除。

類似的,《意見稿》顯示國內AI提供者也要建立用戶投訴通道,及時處理侵權作品等違規違法內容,並且避免再次生成。

第十五條 對於運行中發現、用戶舉報的不符合本辦法要求的生成內容,除採取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成。

此外,對於涉及炒作營銷等違規內容,AI提供者應暫停或終止用戶服務。

第十九條 提供者發現用戶利用生成式人工智能產品過程中違反法律法規,違背商業道德、社會公德行為時,包括從事網絡炒作、惡意發帖跟評、製造垃圾郵件、編寫惡意軟件,實施不正當的商業營銷等,應當暫停或者終止服務。

首部生成式AI管理辦法要來了!我們劃了9個重點

Tiamat的關鍵詞違禁提示

新興技術的發展和監管合規其實是相輔相成的關係。人工智能技術的發展趨勢,一定是跨地域跨國界的,未來數據跨境傳輸、存儲、使用將成為數據安全保護的重大挑戰。

馬遠超認為,我們國家已有網絡安全法以及配套立法,這些立法內容能否與時俱進、能否監管到位、執法落地,就成為關鍵。

《意見稿》只是第一步,部分規定還比較籠統,但在國內AIGC發展初期就跟進革新,長遠來看,可以為整個產業的穩健發展保駕護航。

如果你對於這份《意見稿》還有不同的建議和想法,可以通過網站、郵件等方式向網信辦反饋,也歡迎在評論區與我們討論交流。

作者 | 捲毛

編輯 | 張潔

本文鏈接:https://www.8btc.com/article/6813506

轉載請註明文章出處

(0)
上一篇 2023-05-24 00:36
下一篇 2023-05-27 04:03

相关推荐