AIGC究竟是打工人的福音,還是噩夢?

作者 | Otter 編輯 | 梓

來源:硅兔賽跑

AIGC究竟是打工人的福音,還是噩夢?

圖片來源:由無界版圖AI工具生成

過去很長一段時間,人類對AI的擔憂還停留在可控的範圍內,因為技術所限,AI更多地在替代人類從事重複性高、繁瑣枯燥的“dirty work”。

但現在,一切都不一樣了。各種AIGC應用,包括自動生成文字、圖片、視頻、代碼的“AI打工天團”相繼登場,文案、插畫師、視頻製作人,甚至程序員都陷入“被AI替代”的恐慌。

人類引以為傲的創造力也淪陷了嗎?

“抄”你不商量,版權問題是懸於AIGC之上的達摩克里斯之劍

AIGC是指利用人工智能技術來生成內容,它被認為是繼PGC、UGC之後的新型內容創作方式。

隨着生成擴散模型和多模態預訓練模型等技術的快速發展,在圖文生成效果上有了顯著進步,AI可以快速、靈活地生成不同模態的數據內容,極大地助力了2022年AIGC賽道的爆火。據Gartner預計,到2025年,AIGC將佔全球所有生成數據的10%。

硅谷眾多一線VC紛紛將目光瞄準AIGC初創公司,尤其是生成式AI藝術這一領域,今年有兩家獨角獸 StabilityJasper 均獲得了超過一億美元的融資,估值突破十億美元。AI繪畫的熱度還未散去,OpenAIChatGPT又掀起了AI問答的新熱潮。

但在11月份AI編程輔助工具GitHub Copilot被集體訴訟告上了法庭,AIGC的合法性也被推到了風口浪尖。訴訟原告聲稱微軟、GitHub和OpenAI侵犯了其版權,Copilot複製開源代碼時並沒有提供署名。雖然目前該案件尚處於早期階段,前景並不明晰,但可以肯定的是AI版權之戰的第一槍已經打響,該訴訟中的任何細節,都可能決定AIGC未來發展的走向。

AIGC究竟是打工人的福音,還是噩夢?

圖源:Analytics Insight

該訴訟案呼應了很多設計師、程序員等內容創作者的擔憂,也讓我們清醒的看到,無法確權和版權爭議將是AIGC公司未來發展的“掣肘”,是AIGC頭上的達摩克里斯之劍,正“懸”而未決。

藝術不是拼貼,但真正產生問題的是模型的訓練方法

很多藝術家對以 Stable Diffusion 和 Midjourney 為代表的AI藝術公司強烈譴責,表示通過海量素材投喂的AI並不具備藝術創作的能力,藝術不是拼貼,但其實現在的AI 模型不會複製和拼接現有藝術作品。相反,他們使用機器學習來學習概念,比如人的眼睛是什麼——通過自身的理解來創作作品。

真正產生問題的是AIGC算法模型的訓練方式,它們是通過識別和學習數據中的模式來工作,而這些程序用於生成代碼、文本、音樂和藝術的訓練數據本身是由人類創建的,大部分是從網絡上抓取而來的,其中一些內容是受到版權保護的。

AI作品的版權爭議,確實有些關鍵問題需要回答:

1.由AI生成的作品合法嗎?

訓練模型在某種程度上是“合法”的,但該模型的應用可能是侵權的。

目前AIGC大多數模型都是根據從網絡上獲取的大量內容進行訓練的,AI研究人員、初創企業和科技巨頭們之所以敢放手使用,原因就是使用這些內容(至少在美國)受到合理使用原則的保護。

不過,美國知識產權法的研究教授丹尼爾·熱爾維斯(Daniel Gervais)指出,決定這些內容“是否合理的使用”有兩個因素需要關注,即“使用的目的或性質是什麼,對市場的影響是什麼。” 即:是否“改造性”地使用,以及“是否會與原創者競爭並威脅其生計?”,而AIGC已經明顯觸及到了警戒線。因此訓練模型在某種程度上是“合法”的,但該模型的應用可能是侵權的。就類似於為了拍電影而印假鈔,但印出假鈔還真的用來買東西。

在判斷“是否合理的使用”中還有無數種其他情況,其中的輸入、目標和輸出有着具體的權衡傾向,所以最終“是否合法”的法律裁決還是要受到種種細節的影響。

2.由AI生成的作品,版權該歸屬於誰?

專利制度假定權益主體是人,機器創作的內容需要有自己的知識產權法和國際條約。

目前除了英國、愛爾蘭、新加坡等國家認可計算機程序可作為作者之外,多國版權法保護的都是自然人的權益。依據大陸法,我國著作權法實施條例第二條規定:“著作權法所稱作品是指文學、藝術和科學領域內具有獨創性並能以某種有形形式複製的智力成果”。AI沒有獨立人格,不具備我國著作權法規範中“作者”的主體資格,AI背後設計者、開發者、使用者才應該是AIGC版權的權屬者。但目前AI作品的法律性質不明,是否屬於著作權法上的作品仍存在爭議。目前,一般認為,AI軟件設計者已經從軟件版權中得到補償,AI作品版權主要在軟件所有者和使用者之間分配。

AIGC究竟是打工人的福音,還是噩夢?

圖源:Intepet

在美國,有大量投入的利用AIGC的內容可以認為是屬於二創者本身的,但目前具體的歸屬需要根據實際情況一一判斷,大量投入的量化並不明確。

而涉及到為藉助人工智能生成的作品授予版權,投入界定的標準將會是一個持續存在的問題。如果只是單純地輸入‘由梵高畫的貓’而生成的內容,是不足以在美國獲得版權的。計算機科學家喬治·弗朗切切利(Giorgio Franceschelli)撰寫了有關人工智能版權問題的文章,他表示,衡量人類輸入對案件判決“尤其正確”。因此,如果你嘗試使用不同的提示,並製作幾幅圖像,通過微調,並持續地進行更多的創意工程,相當高的智力投入,大概率將受到版權保護。

有條件地賦予使用人初始版權,可促進AIGC軟件使用和作品傳播,激勵更開放的表達和創作。

AIGC無序發展階段,有哪些解決方案在進行?

由於行業尚處於無序階段,各個國家也有不同的政策,AIGC的風險具有未知性和複雜性等特點,很多企業對於風險的預測、防範和應急處置能力均尚未完善。

在Shutterstock與OpenAI合作銷售基於算法生成的圖像時,其競爭對手Getty Images,則出於種種風險的考慮,明確表示禁止在該平台銷售生成式AI內容(如 DALL-E、Midjourney 和 Stable Diffusion生成的插圖。)

Adobe則選擇“有限制”地開放,公開表示只要符合特定標準,就允許在圖片庫Adobe Stock中上傳生成式 AI 藝術品進行售賣。但上傳前必須標記 AI 製作的內容,並且需要擁有其參考圖像或文本的商業版權。

同時,Adobe還為自身AI繪畫的付費服務從版權上提供了解決方案,官方表示如果遇到作品版權糾紛問題,他們將完全承擔買方的損失,由此讓付費使用AI繪畫功能的用戶不必產生版權方面的憂慮。

AIGC究竟是打工人的福音,還是噩夢?

圖源:TheVerge

12月09日,應對侵權問題 GitHub推出了 "Copilot for Business "計劃,每個用戶每月花費19美元,除獲得基礎的功能之外,還增加了許可證管理和組織的策略管理功能。GitHub表示,該產品具有行業領先的隱私性,"不會保留代碼片段,不會存儲或分享你的代碼,無論數據是來自公共資源庫、私人資源庫、非GitHub資源庫還是本地文件。

同時,很多公司和研究人員已經探索與創作者實現共贏的方法。

Shutterstock表示,它計劃設立一個基金,以補償那些使用他們作品來訓練算法的個人,而DeviantArt為網絡上共享的圖像創建了一個元數據標籤,警告AI禁止引用。而“The Stack”則是一個專門用於訓練人工智能的數據集,旨在專門避免侵犯版權的指控。它只包含最寬鬆開源許可證的代碼,並為開發人員提供了一種根據請求刪除數據的簡單方法。

我們可以看到,AIGC相關企業的版權意識已經有明顯的進步,很多平台都在試圖通過一種“負責任”的方式來解決AI作品存在着著作權歸屬不清的現實困境。

綜合來看,AIGC正在降低內容創作門檻、釋放創作能力,但對相關的法律法規和監管治理能力也提出了更高要求。就像在音樂盜版碟盛行的21世紀初,很多盜版軟件在當時完全是非法的,而今天,我們有Spotify和iTunes這樣的公司。

相信不遠的未來,AIGC行業也會出現更多合法合規的巨頭公司。

參考來源:

  • Gartner predicts rise of distributed data architectures, smarter AI and accelerated automation(siliconANGLE)
  • The lawsuit that could rewrite the rules of AI copyright(TheVerge)
  • Hartz: What is the role of AI in IP law? It depends.(TheIndianLawyer)
  • The scary truth about AI copyright is nobody knows what will happen next(TheVerge)
  • Intellectual Property Law for Artificial Intelligence(Indepat)
  • Getty Images bans AI-generated content over fears of legal challenges(TheVerge)
  • Adobe accepts AI-generated stock art, with limits(engadget)
  • Artificial intelligence is breaking patent law(nature)
  • 中華人民共和國著作權法實施條例

本文鏈接:https://www.8btc.com/article/6796924

轉載請註明文章出處

(0)
上一篇 2023-03-23 03:29
下一篇 2023-03-23 06:30

相关推荐