再談AIGC的關鍵問題:版權歸誰、官司何解、新秩序何來
都在說2023是生成式AI的元年,但一年過去了,AIGC的一些關鍵性問題,還是沒有得到更好的解決。比如版權歸屬、糾紛歸屬和生態演化等等。這篇文章,作者通過與法律界人士對話,希望能理清楚這些比較頭疼的問題。
龍年春節,科技圈最大的新聞非Sora莫屬。
OpenAI發布的Sora在視頻生成上的表現之驚艷,已經不用再多贅述。我們只需要知道,Sora標志著AIGC再次突破天花板。它不只是科技圈的事,還會影響廣大視頻、影視、廣告領域的從業者。正如AI作圖此前對畫師群體的沖擊那樣。
技術已經帶領我們來到了一個“新世界”。到了這里,舊時的規則會逐漸失效,同時也有許多模糊地帶等待人們劃清邊界。例如,我用某個知名導演、攝影師的風格來生成視頻,那么這段視頻的版權到底該歸屬誰?是我?還是AIGC平臺?又或者那位導演也該占一份?
各行各業也在面臨著“舊有模式受沖擊”的問題——紐約時報起訴OpenAI和微軟,狀告兩者涉嫌未經授權使用紐約時報數百萬篇文章訓練人工智能;版權圖庫網站Getty Images指出Stability AI從其圖庫中復制了超過1200萬張圖及相關的標題和元數據;好萊塢編劇罷工,要求限制制片方在編劇創作過程中對AI技術的使用。這些都是技術變革引發的反彈。
然而,工業革命、互聯網浪潮帶來的改變已經充分說明,技術變革是不可逆的。相比粗暴的“抵制”,劃分權責、制定新規則才是當務之急。圍繞以下三個關鍵問題,「深響」與相關法律界人士進行了探討:
- 用戶使用AIGC平臺制作內容,版權歸誰?
- 版權問題的糾紛焦點究竟在哪里?
- 利益相關方如何應對變化?行業生態會如何演變?
一、版權歸誰,得具體情況具體分析
AIGC帶來了許多便利,即使用戶不是專業畫手或攝像,只要掌握一定的提示詞技術,也能“站在巨人的肩膀上”做出專業內容。這帶來的問題是:AI生成的內容版權應該歸屬誰?如果出現糾紛,誰來承擔責任?
類似的問題已有法律案例。中國“AI文生圖第一案”的判決書顯示,原告李昀鍇出于興趣學習AI繪畫,他從2022年11月開始在社交媒體上發布由AI生成的圖片。一些自媒體賬號未經允許李昀鍇使用相關圖片,且沒有署名來源。李昀鍇將其中一個自媒體號主告上法庭。
作為律師,李昀鍇希望通過司法判決來探索AIGC的邊界:用戶用AI創作的內容是不是“作品”,版權是否歸屬用戶?
判決書認為,李昀鍇使用開源模型Stable Diffusion生成的圖片屬于美術作品,且李昀鍇為著作權人,被告未經授權使用該圖片、去除圖片水印的行為,侵害李昀鍇信息網絡傳播權和署名權,須向其賠償500元并發布道歉聲明。
需要注意的是,這樣的判例不能直接套用到所有的情況上。金誠同達律師事務所合伙人米新磊告訴「深響」,著作權歸屬的判決依據是在整個AI生成內容的過程中,人類智力和獨創性體現的占比多少,使用者訓練地越精準,可選擇性越多,最終取得生成內容著作權的可能性越大。
另一種容易出現侵權爭議的情況是,用戶用AI生成了某種風格化的圖片(比如:用宮崎駿風格的模型畫一只貓)?!干铐憽箯姆山缛耸刻幜私獾?,著作權法不保護風格,在很多法院判罰中,對風格的模仿并不一定被認為是侵權,所以用戶“用宮崎駿風格的模型畫一只貓”一般不構成侵權。
但是,如果用戶是直接“喂給”AI一張宮崎駿的圖,告訴AI就按這個風格來生成圖片,這就構成了侵權。因為用戶并未被授權使用宮崎駿的作品。
還有一種版權歸屬問題,出現在AIGC平臺和用戶之間。但這種沖突更多只存在于“理論上”,實際操作中,相比版權歸屬問題,AIGC平臺方對“把用戶規模做大,賺更多會員費”更感興趣。為此,他們甚至愿意為其用戶承擔潛在的訴訟費用。
微軟、谷歌、OpenAI等多家公司都承諾,若用戶因使用其提供的AIGC產品或服務而面臨第三方侵權索賠,公司同意承擔相應的賠償責任。以微軟為例,2023年9月7日,微軟發布了Copilot版權承諾書,表示若商業用戶因使用Copilot或其生成輸出而遭第三方基于版權的侵權訴訟,微軟將同意為該用戶辯護并支付因案件而產生的賠償金。但前提是該用戶已使用產品中內置的防護裝置和內容過濾器,并遵守了其他條款。
平臺通過用戶協議明確權利歸屬和責任劃分,是降低潛在沖突的一種方式。OpenAI則在服務條款中明確其賠償條款僅適用于付費用戶,包括API用戶和ChatGPT企業用戶,而其余數億的免費用戶,則不會受到賠償條款的保護。
二、爭議焦點在平臺和數據源之間
在版權爭議問題里,用戶側的行為往往會受到更多關注,但更核心的沖突,其實發生在AIGC平臺和數據源之間。
我們都知道,AIGC的實現需要經過三個階段:一、數據采集;二、模型訓練;三、關鍵詞輸入。數據采集和模型訓練是平臺開發者的前置步驟,內容輸入則由使用者來完成。
沒有足夠規模的數據去訓練和調試模型,就很難搭建一個足夠智能的生成式人工智能平臺。米新磊告訴深響,“對于AICG而言,采集大量數據并利用數據來訓練和調試模型,是最核心的階段。”
在理想情況下,AI模型應當和擁有數據資源的網站簽訂授權協議,支付給對方足夠費用,然后用對方提供的接口去抓取數據。但事實是,當前的AI技術發展迅速,其數據來源卻往往處于“黑箱”狀態,難以判斷其合法性。
法律糾紛由此而生。像Getty Images這樣的圖庫,收入來源于版權圖片的銷售。如果AIGC平臺直接抓取數據,就威脅到了版權公司的利益。同樣的,新聞媒體、圖書出版商、影視公司的商業模式,也都建立在版權之上。對于企業而言,有效管理和利用版權資源能夠促進內容變現,提升核心競爭力。但AIGC技術的出現,打破了傳統版權模式的框架。
問題的核心在于,各方要想辦法確保AI模型訓練數據的來源合法性,避免侵犯版權或個人隱私。這有待于數據安全法、個人信息保護法、反不正當競爭法等法律的完善。
在一切得到厘清之前,從業者仍有可能因為平臺數據源的不確定性惹到麻煩。
例如,在商業應用中,有的品牌會嘗試利用自己的素材訓練專有模型。原則上,只要品牌訓練模型的素材版權都屬于自身所有,那這個專有模型產出的內容就不會形成侵權。但在實操中,專有模型是在大模型的基礎上訓練得來的,而大模型的數據來源是否合規,外界很難知曉。
這些問題的解決都有待法律的完善。而在這個過程中,數據源和AIGC平臺將持續博弈,行業新規則也會隨之產生。
三、訴訟不是終局,合作才是
目前,我們已經看到版權模式受益方和AIGC平臺間的沖突,相關訴訟會不斷出現。但與其說沖突是新舊勢力間的激烈交鋒,不如說它是通向行業新秩序必經之路。
AIGC浪潮洶涌,傳統巨頭和科技新貴打官司,更多是想為自身爭取一個“定義未來行規”的談判席位。米新磊認為,隨著AIGC的發展,產業內各環節會形成新的生態,訴訟會促成新的合作。整體來看,AIGC行業新的規則和合作邊界會在發展中明確。
目前,國內AIGC領域的發展還處于起步階段,許多問題沒有完全顯現。相關法律糾紛仍停留在公益性階段。相比之下,由于美國存在更多相對成熟的AIGC產品,產業生態內的博弈得到了更多呈現。
在米新磊看來,Getty Images和《紐約時報》的訴訟可能是“以打促談”,目的不完全在于法庭上的勝負,而是通過法律行動促使雙方就版權使用、數據授權等問題達成協議,促進平臺和內容生產者之間的合作。
這種做法在內容產業中并不少見。一個典型例子就是國內的短視頻平臺與長視頻平臺之間的博弈,與其說長視頻平臺是要禁止抖音、B站等平臺粉絲的“二創”行為,不如說是想與短視頻平臺之間建立合作關系。
在關于AIGC的法律規定方面,米新磊認為,各國的方向還是“不斷優化”,對使用AIGC的方式做一些建議指導,或者是局部的調整??傮w上還是鼓勵AIGC行業的發展。從業者應該關注的是數據使用的合法性、個人信息保護、版權問題以及遵守AIGC特定的監管要求。這些領域通常是法律隱患最為集中的地方,也是有關部門監管的底層邏輯。
以下為「深響」和金誠同達律師事務所合伙人米新磊的部分對話實錄:
Q:作為法律從業者去看這些AI生成的內容和我們普通人的關注點有哪些不一樣嗎?會優先想到什么法律隱患?
A:我本來就是研究著作權法的,也一直在關注這個領域,所以我第一反應就是關于著作權的內容的合理使用的問題。因為它的原理是三步走,第一步先做數據采集,采集了數據之后,然后進行模型訓練,根據用戶的需求訓練的差不多了,然后用戶再用自己的一個關鍵詞輸入,通過關鍵詞不斷調整優化,最后生成出來一個產品。
第一步是核心,如果說數據抓取采集的時候并沒有獲得(對方)同意,那其實就有點灰色地帶,因為你的數據量比較大,采集的比較廣,然后把它揉在一起,怎么去防止他的侵權行為?
Q: 平臺的開發者是怎么確保他們訓練AI模型的數據來源是合法經授權的?有沒有一個明文的法條是來保障這一個權益的?
A:數據是非常重要的資產,正常情況下你應該是獲得他(對方網站)的授權,跟他簽了授權協議,然后給他支付授權費用,然后他可能才給你提供接口,然后讓你去抓這些數據。但是當他不公開的時候,你要去強行抓取,或者是說你要去通過非法手段獲得,可能會違反數據安全法,個人信息保護法或者反不正當競爭法,還包括民法典中合同編的相關法條。所以這個層面其實是有一系列法律法規能去做規制的。
Q:未來隨著 AIGC的繁榮,各國家會產出一個法律法規明確規定說你要公開你的這個數據來源嗎?
A:不一定,目前從行業發展角度來說,總體還是鼓勵AIGC行業的發展,因為它可能是一個革命性的技術。從目前各國的法律規定來看,我覺得他們是在不斷優化,或者是說對于使用的一些方式進行一些建議指導,或者是局部的一些調整。但是從總體的趨勢來說他沒有像比如說限制你的數據庫必須開源、數據庫必須全部披露這種根本性的阻礙政策。在信息革命時代,數據是核心資產,也是兵家必爭之地,不太可能都進入免費的公有領域。
Q:用戶使用AIGC時的著作權應該如何被保障?用戶是否必須接受它可能會被傳播,會被其他人使用這樣一個結果?
A:你把文章放到網上不代表說別人就可以直接用,其實現在很多比如網絡小說什么也是在網上發表,包括一些圖片也在網上都有,你不能說網上發表了,然后公開了別人用就是不侵權的。盡管平臺會有類似免責的條款,但是從法律角度來判斷的話最終也屬于侵權。對于使用者來說,我用一些這樣的AIGC平臺生成了相關內容并上傳到了網上,它同樣也是受版權保護的。
Q:平臺方和AIGC使用者之間是否有利益博弈?比如生成出來的版權歸誰?違法的話責任誰擔?
A:理論上是這樣的,但是我感覺從實踐角度來說,那個好像不完全是這么回事。
對于平臺來說,他做一個AIGC工具,它是想讓用戶去用的,它的目的是商業性,要么我獲得流量,要么我獲得用戶,然后獲得更多的輸入,所以他是一個服務型的機構。他其實不太會去跟用戶去爭用戶所產生的產品的著作權的,這個對他沒意義。從這個角度來說,他們其實并不對立,而且這個應該是能劃分清楚的,只要在用戶協議里面明確,根據你(用戶)的調教和訓練,最后產生的產品著作權都歸你,如果有什么責任,也是用戶承擔。對于平臺來說更重要的可能希望更多的用戶來用我這個(應用),它是靠這個賺錢,而不是靠生成的東西去賣錢。
尤其OpenAI甚至是考慮到如果用戶面臨訴訟,我們(平臺方)給你付錢,甚至于推出這樣的產品,這樣子的話用戶就更不用擔心了。再者就是他(平臺)肯定也是想盡量減少這種情況,他們其實也不斷的優化,盡量在最終呈現的結果上讓他減少侵權的風險。
Q:您有接觸過 AI 領域相關的這種case嗎?
A:目前雖說業內AI比較火,但是它實際上涉及到的案例沒有那么多,在國內的話可能只有那個三四個左右。第一案是北京一家律師事務所起訴的,今年判的“AI文生圖第一案”的原告其實也是個律師,所以這兩個案例都帶點公益訴訟性質,是想基于自身對于這個行業的關注,然后通過塑造一個法律經典案例的形式,對行業內的規則起到指向性的作用。
國外產業發展的比我們要領先一點,那它所暴露出來的問題也會比我們更多一點。比如國外現在有一些案例,原告主張被告抓取數據訓練自己的模型用于盈利,同時它產出的產品和原作品高度相似,這個時候有兩類人會去起訴,第一類就是被抓取數據一方,比如2023年6月,大量消費者向美國舊金山聯邦法院提交了近160頁的起訴書,起訴OpenAI公司最為流行的ChatGPT和DALL-E是通過盜用私人信息運行的,這些被盜用的信息來自包括兒童在內的數億名互聯網用戶,并且并未獲得用戶的許可;同時,向OpenAI投資100億美元的微軟(Microsoft Corp.)也被列為被告。
第二類就是作品權利一方,比如美國作家協會(Authors Guild)、紐約時報,他們是直接生產內容的,如果在這個(AIGC)過程直接用到了那個作家的一些書里面的東西,然后其實就有點洗稿那個意思了,新聞報道也一樣。此外還有美國最大的圖片生產商Getty Images,網上的文章和新聞報道用圖片都從他那買。如果說目前AI能通過免費抓取,然后再給你揉一下生成新的圖片,就相當于是直接動了它的利益。
同時,美國的版權局的著作權登記審核也要更嚴格,他會詢問你是怎么生成的,如果你說是AI生成的,就不給登記,這是美國行政層面的態度。
所以美國的這些訴訟,更接近于目前產業生態的博弈。因為真的觸碰到巨頭的利益了。美國也會通過案例判決來給出司法層面的態度。
從國外的經驗來看,他們起訴的目的可能是以打促談,目的不是說一定要打這個官司,而是說通過官司,讓你拿我的授權,就相當于是你付我一個授權費,最后大家建立一個合作關系。
這個有點像國內前兩年短視頻平臺跟長視頻平臺之間的爭奪戰,抖音、B站好多up主用電影的資源去做二創,其實就是個侵權行為,所以后面愛奇藝這些長視頻平臺,包括一些內容生產商、一些老牌電影公司,他們是聯合發聲,要去起訴或者是要求他們支付版權費用,其實也是想讓短視頻平臺跟長視頻平臺之間建立一個合作關系。
Q:未來AIGC相關法律的可能發展趨勢是什么?
A:國務院立法計劃里,人工智能法草案其實也在起草的準備過程中了,但是還不知道什么時候能夠落地。其實立法是有一定的滯后性的,目前這個行業還在發展過程中,還有很多問題沒有顯現。產業的前景沒有明確的時候,貿然的立法未必是好事。
AIGC雖然是和人工智能相關,但它本質產生的一些糾紛,還是版權、知識產權、數據安全、個人信息保護等。而針對這些,在現有的法律框架下,我們之前的法律法規也都有,比如著作權法、個人信息保護法和數據安全法。這些也足夠去應對,只是還沒有集合起來推出來。
我們需要謹慎對待新產生的這些案例,但并不是說我們就一定要去立法給他框得規規整整,這樣反而會抑制科技的發展。
Q:針對AIGC領域從業者,有哪些法律相關的經驗建議,可以幫助從業者們盡可能避免法律隱患?
A:其實更大的風險是集中在平臺一方的。
第一個建議,就是還是要緊密關注國內監管部門的政策,特別是涉及生成式人工智能的規章,是六七個部門一塊出臺的,力度比較大,涉及到的監管部門也很多。監管一旦加強的話,你合規性做不到,就很容易出現問題。
第二個就是注意合規問題,目前對于AIGC也有一些具體要求。比如要求對于人工智能生成的內容要進行標識,你要讓大家知道這個是人工智能生成的東西,比如數字人主播等,不能沒有任何的提醒,在抖音b站這些平臺已經有了,所以要注意合規風險。主要關注數據方面,個人信息方面和版權方面,這些構成了行業的底層監管邏輯。
作者:趙飛宇 吳鴻鍵
來源公眾號:深響(ID:deep-echo),全球視野,價值視角
本文由人人都是產品經理合作媒體 @深響 授權發布,未經許可,禁止轉載。
題圖來自 Unsplash,基于 CC0 協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發揮!