?

人工智能數據輸入行為之版權法路徑

2024-03-07 00:10謝欣瑜

摘 要:ChatGPT的出現顛覆了人類對以往傳統人工智能的認知,其特別之處在于能夠對大量攝取的數據“改頭換面”,具有類似“洗稿”的能力,還能聯系上下文與人類順利進行對話等。我們無法阻止科技的發展帶來的新事物的熱潮,法律滯后性特點使其規定無法全面應對新式AI潛在的各種風險,導致ChatGPT這類生成式人工智能處于既不違法也不合法的尷尬“灰色”境地。AI無償攝入原作者數據用作商業行為卻不付出相應代價不僅會對原作者帶來替代性威脅,還會引發大規模失業現象,因此,通過擴大適用“法定許可”方式,不僅能夠提高授權效率,還能夠維護原著作權人一定的經濟利益,再通過擴大網絡服務提供者的權利職能和責任擔當,加之擴大政府監管權力,能夠完善具體措施的可行性。

關鍵詞:ChatGPT;洗稿;法定許可;網絡服務提供者

一、ChatGPT的技術變化

ChatGPT作為一種大型預訓練語言模型,是一種基于深度學習的自然語言處理模型,它可以通過模擬人類對話的方式,為用戶提供定制化的信息服務。所謂ChatGPT,全稱是Chat Generative Pre-trained Transformer,即生成式預訓練變換模型。在其使用的Transformer模型架構中包括了注意力機制,用于分析情感分析任務,這能夠讓模型更加關注輸入序列中的重要信息,更好地捕獲到上下文的相關信息,防止丟失重要的信息,有效提高文本情感分析的準確率、提高模型的表現[1],使ChatGPT的表現更加“接近”人類。

截至2023年3月來看,GPT運用的技術并不稀奇,其他類型的人工智能其實早已開始使用:如AlphaGo,它和ChatGPT的相似之處是它們都運用了神經網絡技術來處理并預測結果。ChatGPT是基于上述提到的Transformer模型來生成類人文本,AlphaGo運用的則是卷積神經網絡和循環神經網絡的組合來分析并預測最佳的破解方式,它們也都運用了深度學習技術來處理和理解大量的數據等。

既然如此,為何如今的ChatGPT掀起如此波瀾?首先,其使用了深度學習處理自然語言的大型語言模型來破譯人類的自然語言,增加了人類與機器溝通的效率。從前人與機器之間溝通需要編碼來讓機器理解其中的含義,當有了語言模型,機器無需編碼而是通過自身翻譯且執行的方法來理解人類。其次,其模型參數急劇增加。GPT-3的參數量就已經高達1750億[2],這能讓它在不進行微調的情況下,僅利用小樣本甚至零成本就能在下游任務中超越其他模型。最后,對于文字性的答案,很難像AlphaGo那樣以贏為好,以輸為不好的明確規范,即非好極壞的游戲規則來界定,而一定需要人類的反饋才能達到較好的效果。因此,為了使ChatGPT的回答能更“像”人類,OpenAI在最初訓練它時就加入了人工反饋的強化學習(Reinforcement Learning with Artificial Feedback,簡稱RLHF):它通過雇用幾十名員工,來對內容進行標記,在人工反饋的強化學習和修正中,形成符合人類回答的最終結果。其實,這也能夠改善預訓練語言模型的缺陷:不可控性以及偏見性。然而,ChatGPT在人工反饋的強化學習的運用僅在一方面,還有許多技術過程是未通過人類標注而成的,由于該模型是在大量數據收集后的模型上訓練出來的,沒有人能夠保證收集的大量數據中是否會存在不當內容,因此,其就像一個黑盒子,與完全由人工規則來控制的專家系統不同,無人知曉所生成的內容是否會有種族歧視等。

ChatGPT屬于表達型機器學習(Expressive Machine Learning)模型,它產出的內容會威脅到原著作權人。機器學習分為非表達型機器學習與表達型機器學習,非表達型機器學習的生成物不是在著作權法意義上的作品,在此不做討論,表達型機器學習指的是使用一種靈活的模型來對數據進行建模和預測的機器學習方法。與傳統的機器學習方法相比,表達型機器學習方法通??梢愿玫靥幚矸蔷€性、高維和結構化數據,并具有更高的預測精度。但是,表達型機器學習模型通常需要更多的數據和計算資源來訓練和優化,且模型的解釋性較差,難以理解模型的預測過程和結果。因此,其需要海量的他人作品進行訓練,并且訓練結果有一定的不可預測性,這種允許表達型人工智能毫無限制地大量消費作者版權數據的行為,可能會導致作者群體地位的邊緣化[3]。由于ChatGPT收集并使用的底層數據都是免費獲取的他人作品,因而在不被授權的情形下,這種隨意使用并且運用在商業范疇的行為應當構成對于原作者知識產權的侵犯。

二、ChatGPT數據收集行為的版權問題

(一)ChatGPT所收集的數據并非全部獲得授權

作為一個AI模型,ChatGPT所產生的文本是通過收集大量的文本數據訓練得來的。大量數據集能夠使訓練效果達到最優性,更加接近人類的說話方式。盡管它現在還無法完全模擬人類的情感和心理狀態,也不具備人類腦力和思維能力,但它會盡力通過自然、流暢的對話和語言表達方式來與人交流,也可以運用語言技巧來回答問題,以及模仿人類的言談舉止。

然而,這些投喂給ChatGPT的數據并不一定是都經過授權的。其存在著多個分支,截至2023年3月,較流行的分支主要有兩種,二者的主要區別在于數據來源有些許不同:第一個分支的數據截至2021年9月的官網原版ChatGPT,其數據來源是人工灌輸的固定數據,因此它的數據不僅對于用戶來說具有時效性,還具有人工自行選擇攝取數據的特點。第二個屬于更“新”的新一代分支,是ChatGPT與搜索引擎Bing相結合的New Bing,其不僅包含之前人工灌輸的固定數據,還能夠獲得Bing搜索引擎的最新互聯網信息數據支持,具有實時性的特點,因此,這可以說是有了一種“主動學習”的能力。首先,對于人工自然選擇的固定數據而言,它的訓練數據集包含TB級別的海量互聯網文本數據:代碼、詩歌、法律文件、自然對話等都是這些數據的一部分,由于OpenAI并未對外公示所使用的數據來源,因此相關訓練數據庫是否均獲得授權還存在疑問[4]。其次,雖然搜索引擎本身“抓取”網頁的行為有其合理性,但這并不代表與搜索引擎結合后的ChatGPT使用搜索引擎數據進行訓練的行為同樣合理,兩者之間有著本質的區別。搜索引擎的服務機制是為了提供原始數據鏈接,且抓取數據行為都被原網站所允許(不允許的會通過反爬蟲協議予以制止,在未強行爬取情況下不會對原權利人的權利造成損害),而ChatGPT是通過自身生成內容的形式來提供服務并且獲得商業利益的,對于創作結果未落入公共領域的原作者來說并不知情自己的作品被其使用,也談不上“同意”。當問到ChatGPT它所得到的文本數據是否獲得授權時,其回答也是模棱兩可,其指出底層數據的部分出處網站,并提到“這些數據的使用是被給予公開授權的,因為它們在互聯網上是公開可用的?!钡聦嵣?,這兩者并無實質因果關系,在網絡公開的文本并不代表就可以隨意使用。正如前文所說,搜索引擎抓取數據與AI抓取數據有著本質的不同,即便是出于作者的本意公開自己的作品,也不能代表授予網絡其他用戶使用權,擅自使用必然侵犯其權利,因此,像ChatGPT這樣獲取他人作品用以自己的商業行為并因此攫取大量利益的行為似乎并不合理。

(二)ChatGPT數據收集行為未必違反現有版權法規定

ChatGPT主要在“輸入”與“輸出”兩個階段可能會涉及到版權的相關問題。在“輸入”階段,AI公司實際復制了該作品,并當作訓練數據投喂給ChatGPT,該過程由于滿足該侵權條件,可能侵犯到原作者的復制權。所謂復制權,是指以印刷、錄音、錄像、翻版、數字化等方式將作品制成一份或者多份的權利[5]。像ChatGPT這樣的大規模預訓練模型,需要對互聯網大量未被授權便獲取到的文本數據進行信息挖掘和內容理解,通過“復制”并輸入的方式“投喂”給它進行訓練,由于大量的數據未被授權,且訓練時不對外公開,過度借鑒原作者不知情且未授權的數據,可能會導致侵權的后果。然而,盡管該行為能夠滿足“接觸+實質性相似”要件,但由于該行為屬于在人工智能深度學習的“輸入”階段,并非“輸出”階段,并未對某一具體作者造成不合理的利益損失,也未對某一原作產生替代性知識信息而造成直接競爭關系,因此,其獲取數據的“輸入”行為是否真的侵犯原作者的復制權、是否違反現行版權法的其他規定,這尚未有定論。

那么,在“輸出”階段,ChatGPT的生成物又是否會構成侵犯他人的版權呢?思想與表達二分法與“接觸+實質性相似”是判定是否侵犯版權的重要標準。思想與表達二分法被用來區分版權保護客體的界限,使版權的權利范圍具有一定的可預期性,在僅保護表達而不保護思想的版權法中,ChatGPT對大規模數據“洗稿”而非對某一作品進行“洗稿”的行為很難認定是對原作者的侵權,因為該“洗稿”行為所包含的數據量之大以及通過改變原作品的表達規避掉了版權法對表達的保護,從而使得人工智能洗稿行為的違法性更加模糊[6]。除了思想表達二分法,還有對“接觸+實質性相似”的判斷。其中,判定是否“接觸”的事實行為較易掌握:原作者的作品創作在先。而“實質性相似”由于沒有一個確定的公式及標準,因此難以判斷。在美國法院的認定方法中,較多使用的一種方法叫做“抽象-過濾-對比測試法”,其包含了抽象、過濾以及對比三個步驟,首先將作品中思想的部分抽離,其次將兩部作品中相同并且不受版權法保護即屬于公共領域的部分過濾掉,最終對比兩部作品留下的表達部分,結合獨創性標準來判斷是否構成“實質性相似”。結合ChatGPT,其生成文本中包含了海量他人作品,可以說是成功“洗稿”后的結果,即便按照三步法抽離后進行對比,也難以真正地將海量作品拼接的結果認定為侵權。

(三)ChatGPT數據收集行為的合理性存疑

既然基于版權法現有的規定,無法將ChatGPT的行為明確規定為違法,那么本文接下來將結合法律的應然性并且通過對該行為的定性來論證其行為是否應當合法,以及在不合法的情況下法律是否應將其行為規定為“合理使用”。

ChatGPT如今肆意收集他人數據的行為理應不合法:首先論述法律的應然性。在社會的初始階段,人們基于“應當如何”的認識便產生了法律,因此,“AI公司使用了他人的辛勤勞作的作品并獲得了利益就應當付出相應的代價”——這種觀念有其合理性與“公意”性,并能體現平等與正義價值。立法原則的倫理根基是理性,理性精神在合理性、“公意”性等方面有所體現。所謂合理性,是指法律應當有健全的判斷力,要明智且理智,具體到AI與原作者的關系,如今的人工智能利用原作者作品而無需付出任何代價的行為就違反了合理性,違反了立法原則的理性精神。同樣地,大量藝術家對AI公司提起集體訴訟,美國版權商也集體反對訓練類似ChatGPT這類AI的不收費行為[7],而版權法中卻沒有相關的規定能夠滿足版權商的需求,這就說明了如今的版權法已經難以滿足集體的公共利益即“公意”性,無法合理調整主體之間的法律關系,也就無法實現平等原則的權利義務一致性的特點,其獲得了大量的利益卻不付出應有之代價的行為違反了法律價值中的平等原則,更是破壞了法律價值中的正義標準。其次論證ChatGPT“免費”收集他人數據并用作“商業”行為的不合法性。所謂“著作權侵權行為”,是指未經著作權人的同意,又無法律上的根據,擅自對著作權人的作品進行使用以及其他非法手段行使著作權的行為[8]。一是ChatGPT行為的性質應當構成“著作權侵權行為”。如果AI使用了未經授權的作品,結合上述著作權侵權的概念,不管搜索引擎中的數據原本是不是正版,其“使用”的這個行為本身就都會是違法行為。二是對其輸入的大量網絡作品的本身進行定性。由于在互聯網中隨處可見大量盜版“作品”,人工智能無法得知其攝入的作品是否為正版,因此可能獲取到大量本身即未授權且沒有法律根據的文本,對該違法“作品”進行再次轉化。該轉化結果的其中一種可能性是將此行為規定為合理使用的情形之一,攝入盜版轉化后的結果能夠變成所謂的“正版”,人工智能公司或者使用者能夠獲得版權;另一種可能性是人工智能公司與使用者都無法獲得版權,即變成所謂的“公共作品”。但無論是哪一種可能,對于著作權人與整個社會而言都會帶來不利影響。這種種矛盾的結果在如今的版權法還沒有被清晰地界定下來,需要立法者嚴加考量再做決策。

因此,ChatGPT肆意收集數據的行為也不應被納入到“合理使用”的范疇之中。一是無論是現行《中華人民共和國著作權法實施條例》第21條,還是現行《著作權法》第24條,均明確規定合理使用“不得不合理地損害著作權人的合法利益”。由此可見,人工智能編創行為適用著作權合理使用制度的情況,將限定在“不得不合理地損害著作權人的合法利益”的范圍內。然而,ChatGPT的“洗稿”輸出行為既高效又低成本地對大量原作者的作品進行“改頭換面”后產生替代性知識產品的行為所造成的損害遠大于普通知識產品競爭帶來的競爭損害,對原始素材的知識產品市場帶來巨大沖擊[9]。因此,該行為已經對著作權人的合法利益造成不合理的損害,無法將該行為規定為“合理使用”行為之一。二是根據帕累托標準即效益的提高對各方必須都有益,以損害某一方利益來改善他方利益的方式是無效益的。合理使用只有對作者和使用者都有利時才是“合理”,反之會因缺乏“經濟合理性”而無效益[9]。然而,在ChatGPT的模式下,除了對于資本家和少量工作者而言有效益,對于作者以及絕大多數的普遍公眾而言并非有益。假設人們都是“理性人”,每個決策者作為不同的社會角色都會有自己“理性”的考量:對于資本家而言,由于ChatGPT能夠提升一定的工作量,少數人就可同時完成原本屬于多個人的工作,那么資本家或許會為了節省成本而辭退其他人;對于少量被錄用的工作者而言,也會選擇使用AI作為輔助工具,因為這不僅省時省力,還能同時完成多份工作獲得更多報酬。由此看來,最終的結果可能就會是:資本家少支出了人工成本;使用AI輔助完成工作的人獲得了多倍工資。對于他們雙方而言,或許得到了利益,獲得了“正向”的結果,但對于整體社會而言,或許也會帶來負面的結果:失業人口會增多。因此,對于使用者來說,只有資本家和擁有工作機會的人能夠從中獲利,大多數因人工智能而失業的人并不會獲取利益;對于原著作權人來說,正如上文所述,既沒有獲得相應的報酬,還會產生替代作用的競爭效果。因此,若將其吸收大量數據學習轉化新“作品”的行為納入到合理使用,必定會造成絕大多數創作者不愿再繼續產出優質作品,而去依靠人工智能的生成物來實現自己的利益追求的結果。結合到上述帕累托標準,這種損害原作者和社會利益來改善資本家和少數工作者利益的方法必定是非效益的,因為這并未產生對各方都有益的結果。并且,著作權的目的是“激勵”作者能夠繼續產出優質的作品,而不是“打擊”作者的信心,而ChatGPT創造的底層數據庫都是使用的前人所創造出的作品,其本身的創作也僅僅只是基于過去的作品不斷重復迭代變換形式而已,長此以往,也很難會有創新型的思想與表達。綜上所述,ChatGPT收集他人數據的行為不應當被規定為“合理使用”。

(四)禁止/放縱ChatGPT收集數據的不利影響

只能在收集的數據中無限循環的機器是無法創造出真正的新東西的,ChatGPT的“偽”創作行為實質是“洗稿”行為。因為當前它所使用的各種模型與技術并沒有打破目前數據庫中的數據,也沒有創造出全新思想的能力。當然,隨著數據量大到一定程度,ChatGPT越來越接近人腦的智慧時,或許能夠從量變引起質變的方式來達到人類思維的高度,又或者產生了新技術革命,人類走向新征程時,不僅會達到人腦思維相當的程度,甚至可能超越人類。但就目前而言,ChatGPT必須基于一定的規則才能得以訓練,其中人工反饋的強化學習也必須由人類來告訴它什么是好,什么是壞,它的回答也無法超出限定范圍的答案。

雖然ChatGPT目前是“偽”創作行為,但隨著其發展的勢不可擋以及使用人數的急劇增加,一味地禁止或隨意地放縱ChatGPT收集數據都會阻礙社會的發展。反公地悲劇理論是基于公地悲劇理論而提出的指排他權數量的增加和分散化會抑制智力資源利用的效率,致使后續研發或者下游創新受到阻礙[10],盡管它輸入他人數據并通過“洗稿”的方式產出大量對原作者產生可替代作品的行為并非完全合理,但ChatGPT繼續收集數據生成相應的作品是科技發展的必然,一味地禁止必定會阻礙社會整體的發展,造成反公地悲劇。想使人工智能得到進步,海量數據的輸入是其進行學習創作輸出產物的前提,如今ChatGPT等AI已經在人類生活中占領一席之地,能夠通過它來寫論文、做法律文書等等一系列內容,可以預見的是,將來它就像人類的一支“筆”,作為一個強大的工具,沒有人會拒絕使用它來提升自己的工作效率,因此,ChatGPT等各類生成式AI的行為無法被禁止。同樣地,要求AI公司必須得到每一位作者的授權許可也同樣會造成反公地悲劇。如今是一個用戶生成內容(User Generated Content)時代,互聯網上創作出的作品紛繁復雜,面對如此龐大的數據量,依次尋找到作者并得到許可的代價無疑是巨大的,這不符合經濟領域中的成本效益原則,若逐一進行授權使用,勢必會造成市場失靈。然而,隨意地放縱該行為由于會對原作者產生替代作用同樣會對社會造成不利影響。如今ChatGPT的產出速度就已經是人類所遠遠無法匹及的,由于機器力太過強大,人們在作品產出速度與工作量方面根本無法與之相比擬,其出書的數量以及速度足以將人類獨自產出的作品淹沒并進行競爭,作為養料的人類也沒有得到相應合理的報酬,這將極大地打擊作者的創作激情,長此以往必定會對人類生活也產生巨大威脅。

三、加強版權法對ChatGPT收集數據行為的規制

(一)擴展適用法定許可制度

所謂法定許可,是指不經過著作權人的同意,只要對著作權人給予合理的報酬,即可使用其作品。在今天這樣一個用戶生成內容的網絡時代,人們所產出的作品過于龐雜,作品的數量之大,逐一許可的成本過于高昂,導致人工智能公司逐一獲得著作權人的授權許可是難以實現的。法律當然需要順應社會的現實需要而不斷發展,但同時法律也要保持自身的穩定性,不能朝令夕改[11],合理解釋之后適用新技術帶來的新的行為方式或許是一種比較好的選擇。因此,通過擴大適用法定許可這種無須逐一許可的行為,既能節省成本,又能提升授權效率,作者能得到相應的激勵,從而產出更加優秀的作品,人工智能也能獲得足夠多的數據進行訓練,提升算法能力。對于各方來說,無疑是公正且效率的,也或許是最為合理的一種方式,因此也能夠符合帕累托標準。

(二)增強網絡服務提供者的權利職能和責任擔當

現在的著作權授權模式已悄然從集體管理組織到網絡服務提供者的管理而改變。由于集體管理組織難以實時檢測到網絡中存在的侵權現象,導致運行效率不高,著作權人和使用者在實踐中更多通過直接締約這種在域外發達國家看來更為低效的方式來完成海量授權。但在數字技術的幫助下,授權許可原本在權利信息傳遞和合同履行監督等方面產生的交易成本被有效控制。因此著作權人與網絡服務提供者之間的直接許可,已成為頗具“中國特色”的數字化作品交易機制[12],這其實也是公眾的選擇。

現行法律中對于網絡服務提供者給予了各種義務的同時,其實也提供給它們相應的權利。如在《中華人民共和國民法典》第1195條規定了“通知-必要措施”規則;《中華人民共和國網絡安全法》第47條規定了網絡服務提供者應當承擔信息的監管義務;《中華人民共和國電子商務法》第38條明確了電子商務平臺經營者負有對平臺內經營者的資質資格進行審核的義務,以及在平臺內經營者侵害消費者合法權益時,負有采取必要措施的義務等[13]。這些規則在某一程度上給予了網絡服務提供者進行社會監管與救濟的權利,鑒于此,由網絡服務提供者來監管人工智能隨意獲取數據,侵犯他人著作權的行為,可謂是高效方便,也是更易被接受的方式之一。

具體操作方面,網絡服務提供者應當做到:首先,每一位作者在上傳作品時,要設置一個點擊按鈕選擇是否為原創,若是非原創作品,應當指明來源的按鈕,寫出轉載出處,并將轉載出處設置相應的鏈接,可供網絡服務提供者高效尋找到原作品;若為原創作品,網絡服務提供者應當進行記錄。其次,在作品被征用為人工智能的底層數據之一時,應當先告知該網絡服務提供者,網絡服務提供者應當找到并通知相應的作者并給予相應的費用,通知的標題應當是通過《您的作品可能成為AI的底層數據,請您確認報酬》。再次,對于以往已經發表的作品,人工智能公司應當及時通知網絡服務提供者采用的數據作為數據庫的來源,在精確到具體的作者用戶后,通知用戶及時與網絡服務提供者的客服取得聯系,并得到相應的報酬,畢竟,隨著現在互聯網技術的提高,想要精確到作者其實并不難。最后,對于生成物的展示,人工智能公司必須將該生成物所引用的相應的作品列出。

對于以上的授權,沒有其他機關進行監管,是很容易形成壟斷行為的,因此,法律必須要予以規制,政府也要實行監管制度。一是由于在如今,用戶注冊時或與平臺簽訂的服務協議時,網絡服務提供者提供的格式條款存在著很多名義上以平等自由為基礎,實則充斥著大量約束用戶行為與免除網絡服務提供者責任的內容,因此對于格式條款的訂立以及實施,政府應當起到監督作用并制定一系列條款規則,強行要求網絡服務提供平臺予以采納。二是對于人工智能給予每一位作者的報酬,應當由政府規定好具體數目,每個平臺都應當采取一致的規則,否則將會產生市場亂象。三是對于網絡背景下的著作權侵權行為,應當有具體侵權責任的規定,否則,若沒有相應侵權成本的責任規定,難以產生有力的效果,只有在侵權成本夠高,授權成本夠低的情況下,移動互聯網環境下的規范著作權市場才能真正形成,新興商業模式方可發展。

四、結語

新興的ChatGPT技術,在給人類帶來便利的同時,也產生了許多法律漏洞,因此,其各種行為需要進行界定來規制。本文詳述了ChatGPT這樣的新型AI特點,以及它們需要大量收集底層數據才能更加精確地產出相應的結果,特別是在與搜索引擎Bing結合后,底層數據數量之龐大使人難以預料,若一味地禁止這種行為,必定會對于社會產生不利的影響,造成反公地悲劇,相反,一味地放縱這種免費收集數據轉而進行商業運作的行為,不僅會對作者產生不利影響,對整個社會也必定會產生不利的后果。由于我國著作權法對新技術未作出相應的規定,導致該行為是否違反法律存在疑問,但將人工智能無償收取他人作品而用作商業的行為引入到合理使用也缺乏合理性條件,因此應當通過法律解釋學來擴大采取法定許可制度,給予作者相應的利益,完善其存在的合理性。由于現在是每個人都可以在互聯網平臺上生成內容的時代,網絡服務提供者已然在網絡環境中產生不可替代的作用,因此,網絡服務提供者應當擔任起人工智能公司與著作權人之間橋梁作用的重任,但在授予它權利的同時也必須通過政府來規制這一擴大的權利,否則會產生權利濫用的效果。

美國學者邁克斯·泰格馬克曾說過:“如果我們在交給強大的智能機器基本倫理標準之前,在某些標準上達成了共識,那一切就會變得更好?!盵14]在2023年4月11日,國家互聯網信息辦公室關于《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見的通知[15],其中也涉及到對生成式人工智能的知識產權監管問題,可以看出我國也一直在努力跟上科技的洪流,渴望達成相應共識??傊?,新一代人工智能已產生,人類要采取積極的措施面對,一定要在人工智能“之上”,而不能在其“之下”。

參考文獻:

[1] 王婷,楊文忠.文本情感分析方法研究綜述[J].計算機工程與應用,2021,57(12):11-24.

[2] 王海寧.自然語言處理技術發展[J].中興通訊技術,2022,28(2):59-64.

[3] 盧炳宏.表達型人工智能版權合理使用制度研究[J].現代出版,2019(4):60-63.

[4 ] 李昀鍇. ChatGPT內容商業使用的法律風險及應對 [EB/OL].[2023-02-14].https://ahlx.pkulaw.com/lawfirmarticles/ddb7d880bf7

eb96630a1222c17163b0bbdfb.html.

[5] 吳漢東.知識產權法[M].北京:法律出版社,2022:203

[6] 張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J/OL].法律科學(西北政法大學學報),2023(3):38-51.

[7] 新智元. OpenAI因版權被多方狀告,作家集體起訴,抗議ChatGPT訓練侵權 [EB/OL].[2023-07-10].https://baijiahao.baidu.com/s?id=1771016178720767281&wfr=spider&for=pc.

[8] 吳漢東.知識產權法[M].北京:法律出版社,2022:275.

[9] EDWARD L.Technological Fair Use[J].Cal. L. Rev,2010(83):22,61

[10] 劉強.人工智能對知識產權制度的理論挑戰及回應[J].法學論壇,2019,34(6):95-106.

[11] 王遷.如何研究新技術對法律制度提出的問題?——以研究人工智能對知識產權制度的影響為例[J].東方法學,2019(5):20-27.

[12] 熊琦.移動互聯網時代的著作權問題[J].法治研究,2020(1):57-64.

[13] 鐘曉雯.算法推薦網絡服務提供者的權力異化及法律規制[J].中國海商法研究,2022,33(4):63-72.

[14] [美]邁克斯·泰格馬克.生命3.0——人工智能時代人類的進化與重生[M].汪婕舒,譯.杭州:浙江教育出版社,2018:444.

[15] 中國網信網.國家互聯網信息辦公室關于《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見的通知 [EB/OL].[2023-04-11].http://www.cac.gov.cn/2023-04/11/c_16828542754

75410.htm.

作者簡介:謝欣瑜(2000- ),女,山東科技大學文法學院碩士研究生,研究方向為知識產權法。

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合