• 著作權觀念漫談 回上一頁
單元選單:

ChatGPT的智慧財產權Q&A

作者:章忠信
112.05.31.完成  最後更新日期113.04.02
有著作權 侵害必究
ch7943wa@ms12.hinet.net

ChatGPT很紅,大家都很關切,也很時髦。不過,ChatGPT有很多智慧財產權議題,必須被注意到。以下提供幾個簡明的Q&A,讓大家能夠快速了解。要特別說明,法律議題,「認事用法」很重要,是最基本的要素,事實必須先弄清楚,才有辦法正確地適用法律。技術是多變的,如果事實沒有經過證明確定,依據不清楚或已經改變的事實去適用法律,就是危險而不精確的。以下的Q&A,會根據各方反應及技術演進,進行滾動增修。

Q:
甚麼是ChatGPT?

A:
ChatGPT的英文全稱是Chat Generative Pre-trained Transformer,意思是它是一種聊天軟體,這項軟體事前經過相關資訊的訓練,可以根據使用者提出的需求,依據它受到訓練的資料,經過演算後產生回應。

Q:
ChatGPT和AI有甚麼關係?

A:
ChatGPT是「人工智慧(Artificial Intelligence, AI)」的一種,都是屬於電腦程式著作,於著作完成時起,自動受著作權之保護,其程式之原始碼內容,亦得以營業秘密保護。

Q:
ChatGPT和Google有甚麼相同或不同?

A:
Google是網路搜尋引擎軟體,讓使用者知道他所要檢索的資訊在哪裡,透過網址的鏈結,讓使用者可以點選該鏈結,前往該網頁接觸內容。

ChatGPT是網路上的回應軟體,針對使用者的提問,根據它所能找到的資料,編寫出結果,回應使用者。

ChatGPT和Google不同之處在於,ChatGPT給使用者一個自己編寫的結果,而Google是把網路上別人的網頁資料加以排序,讓使用者自己決定要看哪一筆。

ChatGPT和Google相同之處在於,(1)它們都是軟體工具,是著作權法所保護的電腦程式著作;(2)它們都是使用演算法來處理使用者的需求,而這些演算法並沒有對外公布;(3)它們都無法保證內容的正確性。ChatGPT純粹是就既有資料進行符合預設邏輯的演算,既有資料或演算結果正確與否,自己沒辦法檢核;Google只是透過演算法盡可能提供符合使用者需要,別人所完成的內容,自己也沒辦法檢核內容的合理性或正確性。

所以,以前,老師都說寫論文不可以引用Google所找到的網路資料,因為,任何人寫的資料都可以上網,都可以被Google蒐尋到,但其精確性有問題,寫論文只能引用較嚴謹之期刊論文或專書內容。未來,寫論文也不可以引用ChatGPT演算的成果,因為,即使ChatGPT所演算的依據是較嚴謹之期刊論文或專書內容,其演算邏輯仍會有盲點,ChatGPT自己也無法檢核出來。

只能說,ChatGPT和Google都是很好、很有效率的資料搜尋、整理工具,但盡信書不如無書,盡信ChatGPT和Google,不如無ChatGPT和Google。善用ChatGPT和Google工具,但千萬別完全相信ChatGPT和Google搜尋、整理的結果,還是要有自己的判斷及創作投入。

Q:
ChatGPT在訓練的過程中會構成侵害別人的著作權嗎?

A:
ChatGPT沒有告訴大家是如何訓練這項軟體的,所以,沒辦法確認它的訓練過程會不會侵害別人的著作權,只能預想其可能情況進行分析。

如果ChatGPT的訓練是像人一樣瀏覽既有資料,就能直接轉換成使用者所需要的資料,不涉及既有資料的儲存,沒有著作的利用,就不必進一步討論會不會侵害別人的著作權。

如果ChatGPT的訓練是儲存自己對既有資料所整理出來的數據,不是直接複製既有資料,不涉及既有資料的儲存,沒有著作的利用,就不必進一步討論會不會侵害別人的著作權。

如果ChatGPT的訓練是儲存既有資料,以供演算法編寫新內容,就涉及複製既有資料,有著作的利用,就必須進一步討論會不會侵害別人的著作權。對於這種利用情形,因為最後並沒有讓使用者接觸到既有著作,有些法院認為是「轉化性之使用(transformative use)」,構成「合理使用(faie use)」,有些法院認為既然有利用他人著作,就應該取得授權。可以這麼說,ChatGPT的訓練過程有利用到他人著作,雖然最後沒有對使用者提供既有著作內容,但有利用他人著作是一項事實,著作權法第65條第2項關於判斷是不是合理使用時,有一項基準是「利用結果對著作潛在市場與現在價值之影響」。ChatGPT這項「轉化性之使用」,確實是過去所沒有發生過的新利用方式,不影響被利用著作的「現在價值」,但顯然是被利用著作的「潛在市場」,宜先取得授權再利用,才是公平的。

Q:
如果ChatGPT訓練過程中,大量使用別人著作都應取得授權,幾乎不可能,那不是會阻礙AI這項技術的發展嗎?

A:
著作權不完全是保護著作的法律,而是促使利益適當分配的法律。利用他人著作,就應該取得授權,意思是應該與著作權人進行利益分配。至於個別授權困難,有很多技術上、制度上或法律上的解決方法。例如,「智能合約(smart contract)」的線上自動授權系統、「集體管理團體(collective society)」集體授權管理制度、「法定授權(statutory licence)」下只需付錢,不必透過合意授權。總而言之,利用他人著作訓練AI技術的人,錢先拿出來,不能做無本生意。至於這些錢如何分配,有很多方式可以處理,也未必一定要直接分配給個別著作權人,將其交由相關團體使用於有利整體著作權人之工作上,也算是利益的合理分配。

Q:
ChatGPT生成的成果可以受著作權保護嗎?

A:
ChatGPT生成的成果,能不能受著作權保護,關鍵在於其生成成果的過程,究係ChatGPT自動邏輯性之「演算」,還是人以ChatGPT為工具,運用ChatGPT的「演算」成果,加上自己的智慧「判斷」,進一步調整而成最後成果。前者是電腦程式自己運作的結果,沒有人的智慧投入,不能受著作權保護;後者是人以ChatGPT為工具,有人的智慧投入,就能受著作權保護。所以,ChatGPT生成的成果可不可以受著作權保護,是事實認定問題,不是法律問題。

Q:
ChatGPT生成的成果若侵害著作權,該由誰負侵權責任?

A:
著作權法第10條之1規定,著作權法僅保護著作的「表達」,不保護「表達」所傳達的「概念」或「風格」。ChatGPT生成的成果,理論上是依據既有資料的演算結果,不是就既有資料的「表達」進行複製、貼上,這項成果也許在「概念」或「風格」上會與既有資料相同或類似,但應不至於發生直接再現既有資料「表達」的情形,不涉及著作權法中的著作利用行為。不過,使用者若明白要求ChatGPT依既有著作進行「重製」或「改作」,仍有可能發生利用到既有著作的「表達」之「重製」或「改作」,就必須討論有無合理使用或是否構成侵害著作權之議題。

ChatGPT生成成果,不管是不是著作,若發生侵害著作權的情形,就應該由利用該項成果的人承擔侵權責任。就如同委託他人完成成果後,不管其委託的要求是否具體到要求受託人就既有著作加以「重製」或「改作」,或僅係做原則性需求之指示後,由受託人自行獨立完成受託之成果,只要委託人將委託的結果拿來公開使用,對外就必須承擔侵權責任。其固然可能因為是受託人之侵權,委託人自己沒有侵權的故意或指示而不必承擔侵害著作權之刑罰責任,但只要委託完成之結果構成侵害著作權而委託人又將其公開使用,委託人就仍應承擔民事責任。至於對外承擔損害賠償責任之後,對內如何向應負最後責任之人求償,則是另一問題。由於委託他人完成成果時,雙方多會在委託契約中約定,由受託人擔保無侵害他人權益情事,並承諾承擔損害賠償義務,如果ChatGPT的使用條件未有類似保證,其生成成果只是供使用人私下參考,則使用人要將這項成果公開利用時,就必須自行承擔侵權的風險。這是使用ChatGPT時,必須弄清楚其生成成果可以如何使用,若要對外公開使用時,應特別評估其可能發生的風險。

Q:
ChatGPT與學術倫理的關係究竟如何?

A:
ChatGPT與學術倫理的關係,並不複雜。

著作權法第10條之1規定,著作權法僅保護著作的「表達」,不保護「表達」所傳達的「概念」或「風格」。

學術論文應該自己思考、自己書寫,如果引用別人的文字,必須以上下引號標註,以與自己創作的部分相區隔,同時並明示其出處,讓讀者或審查委員知悉其來源,以利查考,並示尊重原著作人之著作人格權。這當中涉及學術倫理及著作權議題;如果僅是利用他人著作之創新概念,沒有使用到其表達,雖不必以上下引號標註,但仍應明示此項創新概念之出處,讓讀者或審查委員知悉其來源,以利查考,這與著作權無關,而是學術倫理的遵守。

因此,使用ChatGPT而獲得的文字或概念,既然不是自己的文字,也不是自己的新創見,自然也應依據前述原則辦理,沒有不同。

問題是,ChatGPT是根據他人所提供之既有資訊「演算」而成之成果,先前的既有資訊及嗣後的演算,其正確性如何,原本就難以通過學術嚴謹的考驗,直接使用於學術論文,恐怕學術價值備受質疑。當有一篇學術論文,註明某段文字或某項新創見係來自ChatGPT之演算成果,到底是哪一位學者的哪一篇論文的文字或創見,居然無可考,這篇學術論文應該是不值得一讀的。即使當中有作者自己對於ChatGPT演算成果之批判或分析,對於一個不知是哪一位學者的哪一篇論文,也不知到底對或不對的文字或創見之批判或分析,其閱讀或審查,似乎就是浪費大家的時間及精神了。

Q:
學生利用ChatGPT完成作業或報告,該如何揭露?

A:
學生的作業或報告,應該自己寫,如果引用別人的著作,在引用他人文字方面,必須以上下引號標註,以與自己創作的部分相區隔,同時並明示其出處;如果僅是利用他人著作之創新概念,沒有使用到其文字,仍應明示此項創新概念之出處。凡此,都是要讓老師得以正確評估同學之學習成效。過去,老師會質疑學生的作業或報告是不是同學自己寫的,還是找別人寫的,還是直接轉貼Google上的,現在開始,老師還要增加懷疑同學的作業或報告是不是ChatGPT完成的。

學生的作業或報告,應該自己寫,不該交由他人代寫或轉貼Google上的資料、或交給ChatGPT完成。學生可以透過ChatGPT整理資料,但就像透過Google尋找資料一樣,不該直接複製、貼上,而是應該再經過整理、確認及消化,完成自己的作業或報告。

由於學生透過Google找到的資料,直接複製、貼上,教師很容易檢索知悉,但ChatGPT整理的資料,是經由就有資料進行重新演算,理論上不會是就既有資料之再現,教師不容易檢索知悉。不過,ChatGPT是根據他人所提供之既有資訊「演算」而成之成果,先前的既有資訊不一定正確,嗣後的演算成果,也僅是符合程式設計之邏輯,但內容未必正確,它自己也無從判斷,學生以ChatGPT整理的資料作為作業或報告之依據,比透過Google資料作為作業或報告之依據,更加危險。

就學生而言,不該找人代寫作業或報告,可以透過Google找資料或透過ChatGPT整理資料,都不必特別註明是以Google或ChatGPT為蒐集資料之工具,但不管是找人代寫、直接轉貼Google或ChatGPT之資料,都屬違規之行為。

就老師而言,批改學生作業或報告,除了評核其內容品質,應該也包括糾舉違規行為。如果老師沒有機會(學期已結束,無法再以口試或面談檢測)或沒有能力(真的看不出來是別人代筆、轉貼或改寫自Google或ChatGPT之資料)糾舉違規行為,也許就應以筆試或口試替代作業或報告,作為評分依據。

Q:
ChatGPT參考他人文章而沒有註明出處,是否會構成侵害著作人格權中之姓名表示權?對於這項侵害,又該如何證明?還是只要註明是透過ChatGPT寫論文就可以了?

A:
著作權法第10條之1規定,著作權法僅保護著作的「表達」,不保護「表達」所傳達的「概念」或「風格」。

ChatGPT是就既有資料進行重新演算,其所生成成果,理論上並不會再現既有資料之「表達」,而是使用到既有著作之「概念」或「風格」。所以,ChatGPT參考他人文章而生成之成果,並不涉及著作權法中所稱「利用著作」之情形,若未註明出處,亦不至於構成侵害著作人格權中之姓名表示權。反而是使用者直接使用ChatGPT生成成果於學術論文,並不符合學術論文應由著作人自行撰寫之學術倫理要求。目前,ChatGPT並未具備註明出處之功能,使用者無從註明既有資料之「概念」出處,亦是另外一項不符合學術倫理要求之缺失。

Q:
使用ChatGPT寫學術論文,是不是應該適當揭露,才符合學術倫理?

A:
這問題應該分成兩段思考。

第一段是要說明,使用ChatGPT寫學術論文,應該是善用ChatGPT的蒐集整理功能,建構議題初稿,供作增修論文或議題架構之參考。這樣的利用方式,ChatGPT只是被當作研究使用之工具,並不須特別揭露這項事實。正如同寫學術論文可以透過Google搜尋引擎,於網路上找到期刊或專書資料,作為參證註釋之用,從沒有人認為需要註明是透過Google搜尋引擎找資料。同理,透過ChatGPT協助學術論文撰寫,應該也無需特別揭露。

第二段要說明,學術論文不該直接使用ChatGPT整理的資料,因為該部分畢竟不是自己寫的內容。即使有以上下引號之引用,並清楚註明是直接使用ChatGPT整理的資料,這樣的使用,也不恰當。因為,ChatGPT整理的資料,其資料來源、嚴謹度及可信度,完全無法確認,引註ChatGPT整理的資料進行分析評論,完全無學術價值。

Q:
如果ChatGPT是一項工具,如同圓規,但用圓規要求畫一樣的圓,大小必然一樣,然而,對ChatGPT下相同的指令(prompt),它產出的結果卻又不同?這當中算不算是人的創作呢?

A:
圓規可以劃圓,但這圓要多大、放在哪裡?就需要人的判斷。小畫家軟體就是這樣。

還有一個重要爭議點:下指令算不算是創作?

此外,下同樣指令,結果一定一樣嗎?技術上會不一樣。因為時間先後不同,如同攝影三連拍,雖然看似同時拍攝,但機器接收指令的時間卻是瞬息不同,ChatGPT學習狀態會隨時間及來自各方指令不同而不斷精進,結果就會不同。還有,ChatGPT的運作不是讓所有指令在同一模組中找相同資料演算,這樣將造成系統當機。同一ChatGPT的不同時間相同指令,仍可能會因為隨機選擇之資料模組不同,其中所含資料內容不同,就生成不同成果。

所以,為了避免被質疑創作性是否存在,利用ChatGPT這項AI工具,在ChatGPT生成一定結果之後,再多加一點人的判斷在其中,越能提高創作性,就能完成受著作權法保護之著作。

Q:
論文轉貼ChatGPT的內容,算不算是「抄襲」?

A:
論文轉貼ChatGPT的內容,其實不是「抄襲」,而是「造假」。因為,「抄襲」是抄「別人」的文章,但ChatGPT不是「人」,轉貼ChatGPT的內容,是自己沒寫文章,拿ChatGPT演算的內容,假裝自己有寫,這是「虛構不存在之研究資料或研究成果」,屬於「造假」之行為,不能算是「抄襲」。

A:
一件圖案、文字或照片,到底是人所創作的著作,還是AI完成的成果,這是事實議題,不是法律議題。

當一個人拿出一件圖案、文字或照片,主張是他完成的,原則上就是他完成的,由他享有著作人格權及著作財產權,別人要主張是他人完成或是AI完成的,或主張他不享有著作權,就必須舉證證明,才能推翻。

相對地,當一個人拿出一件圖案、文字或照片,主張是AI完成的,應該就是AI完成的。若先前說是AI完成的,後來又後悔,說是自己完成的,可能違反「禁反言」之原則;至於先前說是自己完成的,後來卻又承認是AI完成的,就必須承擔不受著作權保護之後果。

Q:
AI生成的成果,如果不受智慧財產權保護,是否就無法律保護,大家可以自由利用?

A:
AI生成的成果,如果因為不是人類創作發明,所以不是智慧成果,無法受到智慧財產權保護。這個生成結果,只是一項資料,如果附著在有體物上,可以用物權保護,由有體物之所有人享有物之所有權;如果只是一個檔案,不是有體物,屬於電磁紀錄儲存之資料,可能只能適用或類推適用民法動產規定,認定資料之權利歸屬,原則上以產生該電磁紀錄之人原始取得該電磁紀錄之所有權,有權使用、收益、處分該電磁紀錄。

Q:
AI人機協作是個新創作模式,法律是否應進一步修正,以因應新科技發展?

A:
「人機協作」只是個時髦用詞,其實不是甚麼新鮮事。人類自古善用工具增加效能,降低工作負擔,AI不過也是工具而已。

「人機協作」不是「共同著作」,著作權法所稱的「共同著作」,依據第八條規定,必須是「二人以上共同完成之著作,其各人之創作,不能分離利用者,為共同著作。」AI是工具,不是人,人與工具無法完成「共同著作」,只能是人利用工具完成著作。

目前的議題是:到底是人善用工具完成創作?還是讓工具自己完成成果?這是事實認定議題,不是法律議題。認事用法,關鍵在於事實是甚麼,而不是法律要不要修正。

人善用工具完成的創作,例如用繪圖軟體繪圖,完成的創作是「著作」,可以受著作權法保護;讓工具自己完成的成果,例如掃地機內建電腦程式感應周邊狀況跑出來的路線圖,只是機器自走軌跡的紀錄,其成果不是「著作」,不可以受著作權法保護。

當然,如果認事用法之後,對於結論不滿意,就可以討論是否修法。例如,AI自動完成的成果,不是「著作」,不可以受著作權法保護,但要不要在哪一項法律中給誰一項甚麼新的法律上權利?這將涉及新的利益分配議題,值得各方面在立法院角力。另外應該理解,對於AI自動完成的成果,如果決定不予法律上的保護,也是一種利益分配,意思是要讓大家自由利用,保障公共利益。

Q:
生成式AI產生的成果,可不可以拿來利用?

A:

生成式AI到底怎麼運作的?他自己沒說,我們也不知道,未來也可能有技術上之各種變化。

生成式AI產生的成果,私底下使用沒問題,公開利用就應該避免。因為,生成式AI產生的成果,到底是怎麼回事,並無從確定。

如果要公開利用生成式AI產生的成果,就應該在這些成果上,加上自己很多的創作,盡可能讓它脫離原貌。

這有幾個思考。

首先,因為不確定生成式AI產生的成果,到底是怎麼來的,為了避免直接使用構成侵害他人著作權,加上自己很多的創作,讓它脫離原貌,是最安全的作法。

其次、縱使生成式AI產生的成果,不構成侵害他人著作權,也會被質疑因為不是人完成的兒不具創作性,不能享有著作權保護。一旦加上自己很多的創作,就能因為具有創作性,享有著作權保護。

其三,生成式AI產生的成果,是根據既有資料演算而成,可能會因此限制演算成果的空間,也可能是錯誤的內容。能夠加上自己很多的創作,就能有突破性的呈現,也能夠讓錯誤被修正,不至於被生成式AI產生的成果限制或誤導,這正是人的創新創作能力優於生成式AI既有資料演算能力之處。

生成式AI是個好工具,人們向來善用工具,沒有理由拒絕使用生成式AI提高效能,減輕負擔。但必須知道生成式AI可能發生的問題,避免完全依賴生成式AI,才能正確利用這項好工具。

可以這麼思考。過去美術系老師要求同學創作半身雕塑,會發給每一個同學立體素材,供其創作完成各自的著作;有了生成式AI,就如同可以發給半身雕塑之粗胚,同學們不必辛苦地從立體素材開始創作,因此可省去很多力氣,但仍得以創作各自想像之男女老少半身雕塑。

不過,半身雕塑之粗胚,受限於人像意念,已無從產生牛魔王、獨角獸或帶帽子的人,這必須依賴創作者不受限於粗胚現況,突破既有框架,自行增加粗胚所已不具之部分,完成無限可能之創作。

Q:
可不可以用AI生成?

A:
可不可以用AI生成?

這就像問「可不可以吃早餐?」

「可不可以吃早餐?」,沒人說得準,因為「可不可以吃早餐?」,是要看條件的。每天早上吃早餐,當然沒問題,但一邊上課或上班,還要一邊吃早餐,就得想一下老師或老闆同不同意,做何感想。自己晚上閒來肚子餓,自然也可以把明天的早餐給先吃了。

所以,可不可以用AI生成?也是沒人說得準,要看情況而定。自己私底下的資料掌握及了解,當然可以用AI生成。但參加比賽,如果規則是比手創,要求不能借助其他工具,或者業主付費指定哪一位資深設計師操刀,特別要求不能使用AI,當然就不可以用AI生成。

可不可以用AI生成?這就像問「可不可以吃早餐?」其實自己心裡是有數的,可以用才用,可以吃才吃。弄不清楚狀況,不該用AI時使用AI,不該吃早餐時吃早餐,當然會出問題。

回到最上方
回頂端