第18卷 第2期
中華民國113年06月出刊
關閉章節選單
文/簡陳中、鄭爲珊

掌握關鍵風險  落實監理準則 從人工智慧科技革命探討次世代影視產業的國際監理趨勢

一、前言

隨著人工智慧(Artificial Intelligence, AI)技術與應用的急速發展,人工智慧不但已經具備經濟學家所定義的「通用技術」(General Technology),並且每一類AI人工智慧的應用都正在催生各式各樣的互補性創新和商業機會。

商研院、資策會等國內與國外主要研究機構紛紛預警人工智慧已經開始對現在及未來商業產生深遠的影響,雖然全球的資料科學家、機器學習專家和人工智慧相關的專業人力仍然嚴重缺乏,但自從ChatGPT公開問世後,新聞出版與影視產業相關內容服務業的主要焦點,已不再是「人工智慧是否會取代新聞工作者」,而是新聞出版與影視產業相關內容服務業如何積極應用人工智慧,正面迎向這場史無前例的市場競爭。

二、AI人工智慧技術的優點及可能衍生之問題

人工智慧是指模擬人類認知能力的電腦計算技術,它已經改變了商業運作與人力需求方式,預期將深層地影響產業發展與競爭力移轉。其中,生成式人工智慧(Generative Artificial Intelligence, GenAI)隨著AI及運算技術成熟,也帶動AI生成內容(AI Generated Content, AIGC)熱潮。

生成式AI不但正在改變數位內容創作的格局,也對現有智慧財產權(Intellectual Property, IP)規則及法規帶來了考驗,IP相關問題正大量出現。雖然ChatGPT在西元2022年底一夕之間成為大眾生活及工作的必備工具,新聞出版相關內容服務業如何利用AI技術提高新聞內容生產和傳播效率,以及社群媒體平臺如何利用AI技術分析、預測用戶行為和消費偏好,以提高商業廣告行銷的精準度和效果,已成為各行各業探詢結合AI服務,發展創新商業機會的全球競速。

然而,受限於AI非人類及AI係透過參數、指令、演算法及大量學習產出之作品,並非人類投入心智勞動、思想情感之呈現(原創性不足),若參照我國「著作權法」第3條規定,在現行著作權法制下AI並無法成為著作權法中所定義的著作人,且不利於我國業者在未來運用AI生成內容發展商業機會與推升數位經濟成長。由於ChatGPT一夕之間成為大眾生活及工作者的必備工具之一,生成式AI儼然即將成為下一世代經濟發展的通用技術之一,無法掌握發展趨勢者恐將失去市場競爭力。

三、主要國際組織及歐美對運用AI的規範

()聯合國

聯合國教育、科學及文化組織(United Nations Educational Scientific and Cultural Organization, UNESCO)193個成員國在2021年11月25日一致通過一份人工智慧倫理全球協議的「人工智慧倫理建議書」(The Recommendation on The Ethics of Artificial Intelligence)。該建議書旨在實現人工智慧為社會帶來的優勢,並降低其帶來的風險,確保數位化轉型能尊重、保護和促進人權,解決透明度、問責機制和隱私方面的問題,並指出人工智慧正在加劇原已分裂和不平等的世界,我們應該重視並加以控制1

()OECD

經濟合作暨發展組織(Organisation for Economic Cooperation and Development, OECD)於2019年發布「人工智慧原則」(AI Principles),推廣運用「創新與值得信賴,且尊重人權與民主價值」的人工智慧。其並以價值為基礎,列出「包容性成長、永續發展及福祉」、「以人為本的價值與公平」、「透明與可解釋性」、「穩健及安全性」及「問責」等五項重要原則,建議各國政策制定者採用。

()美國

儘管向來對創新科技規範較為寬鬆的美國,也在2022年底提出「人工智慧權利法案藍圖」(Blueprint for an AI Bill of Rights),訂定AI需遵守防止歧視和保護用戶隱私與安全等五項原則。繼美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)在2023年1月發布「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)後,美國白宮也在2023年5月繼續提出「關鍵與新興科技國家標準戰略」(National Standards Strategy for Critical and Emerging Technology),希望透過不同的法規,逐步規範AI人工智慧的各項應用發展。

NIST以應對生成式AI潛在風險為目的,並考量生成式AI之發展速度、規模與帶來之廣泛變革,有即時因應之必要,於2023年6月成立新的AI人工智慧公共工作小組。此工作小組將招募志工與來自公、私部門之技術專家參與,NIST並以為此工作小組制定短期、中期與長期目標。在長期目標方面,該小組除將探索提高有效利用強大的生成式AI,以解決社會首要問題之機會,也將協助確保AI在應用開發與使用之前、期間與之後的風險管理問題2

()歐盟

值得我們關注的是,2024年3月13日歐洲議會也通過了「人工智慧法案」(Artificial Intelligence Act, AI Act),這不但是西方世界第一部完整的AI法規,更是全球首部特別針對AI人工智慧系統提出的全面性監管架構,期能確保人類基本權、民主、法治和環境可永續,不受高風險AI侵害,並促進創新發展。事實上,這部法案早在2021年就開始進行相關立法程序,但由於2022年底ChatGPT等生成式AI工具發布後,一夕之間在全球形成熱潮,歐盟又重新調整部分草案內容,推遲了一些時間才進行投票。目前,這個法案已成為全世界AI發展與治理的基調,象徵意義與後續影響都相當重大。

歐盟於2024年5月29日宣布正式成立「人工智慧辦公室」(Artificial Intelligence Office, AI Office),由一群科技專家、律師及經濟學家組成,將依據最新通過的「人工智慧法案」,對科技產業進行監管。歐盟提出的「尊重人類自主權、避免傷害、公平性、可解釋性原則」共四項可信任AI人工智慧倫理準則,可做為本研究的參考。

為落實這些倫理準則,人類社會必須藉由技術與非技術手段,於AI人工智慧系統的生命週期中,實踐「人類自主及監督、技術穩健與安全、隱私與資料治理、透明性、多樣性、不歧視性及公平性、社會與環境之福祉及可責性」共七項關鍵要求。

歐盟「人工智慧法案」試圖在防弊與興利間取得平衡,因此也設有各成員國可訂定為鼓勵創新而暫免特定法律嚴管的沙盒(sandbox)等規定。該法案定義了一個框架以說明人類發展人工智慧相關的風險,旨在確保進入並於歐盟使用之AI人工智慧系統,是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在兼顧創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(riskbased approach),即風險越高,管制規則就越嚴格,並根據它們獲得的資料,以及利用該資料採取的決策或行動,將風險分為四大類別:最小風險(Minimal risk)、高風險(High risk)、無法接受的風險(Unacceptable risk),以及特定透明度風險(Specific transparency risk),目的為管理或降低以下風險狀況:

  1. 禁止人工智慧系統中存在不可接受的風險;
  2. 避免侵犯人類的基本權利;
  3. 防止使用影響潛意識或是不道德的技術,因為其可能會影響或扭曲個人行為,從而對該人或其他人造成傷害;
  4. 盡量減少可能導致不公平或不準確結果的偏見;
  5. 限制因年齡、殘疾、政治立場或其他因素而對弱勢族群或群體進行剝削。

歐盟「人工智慧法案」規管範圍從供應商、開發經銷商,甚至組織高階職位、合規相關單位與部署人員皆有其應負義務。企業不合規的後果則取決於違規的程度,範圍可能會從限制市場到巨額罰款,違反此法將可能被處以750萬歐元至3,500萬歐元(約新臺幣2.6億至12億元)或企業全球營收1.5%至7%範圍內的罰款。

四、影視內容產業運用AI面臨的三大課題

對影視創作來說,人工智慧已是不可忽視的存在,加上OpenAI在2024年2月15日新推出的文本生成影片模型Sora一問世,不但立即成為柏林影展的討論焦點,也由於Sora生成的影片更接近真實世界的取景,人眼幾乎難以辨識這是AI模型所生成的影片內容。各界紛紛議論著Sora或將改變包括電影製作、廣告、遊戲開發和平面設計在內的一系列創意產業,Sora的誕生直接震盪了全球影視產業。

因此,影視內容產業運用AI人工智慧面臨的三大課題包括:內容創作、內容製作及內容行銷。

()內容創作與權利保護

AI人工智慧能夠分析大量數據,深度學習各式內容,除可了解受眾的喜好和市場趨勢,並可協助影視劇本創作者生成更符合觀眾口味與市場期待的故事內容。雖然,樂觀者認為,AI技術可以用於嵌入數位水印,以確保內容的版權,並追蹤未經授權的散布傳播。並且,AI可以用於檢測和過濾不當內容,保障用戶觀影體驗。此外,Sora這類AI工具,更能讓影音內容創作權,不再把持於少數擁有大筆資金的工作室手中,加速影視內容創作的民主化3。但許多學者仍悲觀地表示,憂心假政見、假醜聞影片會輕易流竄,進而左右民主國家的選舉。

()內容製作

儘管AI人工智慧技術可以用於生成逼真的視覺效果和特效,降低製作成本並提高效率。同時,AI在虛擬實境(VR)和擴增實境(AR)中的應用,使觀眾能夠更深度參與影視內容,包括在虛擬實境中嵌入廣告,以獲取更直接、沉浸式的體驗,創造更具互動性的體驗。

不過,根據美國概念藝術協會與動畫協會在2023年底委託進行的一項普查,全美娛樂產業接受訪談的300位主管,認為未來3年將有20萬個工作受到AI衝擊。超過九成受訪者認為,生成式AI在影視娛樂產業中的角色將更形重要,其中,除了視覺特效與影片後製工作已開始受到威脅,但音效工程師、配音員也預料將受到不同程度的影響。在Sora發布後,美國好萊塢知名製片及導演派瑞(Tyler Perry)認為人工智慧將導致電影業大量工作流失,因此直接暫停了耗資8億美元的亞特蘭大製片廠擴建計畫。

()內容行銷

平臺可以使用AI來分析用戶的影視娛樂觀看歷史、喜好和行為,從而提供個人化的內容推薦,提高用戶黏性。而廣告商可以使用AI來創建個人化廣告,根據觀眾的興趣、地理位置和行為來提高廣告的效果。加上AI能夠處理大量的數據,分析觀眾反饋、社交媒體趨勢等資訊,以幫助行銷團隊更好地了解目標受眾,結合機器學習演算法更可以自動優化影視娛樂廣告的投放策略,以確保廣告在最有效的時間和影視娛樂平臺上,被呈現給目標受眾,這些應用都將對影視娛樂相關的內容行銷產業造成多面向的衝擊。

五、影視內容產業運用AI訂定相關原則與指引之必要性

以歐盟「人工智慧法案」來說,針對沒有特定使用目的之「通用型人工智慧」(General Purpose AI)要求須有一定透明度,包括公布人工智慧訓練模型所用到的內容,並遵守著作權法規。例如ChatGPT就屬通用型人工智慧,可用於寫文章、編曲、作報告,當然也可能被有心人用來協助犯罪。因此,歐盟「人工智慧法案」對通用型人工智慧在資安、透明度和風險管理上,均有基本要求。

OpenAI技術長穆拉蒂(Mira Murati)承認,降低Sora遭濫用的風險也是延遲發布模型的原因之一。至今2024年仍在研擬限制生成的規範,並設法降低生成成本。

對於深度偽造AI人工智慧,歐盟「人工智慧法案」第52條(3)規定4:「人工智慧系統的用戶生成或操縱文本、聲音或視覺內容,這些內容在未經用戶同意的情況下,會錯誤地顯得真正或真實(深度偽造),內容描述人們看起來在說或做某些事,但實際上他們沒有說過或做過,應以適當、及時、清晰和可見的方式,揭露該內容是人為生成或操縱的,並盡可能揭露生成或操縱該內容的自然人或法人的姓名。揭露是指以某種方式標記內容,告知該內容不真實,且讓該內容的接收者可以清楚地看到。在標記內容時,用戶應考慮一般公認的技術水準,以及相關的統一標準和規範。」

對於上述深度偽造AI人工智慧的揭露義務,歐盟「人工智慧法案」第52條(3a)規定了例外無須揭露的情況。此規定似乎未限於深度偽造,只要是所有生成式AI生成的結果,可能都適用這一項,其規定:「當使用生成或操縱文本、聲音或影像內容的人工智慧系統是由法律所授權,或者是為行使歐盟基本權利憲章所保障的言論自由權利、藝術和科學自由所必要,且兼顧第三人的權利自由的適當保障,則不適用前述第3項規定。如果內容構成明顯創意、諷刺、藝術或虛構的電影、影像遊戲視覺效果和類似作品或節目的一部分,第3項規定的透明義務僅限於,在不妨礙作品展示和揭露適用著作權的前提下,以適當、清晰的方式揭露此類生成或操縱內容的存在。其並不影響執法機構使用,旨在檢測深度偽造並預防、調查和起訴與其使用相關的刑事犯罪人工智慧系統。5

創用CC(Creative Commons)創始人、哈佛大學法學院教授勞倫斯・雷席格(Lawrence Lessig)於民國112年來臺灣訪問演講時曾提到:「我們應該將Web3視為基礎建設,這是用於實現智慧合約(smart contracts)的重要基礎設施」。雷席格表示,Web3是程式碼(code),能更好地處理私法、公法、契約及各種協議,他將此論述稱為「程式碼即法律」(code is law)。問題是,對大多數人來說,程式碼是一部機器,因此人類似乎被排除在這個論述之外。雷席格強調,「程式碼即法律」不代表程式碼就是唯一的法律,他認為這正是AI人工智慧的機會。也許在不久的將來,AI人工智慧就能做為Web3和法律之間的介面,提供人們理解技術的機會,也讓Web3更可能做為法治系統的基礎設施6

雷席格認為,AI與Web3的組合,比起現有法治系統更有效率,可及性也更高。但這個理想不會自動被實現,應該明確制定原則,引導AI做為法治基礎設施的運作,他提出以下五點:

雖然,AI人工智慧生成影片的商業性應用於臺灣尚屬萌芽階段,但為因應國際的工業4.0趨勢,各先進大國亦皆已如火如荼推動國家級的AI人工智慧發展策略,位居全球ICT重要供應鏈的我國,對於人工智慧相關立法的準備,起步並未落後世界太多。

回顧立法院曾在106年由許毓仁等21立法委員共同提出一份14條的「人工智慧發展基本法」草案。商研院、資策會科技法律研究所等國內與國外主要研究機構,也紛紛預警人工智慧已經開始對現在及未來商業產生深遠的影響,至於這些規範是否會有效保護AI使用者與利害關係人,或者反而扼殺創新科技的進步?因為牽涉層面過廣,仍需要不同領域專家投入,進行產官學研與專業跨領域對話。

本文認為針對影視內容產業訂定運用AI相關原則與指引,有其必要性與急迫性,參考前述國際組織、美國與歐盟等主要國家監理機關針對影視內容運用AI之相關指導原則,提出以下六項運用AI之原則指引:

因此,本文建議我國應參考歐盟作法,於公部門設立一個「人工智慧辦公室」(Artificial Intelligence Office,簡稱AI Office),負責執行人工智慧法案的「共同規則」(common rule),這個組織運作組成有三個部分,說明如下:

  1. 人工智慧辦公室:該辦公室有權執行共同規則,並確保對最先進的人工智慧模型進行市場監控,應具有法人獨立性。該辦公室將負責推動人工智慧標準和測試實務運作,也有權將通用目的AI(General Purpose AI, GPAI)指定為「高影響通用型人工智慧系統風險」。
  2. 科學專家小組:為協助人工智慧辦公室,由獨立專家組成的科學專家小組。該小組將擔任諮詢角色,為通用型AI的評估方法發展、通用型AI的選擇和影響諮詢,以及安全監控提供意見。
  3. AI人工智慧指導委員會:由產官學研的代表組成,充當協調平臺和諮詢機構。該委員會將在實施人工智慧法案方面發揮關鍵作用,包括為通用型AI訂定實踐準則。此外,該委員會應建立一個諮詢論壇,蒐集來自利益相關方(如行業代表、中小企業、初創企業、公民社會和學術界)的意見,以提供技術專業知識。

六、結語與建議

當人工智慧快速發展正不斷衝擊各國社會經濟文化等關鍵領域,如何平衡技術創新帶來之便利,以及保護人類基本權利,已是各國立法重點。

雖然影視內容產業應用人工智慧,依舊面臨著包括大數據內容資料不足、缺乏人工智慧分析人才、使用層面尚未明確、人工智慧使用費用門檻高、生成式內容與預測的不確定性、資料來源真實性受懷疑等諸多發展課題與挑戰,但全球產業界關注的焦點已不再僅是人工智慧能否與影視內容產業結合發展商業,而是影視內容產業界要如何更積極地應用人工智慧,趕上競爭對手或拉開與追趕者的領先距離,以及政府應如何加快提供適合人工智慧結合影視內容市場良性發展的遊戲規則與倫理規範,促成人工智慧發展影視內容相關倫理規範之制定,幫助自由市場創造一場正面競爭,以促進正在典範移轉中的影視內容產業與數位經濟發展,更為健全及繁榮茁壯。

本文建議我國應儘早完成「人工智慧發展基本法」立法,並參考歐盟作法,於公部門設立一個「人工智慧辦公室」,同時,有鑑於執法機構未來會需要進行檢測深度偽造,並預防、調查和起訴與其使用相關的刑事犯罪人工智慧系統,參酌勞倫斯・雷席格(Lawrence Lessig)的建議,Web3的「智慧合約」(smart contracts)應該是未來人工智慧時代必須具備的重要資訊關鍵基礎建設,以促進相關內容產業的健全發展。

最後,影視業者更應加速找到善用人工智慧技術的方式,結合開放式創新(Open Innovation)的模式,利用外部的AI人工智慧技術和構想,與各界合作來提升影視內容產業企業的智慧營運能力,改善或創造出具有獲利的新商業模式。因此,我國除已投入研究、開發與整合人工智慧之技術資源外,更應發揮我國創新能力,加速促成更多AI人工智慧商業機會的發展,藉以同時兼顧國人生活品質之社會、經濟與自然環境均衡發展,促成人工智慧發展倫理規範之制定,使我國在快速變遷的高科技時代與全球ICT重要供應鏈中,與先進國家一同位居全球人工智慧發展的領先群。

(本文作者為財團法人商業發展研究院國際發展服務中心副主任、財團法人電信技術中心管理師)

  1. 1參見:聯合國教育科學文化組織新聞稿(UNESCO member states adopt the first ever global agreement on the Ethics of Artificial Intelligence),2021年11月25日,網址:https://www.unesco.org/en/artificial-intelligence/recommendation-ethics(最後瀏覽日期:2024年4月14日),建議書全文請見:聯合國教育科學文化組織網頁,網址: https://unesdoc.unesco.org/ark:/48223/pf0000381137_chi (最後瀏覽日期:2024年4月14日)。
  2. 2參見:人工智慧風險管理框架(AI RMF)https://ai.iias.sinica.edu.tw/ai-risk-management-framework/NIST(2023). Biden-Harris Administration Announces New NIST Public Working Group on AI. https://www.nist.gov/news-events/news/2023/06/biden-harris-administration-announces-newnist-public-working-group-ai
  3. 3參見:Sora是什麼?為何尚未上市,就震驚好萊塢?全球工作衝擊一次解析。https://www.gvm.com.tw/article/111106
  4. 4參見:EU AI Act, Parliament Negotiation Position, Article 52(3).
  5. 5參見:EU AI Act, Parliament Negotiation Position, Article 52(3a).
  6. 6參見,哈佛法學教授雷席格:我們正處於AI的「奧本海默時刻」,好壞永遠並存。https://futurecity.cw.com.tw/article/3183

搜尋本期內容

關閉搜尋

分享本文章

關閉分享