G7廣島AI進程觀測(上)

Introduction

編譯者:工研院產科國際所胡睿宸研究員、洪綉卉研究員
研究團隊:Taiwan AICoE推動辦公室計畫
資料來源:G7 Hiroshima Process on Artificial Intelligence (OECD,2023/09)


趨勢:

七大工業國集團(G7)於2023 年4月29日至30日群馬縣高崎市舉行之數位技術部長會議中達成共識,成員國應就人工智慧採取風險性(risk-based)監管,但應「保留開放及賦能環境」予AI技術發展空間,並以民主價值作為基礎;更強調討論各AI治理框架間之互通性、以及評估生成式AI帶來之機會與挑戰的重要性。同年5月於廣島舉行之G7領袖峰會發表聯合聲明,為發展可信任AI並規範 AI之應用,各國應開發並施行符合G7價值觀之國際技術及監管標準,且有必要立即評估生成式AI之機會與挑戰,並合意設立部長級論壇「廣島AI進程」(Hiroshima AI Process)並將與OECD及人工智慧全球夥伴聯盟(GPAI)合作,討論生成式AI相關事務。經同年6月由日本向G7成員國發送調查問卷,評估七國現行與規劃之政策措施,以及對於生成式AI機會與風險之判斷。


生成式AI已為人工智慧領域中,受到學術或大眾所廣泛討論的主要議題之一,預期將創造龐大經濟價值,企業已開始採用生成式AI技術以創造新商機,新創公司亦爭取AI創投合作。生成式AI已進入普羅大眾的意識,且頻繁出現於日常生活中,相關新聞與推特文章數量急遽增長。同時,對生成式AI開發的研究與創投亦大幅增加,僅2023年上半年,全球對生成式AI新創公司之創投總額,即已達到120億美元。另外,自2019年至2022年與生成式AI相關之科學出版品數量增長數倍,依OECD研究指出,應可歸因於對Transformer模型與運算能力進步等根本性創新(Fundamental Innovation)的研究興趣增強,亦為大型語言模型發展奠定基礎。


開源社群(Open Source Community)扮演人工智慧進步的驅動力,此趨勢在生成式AI脈絡下亦無改變。2022年10月以來,運用開源AI模型發展生成式AI系統之數量明顯遽增,以Hugging Face為例,文本生成模型於Hugging Face儲存庫被上傳的數量不斷的增加,2023年4月文本生成(Text Generation)單月上傳數即達400筆以上。另外,從GitHub資料平臺上可見,自2017年起與生成式AI發展相關之開源程式碼,即以穩定軌跡成長,可見生成式AI是程式碼穩定且漸進發展的成果。相較之下,生成式AI開源程式碼(Open Source Code)較之開源模型(Open Source Model)的發展,有更為穩定的成長。


風險:

生成式AI 雖具潛力以積極的方式徹底改變產業與社會,惟使用上也為個人與社會帶來極大的風險。例如出於惡意目的,散播假訊息而導致嚴重不良後果的深偽技術(Deepfakes)。因認知人工智慧技術的多用途性質及其部署方式,促使OECD制定了「全球人工智慧風險監控」(Global AI Incidents Monitor)平臺,提供人工智慧風險的事件觀測,為政策決策提供資訊與證據。


根據2023年6月進行之問卷調查顯示,生成式AI帶來的前五大機會,包含生產力提升、促進創新與創業、改善醫療照護、解決氣候危機問題、教育普及化;另外調查亦顯示,G7成員國認為生成式AI亦將帶來諸多風險,前五大風險議題為假訊息操弄、侵犯智慧財產權、隱私權威脅、偏見與歧視、安全風險。可知G7成員國對於生成式A帶來的偏見歧視、意見兩極化、侵犯隱私與安全等問題,將可能對人民和社會造成危害感到重視,於關注生成式AI帶來機會的同時,亦重視風險議題的解決。


依上述問卷調查顯示,負責任使用生成式AI,為多數G7成員國評斷最為急迫處理的優先事項(Most Urgent Priority)與最重視的政策事項(Most Important Priority);防止虛偽資訊對國家之影響、以及妥善管理生成式AI,亦為各國列入優先處理事項之一;因應生成式AI對資安與生物安全(Biosecurity)的威脅,以及促進透明度與保護智慧財產,雖非最為優先事項,仍亦受到各國關注。


作為:

從施政觀點檢視,隱私與治理被列為與生成式AI相關問題中最迫切需關注的議題,其次為公平與偏見、人類基本人權等項目,至於勞工市場衝擊或稅收影響等則較無關注共識。有鑑於此,G7各國於自身國內法規措施制定與規劃中,日本以現有法律框架及指南(如《人工智慧研發指南》),因應生成式AI趨勢,整合與修訂指南促使開發者、提供者及使用者易於理解。英國以跨政府合作評估目前相關措施的影響程度,以人工智慧供應鏈的各階段來規劃其配套措施。美國制定聯邦部門和機構遵循的指導意見,以強化人工智慧治理、推進人工智慧採購和管理演算法,啟動生成式AI公共工作小組,制定風險管理框架,更由總統簽署行政命令以規劃相關進程。


另外,加拿大方面發布《人工智慧與數據法》與《先進人工智慧系統負責任開發和管理自願行為準則》,建立制度化規章;法國考量GDPR、歐盟版權與AI法案中強調的治理及負責任AI,並投資自身生成式AI計畫與投入培養相關企業。德國以國際合作參與歐盟及G7的相關討論,聯邦議會數位事務委員會辦理生成式AI公聽會,討論評估方式、應用、經濟社會影響、監管挑戰、負面問題等。義大利修正規劃並設立組織,修訂2021年版《人工智慧戰略規劃》並開始接受公眾諮詢,數位轉型部設立人工智慧委員會與投資AI新創等。


總結:

於面對生成式AI的發展,G7成員認為於現行政策對於生成式AI的推動而言,仍存在尚未完善的缺口。G7成員國之實施政策雖具明顯差異,惟多數成員均同意在資訊可信、透明度、負責任使用技術,為目前面對生成式AI挑戰時,須盡速因應與推動的方向。未來G7成員國所組成之廣島進程,將持續制定指導方針及建立治理機制並滾動修正調整,同時亦強調參與AI國際治理的必要性,法律體制及技術進步間的落差需要有緩解措施來彌補,建議透過國際層面的合作,共同探討並制定全面且一致性的緩解方案。另外,為因應大量生成式虛假資訊,全球亦須藉由國際合作機制,共同合作打擊虛假資訊。再者,亦將提供指導原則與開發行為準則,協助開發及使用生成式AI之相關企業適應制度變化,尋求利益關係者的反饋與主動參與,俾利於完善法令正式監管與生效時可充分提前因應。