社交媒體推薦演算法的透明化機制

Introduction

原始文獻:Transparency Mechanisms for Social Media Recommender Algorithms: From Proposals to Action, Tracking GPAI's Proposed Fact Finding Study in This Year's Regulatory Discussions, Nov 2022, GPAI Tokyo Summit 2022
編譯:呂昆昌、嚴治翔 
校對:中央研究院法律學研究所資訊法中心黃泰然執行長(美國史丹福大學法學院博士候選人)
研究團隊:AI人文法制基礎環境建置計畫


本計畫的研究動機:

眾多社群媒體透過名為推薦系統(recommender system)的AI將更適合於用戶的內容呈現給其用戶。所謂的推薦系統,係利用機器學習的技術提供用戶過去經常接觸的資訊。這樣的AI越來越普遍,也越來越具影響力。

(註:本計畫係指GPAI研究計畫-Transparency Mechanisms for Social Media Recommender Algorithms,以下同)


本計畫的問題意識:

本計畫緣起於對推薦系統可能提供有害的資訊予用戶的擔憂,這種擔憂可再分為兩個層面。首先是技術面的問題,與推薦系統學習的AI方法有關。其次則是政治與社會面的問題,因為推薦系統與用戶會對政治輿論產生重大影響。就現狀而言,我們對社群媒體如何傳遞內容給用戶並不清楚。然而對政府、大眾而言,知悉推薦系統的上述問題是重要的。


本計畫的研究內容:

1.在本計畫的第一階段,我們回顧了幾個研究推薦系統對用戶平台行為影響的可能方法。我們的結論是,可使用於研究這些影響的最佳方法,即是社群媒體公司自己使用的方法。我們提倡透明機制,將公司之內部方法用於解決推薦系統可能造成的公益問題。

2.我們專注於恐怖主義和暴力極端主義內容(Terrorist and Violent Extremist Content,下稱TVEC)。對此,我們的主張強化事實調查研究,我們認為該方法可在不損害用戶權利或公司智慧財產權之情況下,揭示推薦系統影響各該領域的相關資訊。我們在去年的GPAI峰會上便提出並支持該事實調查研究。

3.過去一年,我們的目標係在一個或多個社群媒體公司中實驗我們提議的事實調查研究;並參與多項與TVEC相關的國際倡議。在最近的基督城峰會上,我們宣布了一項我們所倡導的實驗計畫,該計畫涉及兩個政府(美國與紐西蘭)和兩家科技公司(Twitter和微軟),由第三方組織OpenMined開發的隱私增強技術。


五點建議:

1.我們建議公司工程師應該參與更多討論。目前,公司主要由法律和政策團隊擔任代表。但相關問題涉及公司內部的技術機制,工程師仍可在適當的保密安排下提供貢獻。

2.雖然隱私增強技術可能非常有價值,但我們預見到公司和外部利益相關者之間需就這些技術持續討論。隨著技術的發展和新問題的出現,這些技術的功能可能需要擴展或調整。

3.我們不認為隱私增強技術可以替代與工程師的討論。儘管隱私增強技術仍在持續發展,我們仍認為與工程師的討論應立即開始;即使這些技術首次施行之後,我們也預見仍須與工程師討論。

4.我們建議有關推薦系統的透明度討論,應集中在特定公司實驗計畫(pilot project)的規範和實施上。與公司工程師討論,確定可能的實驗計畫。然後,提議的實驗可以提供與公司律師討論所需的具體重點,以保護用戶權利與公司之智慧財產權。

5.隨著社交媒體平台的不斷變化和發展,我們預見推薦系統透明度機制的實驗將持續扮演重要角色。我們建議有關實驗的討論可由獨立的、居於公司與政府之間的監督機構協調。