Facebook系統助長了針對羅興亞人的暴力;Meta應進行賠償

國際特赦組織在2022年9月發布的一份報告中表示,隸屬於Meta的Facebook擁有危險的演算法以及魯莽追求利潤的行徑,在很大程度上助長了緬甸軍方在2017年對羅興亞人犯下的暴行。

《社會暴行:Meta與羅興亞人獲得補償的權利》(The Social Atrocity: Meta and the right to remedy for the Rohingya)這份報告,詳細說明了Meta公司已經知道、或理應知道Facebook的演算法正在加速有害的反羅興亞內容在緬甸傳播,但Meta卻仍未採取行動。

國際特赦組織秘書長阿格妮斯・卡拉馬爾(Agnès Callamard)表示:「2017年,作為緬甸維安部隊種族清洗行動的一部分,成千上萬的羅興亞人被殺害、施以酷刑、強暴和被迫流離失所。在暴行發生的前幾個月,甚至前幾年裡,Facebook的演算法加劇了對羅興亞人的仇恨,因而助長了現實世界的暴力。」

Meta公司必須負起責任。該公司有責任向所有因Meta的魯莽行為而遭受暴力的人們提供賠償。

國際特赦組織秘書長阿格妮斯・卡拉馬爾

「當緬甸軍方對羅興亞人犯下危害人類罪,Meta利用其激化仇恨的演算法所創造的同溫層獲取利益。」

「Meta公司必須負起責任。該公司有責任向所有因Meta的魯莽行為而遭受暴力的人們提供賠償。」

此份關於羅興亞人獲得補償的權利之研究報告委託的插畫作品。© Tamara-Jade Kaz
此份關於羅興亞人獲得補償的權利之研究報告委託的插畫作品。© Tamara-Jade Kaz

21歲的羅興亞難民Sawyeddollah告訴國際特赦組織:「我在Facebook上看到了很多可怕的事情。我只是覺得發文的人很糟⋯⋯然後我意識到不只是這些發文的人有責任,Facebook也有責任。Facebook不照顧自己的平台,就是在助長這些人。」

羅興亞人是居住在緬甸北部若開邦(Rakhine State)以穆斯林為主的少數民族。2017年8月,超過70萬名羅興亞人逃離若開邦,當時緬甸維安部隊發起了一場針對羅興亞人的系統性大規模謀殺、強暴和焚毀房屋行動。數十年以來,緬甸政府支持針對羅興亞人實施構成種族隔離的歧視、迫害與壓迫,接著就發生了這一連串的暴力行動。

 

反羅興亞人的同溫層

Meta使用基於參與度的演算法系統,為Facebook的動態、排名、推薦和社團功能提供支持,塑造平台上的內容。Facebook讓用戶盡可能長時間停留在平台上,透過定向廣告來獲利。展示煽動性內容,例如宣揚仇恨、構成煽動暴力、敵意和歧視的內容,是讓人們在平台上停留更長時間的有效方式。因此,推廣和放大這種類型的內容是Facebook以監控為基礎的關鍵商業模型。

在種族清洗之前的幾個月和幾年裡,緬甸的Facebook已經成為反羅興亞人內容的同溫層聚集地。與緬甸軍方和激進佛教民族主義團體有關的行為者,在Facebook平台上發布大量反穆斯林的內容,也發布虛假資訊聲稱穆斯林即將進行接管,更將羅興亞人描繪成「入侵者」。

在一篇被分享超過1,000次的貼文中,一名穆斯林人權捍衛者被描繪成「國家叛徒」。貼文下面的留言包含威脅和種族歧視的訊息,包括「他是穆斯林。穆斯林是狗,需要被射殺」,以及「不要讓他活著。移除他的整個種族。時間正在滴答地流逝。」

煽動暴力和歧視的內容傳到了緬甸軍方和文職領導階層的最高層。2017年,緬甸軍方領導人敏昂萊將軍(Min Aung Hlaing)在他的Facebook頁面上發文:「我們公開聲明,我們國家絕對沒有羅興亞民族。」接著他在2021年2月的政變中奪權。

2022年7月,國際法院(ICJ)裁定其有權根據《種族滅絕公約》基於緬甸對待羅興亞人的方式對緬甸政府提起訴訟。國際特赦組織歡迎這項對緬甸政府追究責任的重要一步,並繼續呼籲將緬甸軍方高層繩之以法,因為他們在針對羅興亞人的罪行中扮演要角。

2014年,Meta試圖透過為Facebook用戶發布系列貼圖,來支持公民社會引領的反仇恨倡議行動。此項倡議被稱為「Panzagar」或「鮮花言論」(flower speech),以回應鼓吹暴力或歧視的內容。貼圖上寫著諸如「分享前請三思」(Think before you share)和「不要成為暴力的源頭」(Don’t be the cause of violence)之類的訊息。

然而,社運人士很快就注意到這些貼圖產生了意想不到的後果。Facebook的演算法將這些貼圖的使用理解為人們喜歡這些鼓吹暴力或歧視的貼文,並開始推廣這些貼文。貼圖並沒有降低看到仇恨貼文的人數,反而讓這些貼文更顯眼。

聯合國緬甸問題國際獨立實況調查團最終得出結論,在一個「Facebook就是網路」的國家,「社群媒體在暴行中扮演了 [非常] 重要的角色」。

羅興亞人只是夢想著和這個世界上的其他人一樣生活⋯⋯但是你,Facebook,你毀了我們的夢想。

羅興亞社群成員Mohamed Showife

羅興亞社運人士Mohamed Showife說:「羅興亞人只是夢想著和這個世界上的其他人一樣生活⋯⋯但是你,Facebook,你毀了我們的夢想。」

Facebook未能採取行動

國際特赦組織此份報告詳述了Meta如何屢次未能對其在緬甸的業務進行適當的人權盡職調查,儘管根據國際標準Meta有責任要做盡職調查。

2012年的內部研究顯示,Meta知道自己的演算法可能會對現實世界造成嚴重危害。2016年,Meta自己的研究清楚地承認「我們的推薦系統滋長了極端主義的問題」。

2012年至2017年期間,Meta多次收到當地公民社會運動人士的來信和拜訪,當時Meta公司就被警告可能助長了極端暴力。2014年,緬甸當局甚至因Facebook平台在曼德勒引發種族暴力事件而暫時封鎖了Facebook。然而,Meta一再忽視這些警告,也始終未能確實執行自己的仇恨言論政策。

我們的推薦系統助長了這些問題。

Meta 2016年的報告

國際特赦組織的調查包括分析來自「Facebook文件」的新證據——由吹哨者Frances Haugen洩露的內部文件匣。

在一份日期為2019年8月的內部文件中,一名Meta員工寫道:「我們從各種來源獲得的證據顯示,仇恨言論、分裂性政治言論和Facebook上的錯誤資訊⋯⋯正在影響世界各地的社會。我們還有令人信服的證據表示,我們的核心產品機制,例如爆紅、推薦和參與度優化,是上述這些類型的言論在平台上蓬勃發展的重要原因之一。」

「Meta必須賠償」

國際特赦組織發起倡議行動,呼籲 Meta Platforms, Inc. 達到羅興亞人獲得補償的要求。

2022年9月29日,是若開羅興亞和平與人權協會主席、著名社運人士Mohib Ullah遇害一週年的日子。Mohib身處於羅興亞社群的最前線,努力追究Meta的責任。

羅興亞難民團體已直接請求Meta提供補償,要Meta為孟加拉科克斯巴札爾難民營一項100萬美元的教育計畫提供資金。這筆資金請求僅佔Meta從2021年開始的467億美元利潤的0.002%。2021年2月,Meta拒絕了羅興亞社群的請求,聲稱:「Facebook不直接從事慈善活動。」

Facebook必須付出代價。若他們繼續置身事外,我們會踏遍世界上的每個法院,絕不在困境中妥協。

羅興亞社群成員Showkutara

22歲的羅興亞女性和青年社運人士Showkutara告訴國際特赦組織:「Facebook必須付出代價。若他們繼續置身事外,我們會踏遍世界上的每個法院,絕不在困境中妥協。」

至少有3起正在進行的申訴,要Meta為羅興亞人提供補償。2021年12月,英國和美國對Meta提起了民事訴訟。羅興亞難民青年團體還透過美國的經濟合作暨發展組織國家聯絡處,向經濟合作暨發展組織提起了針對Meta的訴訟。訴訟目前正在審議中。

「根據國際人權標準,Meta有責任補救羅興亞人所遭受的可怕傷害,因為他們助長了這些侵害行為。調查結果必須引起人們的警覺,也就是Meta有可能助長更嚴重的人權侵害,除非Meta對其商業模式和演算法進行根本性的改變。」國際特赦組織秘書長阿格妮斯・卡拉馬爾表示。

「演算法系統需要緊急而廣泛的改革,以防止演算法遭到濫用,也必須提高演算法的透明度,以確保Meta與羅興亞人的歷史不會在世界其他地方重演,尤其是種族暴力正在醞釀的地方。」

「最後,各國現在必須透過訂定和執行有效的法律,來控管科技相關單位奠基於監控的商業模式,進而保護人權。當面臨如此巨大的利潤時,大型科技公司已經證明自己無法做到保護人權這件事。」

2022年5月20日,國際特赦組織針對Meta公司在緬甸2017年發生暴行之前和暴行期間所進行的相關商業活動致函Meta。Meta回應表示,無法提供2017年之前的資訊,因為該公司「目前正在就相關事項進行訴訟程序」。

2022年6月14日,國際特赦組織針對報告中的相關指控再次致函Meta,並給予該公司回應的機會。Meta拒絕予以回應。

因為你 我們有改變世界的力量

鼓舞人們 挺身關切不義 驅動人性 心存同情同理 攜手人群 讓世界更親近 致力人權 全球普世共享