針對《人工智慧基本法》三讀通過之聲明——不能只有原則,卻沒有保障 

今日,立法院完成《人工智慧基本法》三讀程序,對於台灣首次試圖以法律形式回應人工智慧快速發展所帶來的社會衝擊,我們肯定立法機關正視人工智慧議題的重要性。然而,我們也必須嚴正指出:目前通過的《人工智慧基本法》,仍停留在空泛的「基本要素宣示」,欠缺具體義務、權利保障與可執行的治理機制,難以回應人工智慧對基本權利所造成的實質風險。 

國際特赦組織曾揭露全球人工智慧應用所產生的人權衝擊,例如對移民與流離失所者構成高度人權風險,常被用於邊境監控、風險評分與庇護審查,進而侵害尋求庇護的基本權利。在社會福利領域,演算法被用於托兒與補助審核,卻因偏誤資料而加劇對少數族群的歧視。國際特赦組織亦警覺,不應以「國家安全」為由,使人工智慧應用免於民主監督;另有國家將監控型人工智慧系統出口至人權紀錄惡劣的地區,助長迫害與鎮壓。對此,我們認為相關法規的建置亟需完善人權保障與監督機制。

一、強化法律約束力,不能只有原則宣示

現行版本多以抽象價值與政策目標作為規範核心,但未將這些原則轉化為對政府機關、人工智慧系統開發者與使用者具有拘束力的法律義務。在缺乏明確責任主體、義務內容與罰則的情況下,「人工智慧治理」恐流於口號。

二、建立風險分級與禁止紅線 

人工智慧並非中立技術,其風險高度取決於使用場景與權力關係。應建立清楚的風險分級制度1,並且明文禁止「不可接受風險(unacceptable risk)」之應用,例如大規模生物辨識監控、情緒辨識、社會評分、預測性執法或移民風險評估系統。

三、給予人民實質權利與救濟途徑 

應賦予人民任何可主張的實體權利,例如拒絕受到高風險人工智慧系統影響的權利、知情、申訴與救濟權。當人工智慧系統被用於行政處分、社會福利、就業、教育、金融或治安領域時,受影響者卻無從得知或難以救濟,這與民主法治國家對權利保障的基本要求明顯不符。

四、防止基本權利侵害 

現行法案中未見針對結構性歧視的預防機制,人工智慧系統的錯誤與偏誤,往往不成比例地傷害特定群體,且既有的不平等可能被系統放大。應設立獨立且具實權的監督機構,要求進行具實質意義的基本權利影響評估。

我們呼籲

立法院與主管機關應在後續立法與修法中: 

  1. 將抽象原則轉化為具體法律義務與責任,以保障面對潛在衝擊的不同族群;
  2. 建立以基本權利為核心的人工智慧風險分級制度,禁止或限制不可接受的有害人工智慧技術,尤其是遠端生物特徵識別(RBI)系統,例如公共場所的人臉辨識;評估過程中應納入受影響社群與公民社會參與。
  3. 賦予人民可主張的知情權,並建立可近用的救濟機制; 
  4. 所有部署高風險人工智慧的單位(包括私部門)應負有資訊揭露義務,並進行基本權利影響評估(FRIA)。 

人工智慧治理不能只為產業鋪路,更必須為人民設防。 

一部真正負責任的人工智慧法律,不應只是宣示未來願景,而必須在當下就能保護每一個人不被技術權力所侵蝕。

因為你 我們有改變世界的力量

鼓舞人們 挺身關切不義 驅動人性 心存同情同理 攜手人群 讓世界更親近 致力人權 全球普世共享