《Undertones》想要津貼?那就學好荷文、當個男人

插圖來源:全球之聲

這是全球之聲「公民媒體觀測站」電子報《Undertones》最新一期的內容。不想錯過這類文章?你可以在這裡進行訂閱。

這裡是《Undertones》電子報,解讀論述一把罩。在這一期的電子報中,我們很榮幸能夠邀請到資料科學家 Leon Ingelse,來和我們一起談談大家在荷蘭,是如何看待人工智慧(AI 技術)的(不當)使用。

Ingelse 曾就荷蘭社會對於演算法的討論做過一番分析。在這個低地國家,「演算法」可是個重要議題:畢竟不過兩年多前,他們才因為「利用 AI 判別社福詐騙」的做法出了紕漏而導致內閣總辭。多年來,有上千個(多具移民背景的)家庭被錯誤指控「詐領育兒津貼」;而荷蘭這個向來以自身效率為傲、以公共服務之科技應用自豪的國家,這下成了 AI 運用的反面教材,讓大家看到 AI 的不當使用會怎樣對個人的生活產生危害、也讓大家對政府失去信任。

然而時至今日,荷蘭各地市府卻仍持續沿用這類演算法,來協助他們處理這個以歐洲國家的角度來看,可說是長期無解的難題:哪些人更有可能涉及社福詐騙。但與此同時,他們也以個人隱私與智財考量為由,讓記者、研究人員都難以接觸到這項技術的相關資訊──荷蘭第二大城鹿特丹,是這當中唯一的例外。近日鹿特丹當局終於同意,將他們所使用的演算法架構分享給來自 Lighthouse ReportsFollow The Money 兩家媒體的調查記者;但他們卻也在這個過程中,不小心將他們用來訓練這個模型的資料給分享了出來,從而讓我們有機會能夠深入地去了解,這套演算法到底是如何運作的。

記者發現,這套演算法事實上相當於一份針對個人的綜合評量;評估的項目則是從年齡、性別、婚姻狀態、到行為和語言能力,不一而足。當初協助鹿特丹當局開發出這套演算法的,則是 Accenture 這家顧問公司。

根據 Lighthouse 的報導:「他們餵給這套演算法的資訊,有些相當侵犯個人隱私(如當事人的上一段感情維繫了多久)、也很主觀(如當事人是否有能力說服或影響他人);有些則像是例行公事(如當事人寄過多少電子郵件給市府)、或看似無關緊要的小事(如當事人是否有運動的習慣)。」

確切來說,如果你(a)身為女性、(b)會說多種語言、(c)年齡在二、三十歲,且(d)有小孩,那麼不論你過去的紀錄為何,這套演算法都會將你貼上「可能詐領津貼」的標籤;如果你在社工面前表現得相對羞澀,你詐騙的嫌疑就會更大。你不會知道自己是否已被演算法列入了黑名單,也不會知道自己被列入黑名單的原因;就算覺得不安,你還是得接受主管機關的調查,也不一定保得住你的社福津貼。

截圖:鹿特丹當局所採行之演算法背後的社福詐騙風險評估標準(資料重建:Lighthouse Reports)

Ingelse 指出:「荷蘭人通常不覺得自己有結構性的種族歧視,但這套演算法卻明明白白地告訴我們,事實並非如此──因為荷語不好的人,確實〔在這個機制底下〕受到了差別對待。」與此同時,荷蘭政府所採用的其他演算法,也被發現帶有歧視性質──比方說,基於申請人的國籍與種族來判定是否給予簽證。

演算法存在偏見,早已不是新聞

這並不是第一次有記者指出,用以評估風險的演算法本身帶有偏見。早在 2016 年,ProPublica 的一項調查便曾經披露:在美國的刑事司法系統中,黑人受刑人被誤判為「再犯風險偏高」的機率是其他族裔的兩倍;而白人受刑人被誤判為「再犯風險偏低」的機率,卻是其他族裔的兩倍。來自 Lighthouse 的專家在針對鹿特丹進行調查報導時更發現:運用 AI 來進行輔助判別的結果,也不比隨機篩選個案來進行調查要高明多少。

而演算法之所以會帶有偏見,可能是因為訓練資料不足、資料有所偏頗,也可能是開發人員自身的偏見所致。當然,現行體制當中所存在的偏見,也並不都是演算法的錯。

大眾對於 AI 相關的負面新聞,有何觀感?

在荷蘭,大眾很少透過推文或貼文來表達他們對於這類消息的看法;相對來說,他們更常在〔相關推文/貼文底下的〕留言區隔空交戰。發起這類論戰的,多是新聞從業人員;而這些留言,也意外地呈現出不少有趣的觀點。

Ingelse 覺得:「這可能是因為荷蘭人對於這類社福詐騙的議題,已經感到疲乏了吧;現在他們對 ChatGPT 更感興趣。除此之外,牽涉到這些負面新聞的公眾人物,也都巧妙地迴避了相關問題,閉口不談自己在這中間都扮演了什麼樣的角色。」他補充說,通常會被這類演算法波及的,都是社會上那些缺乏關注的弱勢族群:「有沒有留意過,這一類的演算法,都不會被拿去用在那些會影響到富人的地方──像是稅務詐騙的風險評估?」

我們聯繫了鹿特丹當局,也試著聯繫了一些近來因這套演算法而受累的家庭,想聽聽他們的說法。但截至目前為止,還沒有收到任何回應。

論述一:只要能夠幫助打擊犯罪,即便演算法帶有偏見,也還是得用

簡言之:「演算法只是在執行它的任務」

這個論述主張,即便這套演算法不能說是毫無瑕疵,但對於打擊社福詐騙,它依然是有成效的。其實,這也不是什麼新鮮的說法了──比方說,2019 年,當有關育兒津貼的詐騙事件正鬧得沸沸揚揚之際,別稱 Hannibal 的極右派部落客 Pim Beaart 便曾在一篇社論中說過,政客們只有在「演算法能夠為自己的政治觀點服務時,才會想要去用那些演算法」。

而就在最近,荷蘭一份立場保守的主要雜誌《EW》──儘管知道簽證過程所使用的自動審查系統,會對來自(荷蘭前殖民地蘇利南等)特定國家的申請者施以差別待遇──仍然主張:自動審查應該成為常態。他們在 Facebook 上質問:「政府不就該使用這樣鐵面無私的數位程式來過濾〔簽證申請人〕嗎?」無獨有偶,知名媒體部落格如 GeenStijl 也支持此一觀點,認為〔自動審查〕的確更有效率──「效率」是荷蘭人最愛掛在嘴邊的論調之一。

Ingelse 說:「荷蘭人向來認為效率至上。」從推行數位身份證、推廣教育及醫療之科技應用,到推動政府部門的數位化,荷蘭都走在了各國的前面。所以,不管他們做了什麼──還有他們如何處理演算法帶有偏見的問題──都可能會對其他國家的 AI 發展〔政策〕帶來影響。然而,真正了解演算法如何運作的人,卻並不多。

Ingelse 進一步指出:「仇外和歧視言論的存在,都是可以預見的;但除此之外,只要人們未能真正了解演算法背後的原理,無法明白『客觀資料』和『對於資料的詮釋』不是一回事,那麼這樣的論述大概就永遠不會消失。」兩者相關,並不意味因果關係必然存在。

論述二:「使用帶有偏見的演算法,會對荷蘭人造成傷害

簡言之:「AI 技術帶有偏見,應該停用 」

從各種推文、留言之中,不難看出有許多網友認為:荷蘭〔政府〕長期以來所使用的演算法帶有偏見,會對弱勢族群造成二度傷害。在許多人看來,過度看重荷語能力,就是在暗暗針對荷語能力普遍不佳的移民社群。

有些人更進一步要求「演算法應該公開透明,以確保它們不帶偏見。」然而,當前我們所使用的演算法,絕大多數都還不夠公開透明。因此,即便人們對於鹿特丹所使用的演算法多有批評,但對於當局至少願意和記者們分享相關資訊,也有不少人表示讚許

這類留言和相關貼文,多數都不是來自因演算法而權益受損的當事人,而是來自關注人權議題的網友;而之所以會有這樣的狀況,或許是因為這些弱勢族群在網路上(的荷語空間之中)聲量不大、缺乏能見度。不過,他們在受訪的時候,都紛紛對〔政府〕使用帶有偏見的 AI 技術,表達了強烈的反對──荷蘭傳媒 Vers Beton 曾經前往鹿特丹當地一處(經濟條件較差的人經常光顧的)市場進行採訪,對於〔政府居然會〕採用這類演算法,購物民眾都有諸多批評。

而荷蘭的民意代表也正在積極推動 AI 的相關立法,以期能對這項技術有更完善的規範。隸屬於綠黨/歐洲自由聯盟黨團的歐洲議會代表 Kim van Sparrentak,便曾在一個推特討論串中寫道:「AI 發展的核心問題在於,它完全是市場導向:上億的產業,卻無法可管。」

歐盟人工智慧法案即將上路

歐盟目前正就一項 AI 法案進行商議,希望能對上述情形加以規範;就在六月中旬,歐洲議會已將該項草案送交歐盟理事會進行進一步討論。截至目前為止,該法案的要點之一,便是禁止〔利用 AI 技術來進行〕「社會評分」,以期避免由此衍生的差別待遇。

以上就是公民媒體觀測站為你所帶來的最新內容。想了解更多或者親身參與?歡迎在這裡提出你的想法,或者報名參加我們下一次的線上訓練──時間是 7 月 7 日 UTC 時間中午 12 點。

展開對話

作者請 登入 »

須知

  • 留言請互相尊重. 內含仇恨、猥褻與人身攻擊之言論恕無法留言於此.