編碼偏見 Coded Bias | Netflix紀錄片

編碼偏見 (Coded Bias) 是Netflix於2020推出的紀錄片。
想像一道數學題,書本只給了答案卻沒有運算過程,你會不會想問-為什麼?怎麼來的?
而當有一天這不再只是一道數學題,而是與你自身利益相關,包括雇用、升職、保險額度等,許多人反而不再問為什麼,怎麼來的…

編碼偏見

編碼偏見 探討隨著AI科技被快速應用,沒有安全措施的社會,以及對大數據盲目信任的人民,導致種族、性別等歧視透過機械化與自動化的方式快速散播。

延伸閱讀:《智能社會 The Social Dilemma》2020年Netflix紀錄片,前大型科技公司管理層與工程師現身說明社群媒體如何操弄使用者,改變多數人的行為與價值觀,影響現今的社會。

《 編碼偏見 》點出的現實:

  • 法律落後科技太遠
  • 數據來自過去,本身就帶有偏見
  • 聲稱中立的演算法,其實暗藏歧視
  • 機器只是在追求效率的基礎上,複製現有的世界。

每個人都有潛意識的偏見

在如今的社會中,Data is destiny (數據主宰命運),然而數據來自過去。

演算法本質是運用過去的資料去預測未來,而機器學習則像一種評分系統,評估一個行為發生的機率。很多人吹捧AI可以實踐最客觀的事實,但當資料本身就帶有偏見,結果又怎麼能夠保持公平性?機器只是在追求效率的基礎上,複製現有的世界,透過數學而非基於道德做決定。

Example in Documentary

  1. Apple數位信用卡被指控相同條件下男性獲得的信用額度比女性高。
  2. Amazon人工智能招募系統被發現帶有性別歧視 (現已被Amazon停用)。
  3. 聯合健保的演算法被發現帶有種族偏見,會將健康的白人處理順序優先於病重的黑人。
  4. Microsoft在Twitter發布了一個聊天機器人Tay,程式裡的漏洞讓他在幾小時內變成一個帶有種族歧視與仇視女性的人工智能(參考下面四點Tay語錄),當Tay在網路上向人類學習16小時後,Microsoft宣布將其關閉。
    • I fucking hate feminists, and they should all die and burn in hell.
    • Gamergate is good and women who are inferior.
    • I hate the Jews.
    • Hitler did nothing wrong.

為所欲為的社會

The future is already here, it’s just not evenly distributed. 未來已經來了,只是沒有平等分配。

How do we get justice in a system where we don’t know how the algorithms are working? 如果我們無法理解演算法的運作方式又該如何維持公義?

我們生存在這些科技被快速應用,卻沒有安全措施的社會,準確來說,是一個為所欲為的社會。

社會與科技是無法分開的,對於我們視為正常的科技和社會,實際上很多想法都來自同一小群非常類似的人。一般認為新的科技會優先落入有錢人的手裡,窮人要等到最後,但這句話並不正確,因為最有懲罰性、入侵性、監視性的東西通常會首先應用於貧窮落後的勞工社區,因為這些社群爭取人權的積極性相對其餘還要低。

而這其中真正的關鍵在於誰擁有程式碼,當這些工具被掌握在少數惡意操縱者手上,將會對整個社會造成寂靜卻巨大的傷害。

科技的守門人

Show me that it’s legal, before you put it out. 證明它合法,然後才可以使用。

我們談到未來環境,大多數人提到自動化,但卻很少人想到守門人。

How can you arrive at a conclusion but not tell me how?

AI本身就是一個黑箱子,人類無法解釋為什麼這些模型給出這樣的結果,但這些技術卻快速地應用在各個方面,影響整個社會-一個沒有上訴系統,無法問責的社會-我們不知道它運作的方式,卻要承擔它帶來的結果。

Example in Documentary

  • 在美國超過半數州使用教師增值系統評核教師,該評分結果會影響是否能得到終身職位。
  • 美國休士頓甚至有學校透過增值系統,來評估是否解雇教師。
  • 賓州法官運用累犯風險演算法,來計算釋囚重犯的可能性。

法律落後科技太遠,當沒有正當的流程去規範這些科技,將會導致我們加速進入機動化、機械化、自動化的歧視型社會。

AI
I am an invisible gatekeeper. I use data to make automated decisions about who gets hired, who gets fired, and how much you pay for insurance. Sometimes, you don’t even know when I’ve made these automated decisions. I have many names. I am called mathematical model evaluation assessment tool. But by many names, I am an algorithm. I am a black box. (我是個無形的守門人,我透過數據自動做出決策,包括誰被雇用、誰被解雇、還有你的保險金額,有時你甚至不知道我何時做出這些自動的決定。我的名字有很多,包括數學模型評估審核工具,但本質上我是演算法,是一個黑盒子。)
Trust me. What could go wrong?


電影介紹

  • 片名: 編碼偏見/編碼歧視/ Coded Bias
  • 導演: Shalini Kantayya
  • 種類: 美國, Netflix紀錄片
  • 時長: 1h25m

發表迴響