編寫程式以排除機器的偏誤,要比排除人類的認知偏誤更容易。

這項結論是根據研究的發現(包括我自己的研究)而逐漸產生的,可能讓運用人工智慧(AI)的決策系統,較不會受到偏誤影響,進而更能促進平等。這種可能性很重要,因為我們愈來愈依賴以AI為基礎的系統,針對攸關重大利害的人類情境做出評估和決定,從法院判決、聘雇,到取得信貸等情境,都包括在內。

目前普遍的看法是,AI驅動的系統,會受到人類創造者自身的偏誤所影響。如果我們用帶有偏誤的數據,或是以心懷隱性偏誤的專家所建立的「規則」,來訓練這些系統,就會在不知情的情況下,把偏誤「設計納入」系統之中。

我們來檢視「亞勒根尼家庭篩選工具」(Allegheny Family Screening Tool, AFST)的實例。這套系統以AI為基礎,預測兒童身處受虐狀態的可能性,所使用的數據來自美國賓州亞勒根尼郡的郡民服務部,其中包括與兒童福利、毒品與酒精戒癮服務、住房等相關公共機構的紀錄。個案工作者使用來自那個社區潛在虐待案例的報告,以及他們可找到有關那個案例家庭的任何公開數據,來運作那個模型,而模型預測的風險分數從1到20;評分如果高到某一個程度,就會啟動調查
已經是會員?立即登入
繼續閱讀全文
免費註冊會員帳號
可享每月三篇文章免費讀
註冊免費會員
訂閱數位版
訂閱數位版即可立即無限暢讀全站優質文章、影音等豐富內容
首月 / NT$60
每月定期扣款,隨時可線上申請暫停扣款