具有價值的靈感,往往不是源於單一的「靈光乍現」
一個簡單訣竅,就能降低AI偏誤
A Simple Tactic That Could Help Reduce Bias in AI

人類的認知偏誤難以導正,人工智慧的偏誤較容易排除。本文作者提出「盲測」的做法,讓演算法完全無法取得有可能讓結果帶有偏誤的資訊,以確保做預測時,不會考慮那項變數,進而做出更公平的預測。作者進行觀察實驗,以探究科學性論文是否夠客觀,結果證實為人工智慧系統進行盲測驗證的必要性。作者並認為,人類與人工智慧系統的整合,是成效最佳的方法。
編寫程式以排除機器的偏誤,要比排除人類的認知偏誤更容易。
這項結論是根據研究的發現(包括我自己的研究)而逐漸產生的,可能讓運用人工智慧(AI)的決策系統,較不會受到偏誤影響,進而更能促進平等。這種可能性很重要,因為我們愈來愈依賴以AI為基礎的系統,針對攸關重大利害的人類情境做出評估和決定,從法院判決、聘雇,到取得信貸等情境,都包括在內。
目前普遍的看法是,AI驅動的系統,會受到人類創造者自身的偏誤所影響。如果我們用帶有偏誤的數據,或是以心懷隱性偏誤的專家所建立的「規則」,來訓練這些系統,就會在不知情的情況下,把偏誤「設計納入」系統之中。
我們來檢視「亞勒根尼家庭篩選工具」(Allegheny Family Screening Tool, AFST)的實例。這套系統以AI為基礎,預測兒童身處受虐狀態的可能性,所使用的數據來自美國賓州亞勒根尼郡的郡民服務部,其中包括與兒童福利、毒品與酒精戒癮服務、住房等相關公共機構的紀錄。個案工作者使用來自那個社區潛在虐待案例的報告,以及他們可找到有關那個案例家庭的任何公開數據,來運作那個模型,而模型預測的風險分數從1到20;評分如果高到某一個程度,就會啟動調查
這項結論是根據研究的發現(包括我自己的研究)而逐漸產生的,可能讓運用人工智慧(AI)的決策系統,較不會受到偏誤影響,進而更能促進平等。這種可能性很重要,因為我們愈來愈依賴以AI為基礎的系統,針對攸關重大利害的人類情境做出評估和決定,從法院判決、聘雇,到取得信貸等情境,都包括在內。
目前普遍的看法是,AI驅動的系統,會受到人類創造者自身的偏誤所影響。如果我們用帶有偏誤的數據,或是以心懷隱性偏誤的專家所建立的「規則」,來訓練這些系統,就會在不知情的情況下,把偏誤「設計納入」系統之中。
我們來檢視「亞勒根尼家庭篩選工具」(Allegheny Family Screening Tool, AFST)的實例。這套系統以AI為基礎,預測兒童身處受虐狀態的可能性,所使用的數據來自美國賓州亞勒根尼郡的郡民服務部,其中包括與兒童福利、毒品與酒精戒癮服務、住房等相關公共機構的紀錄。個案工作者使用來自那個社區潛在虐待案例的報告,以及他們可找到有關那個案例家庭的任何公開數據,來運作那個模型,而模型預測的風險分數從1到20;評分如果高到某一個程度,就會啟動調查
已經是會員?立即登入
閱讀完本模組的文章/個案後
我們建議您思考下列問題
Q.
什麼是數位轉型的真實意義?
Q.
你是否已盤點組織數字化、數位化與數位轉型的目標與能耐。
Q.
如何運用企業智慧決策分析學找出組織明確的發展盲點與機會點?
Q.
如何培養組織與時俱進的頂尖員工?
Q.
如何擬定組織的數位轉型策略?
Q.
如何讓組織數位轉型策略落地?
Q.
如何制定推動「分析成性,公私兩利」組織文化的戰術?
Q.
什麼是「轉識成智」?如何協助組織轉識成智進而推動智慧決策?




