(不符合) 小於6段 & 小於700字 (段落: 1/ 字數: 3199)

大量文獻記載已證明人類偏見的存在,從隱性關聯測試(證明我們甚至可能沒有意識到偏見的存在),到現場實驗(證明這些偏見對結果有多少影響)。過去幾年間,社會已經開始努力處理人類偏見進入人工智慧系統的問題,因為這可能產生有害的結果。目前有許多公司設法在整體營運中建置人工智慧系統,因此當務之急是敏銳察覺並努力降低這些風險。
這不是個全新的問題。早在1988年,英國種族平等委員會(Commission for Racial Equality)就認定英國一所醫學院歧視。這所醫學院用來決定要邀請哪些申請人參加面談的電腦程式,被認為對女性和非歐洲名字的女性有偏見。然而,這套程式是為了搭配人類入學決策而開發的,準確性達到90%到95%。而且,與倫敦其他大多數醫學院相比,該校錄取的非歐洲學生比率較高。使用演算法無法解決有偏見的人類決策。但是,只是回歸由人類來做決定,也不能解決這個問題。
三十年後,演算法已變得更加複雜得多,但是我們仍然面臨同樣的挑戰。人工智慧可以幫忙找出並減少人類偏見的影響,但也可能讓問題變得更加嚴重,因為它可以在敏感的...

已經是會員?立即登入
啟動您的「30 天成長計畫」
給自己一個月的時間,用知識升級大腦。
解鎖全站 50+「個人學習」主題與豐富的文章庫與影音內容。
首月 NT$60
次月起 $360/月,隨時可取消。
還沒準備好訂閱?註冊會員,每月可享 3 篇文章免費閱讀。
免費註冊