(不符合) 小於6段 & 小於700字 (段落: 1/ 字數: 3199)

大量文獻記載已證明人類偏見的存在,從隱性關聯測試(證明我們甚至可能沒有意識到偏見的存在),到現場實驗(證明這些偏見對結果有多少影響)。過去幾年間,社會已經開始努力處理人類偏見進入人工智慧系統的問題,因為這可能產生有害的結果。目前有許多公司設法在整體營運中建置人工智慧系統,因此當務之急是敏銳察覺並努力降低這些風險。
這不是個全新的問題。早在1988年,英國種族平等委員會(Commission for Racial Equality)就認定英國一所醫學院歧視。這所醫學院用來決定要邀請哪些申請人參加面談的電腦程式,被認為對女性和非歐洲名字的女性有偏見。然而,這套程式是為了搭配人類入學決策而開發的,準確性達到90%到95%。而且,與倫敦其他大多數醫學院相比,該校錄取的非歐洲學生比率較高。使用演算法無法解決有偏見的人類決策。但是,只是回歸由人類來做決定,也不能解決這個問題。
三十年後,演算法已變得更加複雜得多,但是我們仍然面臨同樣的挑戰。人工智慧可以幫忙找出並減少人類偏見的影響,但也可能讓問題變得更加嚴重,因為它可以在敏感的...

已經是會員?立即登入
繼續閱讀全文
免費註冊會員帳號
可享每月三篇文章免費讀
註冊免費會員
訂閱數位版
訂閱數位版即可立即無限暢讀全站優質文章、影音等豐富內容
首月 / NT$60
每月定期扣款,隨時可線上申請暫停扣款