(不符合) 小於6段 & 小於700字 (段落: 1/ 字數: 215)

2019年在《科學》期刊(Science)發表的一項研究指出,許多醫療體系使用Optum公司的人工智慧(AI),來找出應接受後續照護的高風險病患;而這款AI會促使醫療人員關注白人甚於黑人。Optum列為高風險的患者當中,只有18%是黑人,而有82%是白人。研究人員在檢視實際病情最嚴重的患者數據之後,計算出黑人與白人的高風險比率應該大約是46%和53%。這造成深遠的影響:研究人員估算,Optum這款AI已用於監測至少一億名患者。

(不符合) 小於6段 & 小於700字 (段落: 2/ 字數: 350)

參與創造出Optum演算法的數據科學家和企業高階主管,原本無意歧視黑人,但是卻落入令人震驚的常見陷阱:使用反映了歷來歧視狀況的數據來訓練AI,導致產生帶有偏見的結果。在這個事件中,當初使用的數據顯示,黑人獲得的醫療資源較少,導致這套演算法錯誤地推論出黑人需要的協助較少。

(不符合) 小於6段 & 小於700字 (段落: 3/ 字數: 646)

很多詳細記錄和廣泛公開的道德風險,都與AI有關;無心造成的偏見和侵犯隱私,只是...

已經是會員?立即登入
繼續閱讀全文
免費註冊會員帳號
可享每月三篇文章免費讀
註冊免費會員
訂閱數位版
訂閱數位版即可立即無限暢讀全站優質文章、影音等豐富內容
首月 / NT$60
每月定期扣款,隨時可線上申請暫停扣款