(不符合) 小於6段 & 小於700字 (段落: 1/ 字數: 2674)

我們都看過報導指出,人臉辨識軟體無法辨識出深膚色的臉孔,或者,機器人放款行員拒絕特定群體申請的抵押貸款。愈來愈多研究明確顯示,由不具代表性群體編寫的演算法,而打造的人工智慧,會讓社會中已普遍存在的不平等現象長期存在。隨著更多公司更依賴數據資料和人工智慧,「演算法歧視」的問題可能只會惡化。

大多數公司現在都知道這種現象存在。它們想弄清楚的是:如何才能避免成為另一個糟糕的案例?

簡短的回答是:人人都有責任,以批判性的態度,去思考自己正在收集的數據,以及如何使用它們。擴大組織裡能協助質疑、構建、監控算法的人員範圍,是開發出負責任人工智慧的唯一途徑。要做到這一點,員工必須具備數據素養,也就是要有能力解析和整理複雜的數據、解釋和總結概述數據、產出預測,或是理解演算法的倫理意涵。這和數學一樣,可以在初學或進階模式下學習、跨越多門學科,而且,對實務面的重視,通常會超過學術面。

在組織中培養數據素養,也有助於數據團隊多元化;這些團隊在第一線針對如何收集、處理、部署數據,做出很重要的決策。數據團隊多元化很重要,這是我擔任量化基金(qu...

已經是會員?立即登入
繼續閱讀全文
免費註冊會員帳號
可享每月三篇文章免費讀
註冊免費會員
訂閱數位版
訂閱數位版即可立即無限暢讀全站優質文章、影音等豐富內容
首月 / NT$60
每月定期扣款,隨時可線上申請暫停扣款