具有價值的靈感,往往不是源於單一的「靈光乍現」
你的演算法是否捍衛了公平標準?
Are Your Algorithms Upholding Your Standards of Fairness?

如果演算法並未支持你對公平性設下的標準,會發生什麼情況?本文提到發生在亞馬遜公司的狀況,以及ProPublica一篇有關機器偏見的文章,並得出結論:公司領導人必須對衡量公平性進行自我教育,以便決定如何為組織定義公平性。這也意味著,應該要把所選的公平性衡量標準納入關鍵績效指標,搭配傳統的業務衡量標準一起使用。
(不符合) 小於6段 & 小於700字 (段落: 1/ 字數: 2047)
在最近備受關注的人工智慧(AI)偏見醜聞之後,企業已經開始了解到必須重新思考本身的人工智慧策略,不僅要把人工智慧公平性(AI fairness)納入策略,而且要更廣泛地把演算法公平性(Algorithmic Fairness)當成一項基本原則。我任職的務實學院(Pragmatic Institute),為《財星》五百大企業提供關於資料科學和人工智慧的教育課程。我們從這些工作中發現,許多企業很難為自家組織明確定義何謂演算法公平性。如果沒有明確的定義,立意良好的公平性方案就會在善意之中失去活力,絕不會產生有意義的影響。但是,定義公平性並不像表面看來那樣容易。有兩個例子可說明這項工作可能會有多大的挑戰。
首先,想想2016年亞馬遜(Amazon)發生的情況,這家總部位於西雅圖的線上零售商當時向27個都會區,推出了Prime會員一日到貨服務。當時彭博社(Bloomberg)指出,向來是非裔美國人的社區被排除在外(如紐約市的布朗克斯區或芝加哥南區),不符合一日到貨服務的資格,結果亞馬遜受到大量批評。在亞特蘭大,有96%的白...
已經是會員?立即登入
閱讀完本模組的文章/個案後
我們建議您思考下列問題
Q.
什麼是數位轉型的真實意義?
Q.
你是否已盤點組織數字化、數位化與數位轉型的目標與能耐。
Q.
如何運用企業智慧決策分析學找出組織明確的發展盲點與機會點?
Q.
如何培養組織與時俱進的頂尖員工?
Q.
如何擬定組織的數位轉型策略?
Q.
如何讓組織數位轉型策略落地?
Q.
如何制定推動「分析成性,公私兩利」組織文化的戰術?
Q.
什麼是「轉識成智」?如何協助組織轉識成智進而推動智慧決策?




