
Shutterstock.com
人類難以避免的認知偏誤,會在機器學習訓練的過程中,不自覺地帶進人工智慧,加深社會上的不公問題。IBM如何透過四項策略,打造一個能致力消弭人工智慧偏誤的環境?
人類有許多種偏誤。以下僅舉出困擾我們的幾個認知偏誤的例子:確認偏誤(confirmation bias),也就是說,我們傾向聚焦在可證實我們對某個主題所持偏見的資訊上;定錨偏誤(anchoring bias),也就是我們主要是根據一開始得到的相關資訊,來做決策;性別偏誤(gender bias),也就是我們往往將女性與特定特質、活動或職業聯想在一起,而與男性聯想在一起的則不同。我們做決策時,這些類型的偏誤,通常會在我們不知不覺中介入,導致做出最終顯得不公平和不客觀的決策。
這些類型的偏誤,可能會在人工智慧(AI)中出現,尤其是在使用機器學習技術來為AI系統撰寫程式時。一種稱為「監督式機器學習」(supervised machine learning)的常用技巧,要求以許多問題和解決方案的範例,來訓練AI系統。比方說,如果我們要建置一個可決定何時接受或拒絕貸款申請的AI系統,就要以許多貸款申請案的範例來訓練這套系統,並針對每一份申請案,對系統提供正確的決定(接受或是拒絕貸款申請)。
AI系統會在這類範例中,找到有用的相關性,並使用這些相關性,來對新的貸款申請做出決定(希望
人為偏誤導致AI偏誤
這些類型的偏誤,可能會在人工智慧(AI)中出現,尤其是在使用機器學習技術來為AI系統撰寫程式時。一種稱為「監督式機器學習」(supervised machine learning)的常用技巧,要求以許多問題和解決方案的範例,來訓練AI系統。比方說,如果我們要建置一個可決定何時接受或拒絕貸款申請的AI系統,就要以許多貸款申請案的範例來訓練這套系統,並針對每一份申請案,對系統提供正確的決定(接受或是拒絕貸款申請)。
AI系統會在這類範例中,找到有用的相關性,並使用這些相關性,來對新的貸款申請做出決定(希望
已經是會員?立即登入
閱讀完本模組的文章/個案後
我們建議您思考下列問題
Q.
什麼是數位轉型的真實意義?
Q.
你是否已盤點組織數字化、數位化與數位轉型的目標與能耐。
Q.
如何運用企業智慧決策分析學找出組織明確的發展盲點與機會點?
Q.
如何培養組織與時俱進的頂尖員工?
Q.
如何擬定組織的數位轉型策略?
Q.
如何讓組織數位轉型策略落地?
Q.
如何制定推動「分析成性,公私兩利」組織文化的戰術?
Q.
什麼是「轉識成智」?如何協助組織轉識成智進而推動智慧決策?
更多關聯主題
更多關聯主題





