人類有許多種偏誤。以下僅舉出困擾我們的幾個認知偏誤的例子:確認偏誤(confirmation bias),也就是說,我們傾向聚焦在可證實我們對某個主題所持偏見的資訊上;定錨偏誤(anchoring bias),也就是我們主要是根據一開始得到的相關資訊,來做決策;性別偏誤(gender bias),也就是我們往往將女性與特定特質、活動或職業聯想在一起,而與男性聯想在一起的則不同。我們做決策時,這些類型的偏誤,通常會在我們不知不覺中介入,導致做出最終顯得不公平和不客觀的決策。

人為偏誤導致AI偏誤


這些類型的偏誤,可能會在人工智慧(AI)中出現,尤其是在使用機器學習技術來為AI系統撰寫程式時。一種稱為「監督式機器學習」(supervised machine learning)的常用技巧,要求以許多問題和解決方案的範例,來訓練AI系統。比方說,如果我們要建置一個可決定何時接受或拒絕貸款申請的AI系統,就要以許多貸款申請案的範例來訓練這套系統,並針對每一份申請案,對系統提供正確的決定(接受或是拒絕貸款申請)。
AI系統會在這類範例中,找到有用的相關性,並使用這些相關性,來對新的貸款申請做出決定(希望
已經是會員?立即登入
啟動您的「30 天成長計畫」
給自己一個月的時間,用知識升級大腦。
解鎖全站 50+「個人學習」主題與豐富的文章庫與影音內容。
首月 NT$60
次月起 $360/月,隨時可取消。
還沒準備好訂閱?註冊會員,每月可享 3 篇文章免費閱讀。
免費註冊