近幾年來,學者和實務界人員都呼籲應該提高人工智慧(AI)模型內部運作的透明程度,這麼做有很多好理由。透明化有助於減輕有關公平、歧視和信任的問題;這些問題都愈來愈受注意。例如,有人指控蘋果公司(Apple)新的信用卡業務的借貸模式,有性別歧視的問題;亞馬遜(Amazon)發現一種人工智慧聘雇工具會歧視女性之後,停用了這項工具。
但與此同時,日益明顯的情況是,揭露有關人工智慧的資訊,會給自家公司帶來風險:相關的說明可能會遭到駭客侵入,發布額外資訊可能會使人工智慧更容易受到攻擊,而揭露資訊可能使公司更容易吃上官司,或遭到法規管制行動影響。
我們稱之為「透明化矛盾」(transparency paradox),提出更多有關人工智慧的資訊,雖然可能會產生實際的好處,但也可能帶來新的風險。為了克服這種矛盾情形,組織必須仔細考慮要如何管理人工智慧的風險、提出關於這些風險的資訊,以及如何分享和保護這些資訊。
最近的一些研究闡明了這些趨勢。讓我們先來看看2019年底哈佛大學和加州大學爾灣校區(University of California, Irvine)一些學者發表的一篇研究論文。這篇論文的重點在於,LI...
已經是會員?立即登入
啟動您的「30 天成長計畫」
給自己一個月的時間,用知識升級大腦。
解鎖全站 50+「個人學習」主題與豐富的文章庫與影音內容。
首月 NT$60
次月起 $360/月,隨時可取消。
還沒準備好訂閱?註冊會員,每月可享 3 篇文章免費閱讀。
免費註冊