
透明化有助於對抗演算法的偏見,但也會使組織容易遭到網路攻擊。可以說,在資料分析領域,人們認為資料愈多愈好。但在風險管理中,資料本身通常是不利因素的來源。因此,為了克服人工智慧的這種矛盾情形,組織必須仔細考慮要如何管理人工智慧的風險、提出關於這些風險的資訊,以及如何分享和保護這些資訊。
近幾年來,學者和實務界人員都呼籲應該提高人工智慧(AI)模型內部運作的透明程度,這麼做有很多好理由。透明化有助於減輕有關公平、歧視和信任的問題;這些問題都愈來愈受注意。例如,有人指控蘋果公司(Apple)新的信用卡業務的借貸模式,有性別歧視的問題;亞馬遜(Amazon)發現一種人工智慧聘雇工具會歧視女性之後,停用了這項工具。
但與此同時,日益明顯的情況是,揭露有關人工智慧的資訊,會給自家公司帶來風險:相關的說明可能會遭到駭客侵入,發布額外資訊可能會使人工智慧更容易受到攻擊,而揭露資訊可能使公司更容易吃上官司,或遭到法規管制行動影響。
我們稱之為「透明化矛盾」(transparency paradox),提出更多有關人工智慧的資訊,雖然可能會產生實際的好處,但也可能帶來新的風險。為了克服這種矛盾情形,組織必須仔細考慮要如何管理人工智慧的風險、提出關於這些風險的資訊,以及如何分享和保護這些資訊。
最近的一些研究闡明了這些趨勢。讓我們先來看看2019年底哈佛大學和加州大學爾灣校區(University of California, Irvine)一些學者發表的一篇研究論文。這篇論文的重點在於,LI...
但與此同時,日益明顯的情況是,揭露有關人工智慧的資訊,會給自家公司帶來風險:相關的說明可能會遭到駭客侵入,發布額外資訊可能會使人工智慧更容易受到攻擊,而揭露資訊可能使公司更容易吃上官司,或遭到法規管制行動影響。
我們稱之為「透明化矛盾」(transparency paradox),提出更多有關人工智慧的資訊,雖然可能會產生實際的好處,但也可能帶來新的風險。為了克服這種矛盾情形,組織必須仔細考慮要如何管理人工智慧的風險、提出關於這些風險的資訊,以及如何分享和保護這些資訊。
最近的一些研究闡明了這些趨勢。讓我們先來看看2019年底哈佛大學和加州大學爾灣校區(University of California, Irvine)一些學者發表的一篇研究論文。這篇論文的重點在於,LI...
已經是會員?立即登入
閱讀完本模組的文章/個案後
我們建議您思考下列問題
Q.
什麼是數位轉型的真實意義?
Q.
你是否已盤點組織數字化、數位化與數位轉型的目標與能耐。
Q.
如何運用企業智慧決策分析學找出組織明確的發展盲點與機會點?
Q.
如何培養組織與時俱進的頂尖員工?
Q.
如何擬定組織的數位轉型策略?
Q.
如何讓組織數位轉型策略落地?
Q.
如何制定推動「分析成性,公私兩利」組織文化的戰術?
Q.
什麼是「轉識成智」?如何協助組織轉識成智進而推動智慧決策?




