包括Google、亞馬遜(Amazon)、微軟(Microsoft)、優步(Uber)與特斯拉(Tesla)在內,多數大型公司的人工智慧(artificial intelligence)與機器學習(machine learning)系統都曾遭到欺騙、鑽漏洞,以及在無意間遭到誤導。但即使有這些知名的失效案例,大多數組織的領導人在打造和使用人工智慧與機器學習技術時,多半不太清楚本身面臨的風險。這並不完全是企業的錯。用來限制、彌補相關損害的科技工具,開發的速度向來不如機器學習技術;現有的網路保險(cyber insurance),大致上沒有完全涵蓋機器學習系統;法律救濟(例如著作權、法律責任、反駭客法)可能沒有涵蓋這類情況。目前逐漸出現的解決辦法,就是專門針對人工智慧/機器學習的保險。但是,誰會需要這種保險,以及這種保險的承保範圍為何,都還是問題。

了解風險



近來的事件顯示,人工智慧與機器學習系統很容易受到破壞,而且若是出問題,可能會在現實世界引發災難。我們有系統地研究了學術界發表的人工智慧失效案例,結果發現機器學習系統的失效案例分為兩類:刻意或非刻意發生的。

■ 刻意的失效案例是指,有人抱著惡意
已經是會員?立即登入
啟動您的「30 天成長計畫」
給自己一個月的時間,用知識升級大腦。
解鎖全站 50+「個人學習」主題與豐富的文章庫與影音內容。
首月 NT$60
次月起 $360/月,隨時可取消。
還沒準備好訂閱?註冊會員,每月可享 3 篇文章免費閱讀。
免費註冊