透明化有助於對抗演算法的偏見,但也會使組織容易遭到網路攻擊。可以說,在資料分析領域,人們認為資料愈多愈好。但在風險管理中,資料本身通常是不利因素的來源。因此,為了克服人工智慧的這種矛盾情形,組織必須仔細考慮要如何管理人工智慧的風險、提出關於這些風險的資訊,以及如何分享和保護這些資訊。
演算法經過優化是為了做「什麼」,應該會受到股東、顧客,以及主管機關的質疑。可能有人要領導人揭露,人工智慧系統的設計背後有哪些人為決定、考量了人們關切的哪些道德和社會問題、獲得訓練資料的來源與方法,以及監控那些系統產生的結果是否存在偏見或歧視。領導人應仔細記錄決策,而且一定要了解業務核心的演算法流程。
為進行國際貿易,企業建立網路系統,全球移動金錢、資訊和零組件。這些網路都有重要的關鍵控制點。而這些控制點往往被政府轉化為政治武器,讓企業面臨重大風險。因此,企業必須分析曝險程度,擬定保護自己的策略。
領導人應採取以下六個步驟:隨時掌握快速變化的研究資訊。所屬的企業或組織在建置人工智慧時,應建立負責任的流程,以減少偏見。針對潛在的人類偏見,以事實為基礎進行對話。考慮人與機器如何攜手合作來減少偏見。投資更多,提供更多資料,以繼續推進此一領域。加強投資以提高人工智慧領域的多元化。
要防禦網路風險,必須請廣大的員工參與。而且第一步要做的,是確定公司的關鍵業務活動,以及它們面對的風險。接著清點支援這些活動的系統、檢視漏洞,並確認潛在攻擊者。如此一來,才能做針對性更明確的網路安全投資。
Google、亞馬遜、微軟與臉書,仍未找出解決之道。
法雷莫在2014年成為聯合國專案事務廳執行主任,當時她面臨巨大的挑戰:接手前任已推動八年的計畫,讓聯合國旗下的營運機構,進一步朝營利事業轉型。她創造了一種紀律文化,並用慎重的方式來面對風險,進而完成任務。