由人工智慧掌管一切的新型公司,正在重新塑造今日的市場。一種由人工智慧驅動的流程,可以非常快速地擴大規模、擴展範疇,連結到許多種類的企業,並提供強大的學習與改善機會。因此,由人工智慧驅動的公司,也已快速超越傳統公司。
我們被人看見的能力,日益由編碼和邏輯構成的演算法所控制,而撰寫程式的,是很容易犯錯的人類。另外,決定和控制這類程式運算結果的,往往是黑盒子。長期下來,這類演算法將限制我們可看到的內容,進而強化社會偏見。隨著人工智慧觸及的範圍擴大,這類風險只會愈來愈高。
病人不認為科技能了解自己獨一無二的需求。因此,若要實現醫療人工智慧承諾的眾多好處,並節省成本,醫護人員必須找出方法克服這些疑慮。例如,醫療服務供應者可以採取行動,以提高病人對醫療人工智慧提供服務的個人化程度有何觀感,藉以減輕病人擔心自己被視為一般病人或某個統計數據的憂慮。
人工智慧的確會產生偏見,那是因為它模擬的,正是人類的行為。而用來訓練演算法的資料集,是有偏見的。但我們可以找出並糾正人工智慧中的偏見,善用人工智慧來消除無意識的偏見,並消除有偏見的傳統評估方法,以公平的方式選出人選。
麻省理工學院研究員麥可.許瑞吉解釋,如何善用員工的個人科技。在大部分企業,員工會使用自己的行動裝置,如智慧型手機和平板電腦,取用工作所需的應用程式。應用程式可提高人們的生產力,可協助你的員工找到重要的資料和分析,可協助他們迅速回應顧客問題。那是好東西。
醫藥界必須擴大演算法的應用。其中一個正在開發和驗證的新方法,稱為「因果人工智慧」。因果人工智慧演算法可以從觀測數據來推斷出因果關係,告訴我們不同因素如何相互作用,以及哪個因素導致了什麼情況。此外,還可以進行「如果……會怎樣?」的模擬。
如果演算法並未支持你對公平性設下的標準,會發生什麼情況?本文提到發生在亞馬遜公司的狀況,以及ProPublica一篇有關機器偏見的文章,並得出結論:公司領導人必須對衡量公平性進行自我教育,以便決定如何為組織定義公平性。這也意味著,應該要把所選的公平性衡量標準納入關鍵績效指標,搭配傳統的業務衡量標準一起使用。
人工智慧系統就像人類一樣,從本身接觸到的環境裡學習,並依據它們培養出來的偏見來做決定。隨著我們愈來愈把做決定這件事外包給演算法去做,就更有必要開始正視人工智慧偏見造成的問題,拿出對策減緩這種負面效果。這是減少偏見的唯一方式。