當AI在我們工作中的運用愈發頻繁,你是否會好奇,AI究竟是如何產出這些見解或者預測?比如透過AI來篩選求職者,或是評估某個人是否有資格貸款。大多時候,AI如同一個看不透的「黑盒子」,我們運用它,卻無法「解釋」它,然而在本文提出的一些情況下,你必須要讓AI的運作原理有可解釋性。
收藏
分享
想像一下,你透過在線客服反應問題,對方不但對答如流,還有會因為你的表達方式,回應「噢」或「啊」之類的語助詞,讓你相信系統的另一端是一位十分耐心且關懷你的客服人員,你心懷感謝甚至有點不好意思;若你之後才發現,對方只是訓練有素的AI,是否會有被欺騙的感覺?AI的服務愈來愈高級固然是好事,但人們都討厭被欺騙。如何在制定AI計畫時對所有利害關係人保持相應的透明性,是我們需要關注的議題。
收藏
分享











