
插畫/Nata Schepy
想像一下,你透過在線客服反應問題,對方不但對答如流,還有會因為你的表達方式,回應「噢」或「啊」之類的語助詞,讓你相信系統的另一端是一位十分耐心且關懷你的客服人員,你心懷感謝甚至有點不好意思;若你之後才發現,對方只是訓練有素的AI,是否會有被欺騙的感覺?AI的服務愈來愈高級固然是好事,但人們都討厭被欺騙。如何在制定AI計畫時對所有利害關係人保持相應的透明性,是我們需要關注的議題。
(不符合) 小於6段 & 小於700字 (段落: 1/ 字數: 107)
2018年,全世界最大的科技公司之一推出一款人工智慧(AI),可模仿真人撥電話到餐廳訂位。該公司為了「證明」這套AI是人類,於是訓練它在提出請求時加入「嗯」和「啊」:例如,「我想訂什麼時候?嗯,請為我訂晚上8點。」
(不符合) 小於6段 & 小於700字 (段落: 2/ 字數: 161)結果立刻出現強烈反彈:記者和民眾反對欺騙人們,讓他們以為自己是和另一個人而不是機器人互動。人們覺得遭到欺騙。
(不符合) 小於6段 & 小於700字 (段落: 3/ 字數: 359)這個故事不僅是警訊,也是提醒:隨著演算法和AI日益融入人們的生活,人們日益要求針對AI的使用時機及用途提供透明資訊。我們很容易理解為何會如此。在任何領域,透明化都是贏得消費者和客戶信任的基本要素。針對AI,透明化不僅是在人們與AI互動時告知人們這情況,也要與相關的利害關係人溝通,說明選擇AI解決方案的原因、它是如何設計和開發的、運用AI的理由,如何監控和更新它,以及在哪些條件之下可能淘汰AI。
(不符合) 小於6段 & 小於700字 (段落: 4/ 字...



