(不符合) 小於6段 & 小於700字 (段落: 1/ 字數: 192)

受到人工智慧所吸引的高階主管,必須了解人工智慧與數據資料中普遍存在的各種可能性與風險。即使人類透過語音和聊天之類的媒介與人工智慧互動的時代才剛開始,已有許多紀錄是關於人工智慧試圖理解與說出人類語言卻失敗。本文專注討論微軟(Microsoft)、Google與亞馬遜(Amazon)近期備受矚目的三項案例,說明人工智慧領導人可以如何從這些錯誤中學習,實施能夠保護他們人工智慧計畫的方案。

(誤)學了青少年俚語

(不符合) 小於6段 & 小於700字 (段落: 2/ 字數: 192)


(不符合) 小於6段 & 小於700字 (段落: 3/ 字數: 425)


2016年3月,微軟開發了一個使用人工智慧的推特(Twitter)聊天機器人Tay,這是透過挖掘公開對話而打造的。這個聊天機器人以「對話型」人工智慧為宣傳招牌,目標是測試會話語言的界線:微軟把Tay描述為「來自網際網路,很敢說的人工智慧哥們!」這個機器人也會根據它在推特上的對話而調整、學習。
遺憾的是,網路酸民只花了不到24小時,就訓練Tay吐出嚴重種族歧視、厭女與普遍來說...

已經是會員?立即登入
繼續閱讀全文
免費註冊會員帳號
可享每月三篇文章免費讀
註冊免費會員
訂閱數位版
訂閱數位版即可立即無限暢讀全站優質文章、影音等豐富內容
首月 / NT$60
每月定期扣款,隨時可線上申請暫停扣款