瑞德.布雷克曼
Reid Blackman
著有《道德機器:完全無偏見、透明而遵重他人的人工智慧簡明指南》(Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI, HBR Prews),也是道德風險顧問公司「美德」(Virtue)的創辦人和執行長。他提供諮詢服務,為加拿大政府提供有關聯邦AI法規的建議,也建議企業如何實施數位道德風險計畫。他擔任德勤人工智慧研究院(Deloitte AI Institute)的資深顧問,之前任職於安永(Ernst & Young)的人工智慧顧問委員會,也曾在非營利組織「政府區塊鏈協會」(Government Blockchain Association)義務擔任道德長。他曾在美國柯蓋德大學(Colgate University)與北卡羅萊納大學教堂山校區(University of North Carolina, Chapel Hill)擔任哲學教授。
歐盟全新AI法案,董事會、最高管理層、各級主管分別要注意什麼?
為應對人工智慧(AI)所產生的風險,歐盟於2024年2月推出AI法案。本文指出涉及AI企業的董事會、最高管理層以及各級主管必須了解和採取的行動,以確保他們符合即將來臨的法律規範以及相關倫理,能獲得人們的信任。
收藏
分享
2024/04/12
AI「生成」你的焦慮?
生成式AI的崛起對於企業來說,是巨大的機會,卻也伴隨著巨大的風險。本文指出企業運用生成式AI時面對的4種道德風險,包含錯覺的問題、審慎思考的問題、狡猾銷售人員的問題,以及共同責任的問題,並提出應對方式。
收藏
分享
2023/11/22
如何逃出新興科技帶來的倫理惡夢?
生成式人工智慧、量子運算、區塊鏈等新興科技為企業帶來無限潛力,卻也有可能對社會造成危害。該如何避免這種倫理惡夢?數位倫理專家建議:不要害怕提到倫理、找出惡夢來源、透過有系統而且全面的做法解決這些挑戰。 
收藏
分享
2023/07/24
你應該要解釋,你的AI是如何運作的
當AI在我們工作中的運用愈發頻繁,你是否會好奇,AI究竟是如何產出這些見解或者預測?比如透過AI來篩選求職者,或是評估某個人是否有資格貸款。大多時候,AI如同一個看不透的「黑盒子」,我們運用它,卻無法「解釋」它,然而在本文提出的一些情況下,你必須要讓AI的運作原理有可解釋性。
收藏
分享
2023/01/19
你的人工智慧計畫足夠透明嗎?
想像一下,你透過在線客服反應問題,對方不但對答如流,還有會因為你的表達方式,回應「噢」或「啊」之類的語助詞,讓你相信系統的另一端是一位十分耐心且關懷你的客服人員,你心懷感謝甚至有點不好意思;若你之後才發現,對方只是訓練有素的AI,是否會有被欺騙的感覺?AI的服務愈來愈高級固然是好事,但人們都討厭被欺騙。如何在制定AI計畫時對所有利害關係人保持相應的透明性,是我們需要關注的議題。
收藏
分享
2022/10/10
區塊鏈存在四大道德風險
資深領導人在實施區塊鏈計畫時,面臨各式各樣的倫理與聲譽風險,而且這些風險,可能正源於那些原本被視為區塊鏈存在價值的特色。本文檢視四種風險,包括:缺乏第三方保護、侵犯隱私的威脅、零態問題和不良的治理,並提供建議,協助區塊鏈的開發者和使用者減少潛在的傷害。
收藏
分享
2022/08/16
你需要AI道德委員會的理由
將AI運用在產品和服務中的情況愈發常見,一個潛藏的危機逐漸浮現:AI運算帶有道德風險,會對品牌造成破壞。如果你本身沒有資源,可以從零開始開發一款不存在偏見的AI,那麼,負責監督、提供諮詢,甚至擁有一定程度裁奪權的「AI道德委員會」,將助你保護自己的商譽。
收藏
分享
2022/06/22
首頁
最新
主題
雜誌
個人
選單