產品管理

研究人員凸顯未來 AI 助手發展中的道德問題

研究者關注開發未來 AI 助手的道德問題由喬治亞理工學院的凱瑟琳·巴茲勒(Catherine Barzler)報道未來的智慧助手很可能被設計成能夠預測使用者的需求,甚至能夠幫助並調解使用者與他們的支援網路之間的社互動動。大多數人使用 Alexa 或 Google 助手等語音助手技術只是用於做清單和查 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

研究人員凸顯未來 AI 助手發展中的道德問題

研究者關注開發未來 AI 助手的道德問題

由喬治亞理工學院的凱瑟琳·巴茲勒(Catherine Barzler)報道

未來的智慧助手很可能被設計成能夠預測使用者的需求,甚至能夠幫助並調解使用者與他們的支援網路之間的社互動動。大多數人使用 Alexa 或 Google 助手等語音助手技術只是用於做清單和查天氣。但假如這些技術能夠更多的應用,比如總結醫生的預約、提醒某人服藥、管理日程(知道哪些事件優先),不僅能讀食譜,還能建立購買食材的提醒,而無需使用者提示。如果智慧助手能夠利用人工智慧為常見任務減輕一些認知負擔,那麼它可以幫助老年人保持獨立和自主。

下一代智慧助手雖然尚未上市,但建立它們所需的研究已經展開。這其中包括開發可以主動預測使用者需求、幫助和調解使用者與他們的支援網路之間社互動動的智慧助手。但是在設計旨在增強老年人認知能力隨著認知功能衰退的系統時,會涉及一系列廣泛的道德問題。NSF AI 協作輔助和響應式互動網路群體(AI-CARING)的研究人員認識到有需要提前提出這些問題,以希望設計者在開發下一代智慧助手時予以考慮。該團隊的文章“Ethical Issues in Near-Future Socially Supportive Smart Assistants for Older Adults”發表在 IEEE Transactions on Technology and Society 期刊上。

道德問題

喬治亞理工學院公共政策學院倫理和畢業研究倫理專案的教授傑森·伯倫斯坦(Jason Borenstein)表示:“我們想要提供一個道德問題的概觀,讓設計者不必等到先進的智慧助手系統出現在個人家中時才考慮這些問題。如果設計者沒有考慮這些問題,一個家庭可能會給一個親戚安裝一個系統,然後回家並相信他們的親戚是安全和有保護的,但實際上可能不是這樣。” 根據 AI-CARING 的研究人員指出,當一個人依賴於人工智慧系統時,這個人會以獨特的方式對系統產生依賴性,對於年齡相關的認知障礙症的人來說他們使用技術進行複雜形式的幫助時,風險會更高,隨著他們的健康狀況惡化,他們的脆弱性還會增加。系統如果不能正確執行,將可能對老年人的福祉構成重大威脅。

卡內基美隆大學倫敦的首席作者在該論文中表示:“如果在您依賴它做一些無害的事情時,系統出現錯誤,比如幫助您選擇要看的電影,那沒有什麼大不了。但是如果您依賴它提醒您服藥,而它沒有提醒您或者提醒您服錯了藥物,那就是一個大問題。”根據研究人員的說法,要開發一個真正關注使用者福祉的系統,設計者應該考慮信任、依賴、隱私以及使用者認知能力的變化等問題。他們還應確保系統支援使用者的目標,而不是外部利益方(如家庭成員或甚至可能希望向使用者市場銷售產品的公司)的目標。這樣的系統需要一個細致而不斷變化的使用者模型和偏好,包括來自不同來源的資料。為了讓智慧助手能夠有效地完成工作,它可能需要與其他實體共享主要使用者的一些訊息,這可能會使使用者面臨風險。例如,使用者可能希望醫生辦公室知道他們想要醫生的預約。但根據個人的情況,他們可能不想將這些訊息與子女分享,或者只與某個子女分享,而不與另一個子女分享。根據研究人員的觀點,設計者應考慮共享個人訊息的方法,以保護使用者對其訊息的控制權。

超信任和不信任系統能力也是需要考慮的重要問題。超信任是當人們把一些系統本身沒有的能力賦予技術時,如果系統無法按照他們預期的方式提供服務,可能會讓他們面臨風險。過度不信任也是問題,因為如果系統能夠幫助一個人完成重要任務,而該人選擇不使用系統,他們也可能被留下沒有幫助。“我們的分析目標是指出建立真正助力的 AI 系統的挑戰,以便可以從一開始就將其納入 AI 的設計中,”倫敦說。“這也可以幫助利益相關者建立符合這些道德要求的效能基準,而不是試圖在系統已經設計、開發和測試之後去應對道德問題。” 根據伯倫斯坦的說法,當智慧助手被建立並引入家庭時,主要使用者的福祉和目標應該是最重要的關注點。“設計師們當然意圖良好,但我們所有人都可以從跨學科的交流和與不同觀點的人交談中獲益,尤其是在這類技術上。”伯倫斯坦說。“這只是整個拼圖的一部分,但希望能夠在設計過程中提供一些指導。”

結論

未來發展的 AI 助手面臨著眾多的道德問題,特別是針對老年人的智慧助手。在設計這些系統時,設計者應該考慮使用者的福祉、隱私、信任和依賴性等問題。設計者應確保系統的目標是支援使用者的目標,而不是外部利益方的目標。此外共享個人訊息的方式應該保護使用者的控制權。超信任和不信任系統能力也需要受到關注。設計者應該考慮這些問題並在設計過程中納入相應的解決方案。在建立智慧助手時,主要使用者的福祉和目標應該始終是首要關注的。

EthicsorMorality-AI 助手,道德問題,人工智慧,研究,未來發展
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。