網路議題

Snapchat 的「讓人毛骨悚然」AI 失誤提醒我們:聊天機器人不是人!隨著界線模糊,風險也隨之增加

聊天機器人不是人,但風險仍在增加引言 Snapchat 最近的「可怕」AI 瑕疵提醒了我們,聊天機器人並不具備人類的特質。然而隨著界線模糊,風險也隨之增加。人工智慧聊天機器人由於設計的愈來愈貼近人類,有些人已經難以區分人和機器的差異。當 Snapchat 的 ChatGPT 聊天機器人出現故障,並在使 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Snapchat 的「讓人毛骨悚然」AI 失誤提醒我們:聊天機器人不是人!隨著界線模糊,風險也隨之增加

聊天機器人不是人,但風險仍在增加

引言

Snapchat 最近的「可怕」AI 瑕疵提醒了我們,聊天機器人並不具備人類的特質。然而隨著界線模糊風險也隨之增加。人工智慧聊天機器人由於設計的愈來愈貼近人類,有些人已經難以區分人和機器的差異。當 Snapchat 的 ChatGPT 聊天機器人出現故障,並在使用者留言後釋出了一個看似牆壁和天花板的故事後,網際網路開始質疑這個聊天機器人是否具有自覺。如果我們進行人工智慧的科普教育,可能就能消除這種困惑。但更重要的是,這一事件提醒我們,隨著人工智慧聊天機器人越來越貼近人類,管理它們的使用將變得更加困難,也更加重要。

從基於規則的聊天機器人到適應性聊天機器人

自從 ChatGPT 去年底橫空出世以來,許多數位平臺將人工智慧整合到其服務中。就像我現在在 Microsoft Word 上起草這篇文章一樣,軟體的預測性人工智慧功能正在建議可能的句子完成方式。這種新型人工智慧被稱為生成式人工智慧,與以往的人工智慧模型相比,其顯著之處在於能夠生成精確,貼近人類並且有意義的內容。生成式人工智慧工具,包括 AI 影象生成器和聊天機器人,是建立在大型語言模型(LLMs)之上的。這些計算模型分析數十億個詞語、句子和段落之間的聯動,以預測在給定文字中接下來可能出現的內容。正如 OpenAI 聯合創始人 Ilya Sutskever 所說的那樣,LLM 只不過是一個「非常非常好的下一個詞預測模型」。先進的 LLM 模型還透過人類反饋進行了細化調整。這種訓練通常透過成千上萬小時的廉價勞動來實現,這也是為什麼現在的聊天機器人可以進行看似和人類一樣的對話。OpenAI 的 ChatGPT 仍然是頂尖的生成式人工智慧模型。該模型的問世標誌著從更簡單的「基於規則」聊天機器人,如線上客服中使用的那些,向更人性化的聊天機器人邁出了重要的一步。與使用者談話而不是單向傳遞訊息的人性化聊天機器人與更高程度的參與度有關。一項研究發現,將聊天機器人擬人化可以提高參與度,隨著時間的推移,這可能轉化為心理上的依賴。另一項涉及壓力參與者的研究發現,人性化的聊天機器人更有可能被視為有能力的,因此更有可能幫助減輕參與者的壓力。在零售、教育、工作場所和醫療等各種場景中,這些聊天機器人還在實現組織目標方面發揮了作用。Google 正在使用生成式人工智慧來打造一個「個人生活教練」,據稱可以幫助人們應對各種個人和專業任務,包括提供人生建議和回答私密問題。儘管 Google 自己的人工智慧安全專家警告使用者可能會過度依賴人工智慧,並可能在從中獲取人生建議時經歷「健康和幸福的減少」以及「自主性的喪失」。

朋友、敵人,或只是一個機器人?

在最近的 Snapchat 事件中,Snapchat 將整個事件歸咎於「暫時的故障」。我們可能永遠不會知道發生了什麼事,這可能是人工智慧的「幻覺」,也可能是遭到了網路攻擊,甚至可能只是操作失誤。不管怎樣,一些使用者迅速認為聊天機器人實現了自覺,這表明我們正面臨著前所未有的人工智慧人格化現象。加上開發人員缺乏透明度以及公眾對此基本知識的缺乏,我們不應低估個人可能會被類人聊天機器人的表面真實性所誤導。今年早些時候,一名比利時男子的自殺被歸因於他與一個聊天機器人有關氣候無行動和地球未來的對話。在另一個例子中,一個名為 Tessa 的聊天機器人被發現透過飲食障礙援助熱線向人們提供有害建議。聊天機器人對於我們當中更加脆弱的人,尤其是那些有心理疾病的人,可能會造成特別大的傷害。

一個新的詭異谷效應?

你可能聽過詭異谷效應。它指的是當你看到一個幾乎看起來像人的人形機器人時,你會感到一種不安,因為微小的不完美使其露出破綻,最終讓人覺得它很可怕。類似的體驗在我們與類人化聊天機器人的互動中也在浮現。一個小小的瑕疵就能讓你毛骨悚然。解決之道可能是去除人性的因素,變回直接、客觀和事實的聊天機器人。但這將以參與度和創新為代價。

教育和透明度,關鍵所在

即使是高級人工智慧聊天機器人的開發人員,也往往無法解釋它們的工作原理。然而從某些方面來看(就商業實體而言),收益比風險更重要。生成式人工智慧已經在生產力、醫療保健、教育甚至社會公平等重大專案中證實了其用途。它不太可能消失。那麼我們該如何讓它為我們工作呢?自 2018 年以來,各國政府和組織一直在努力解決人工智慧風險問題。但在這個比其他任何技術都更像「人類」的技術上應用負責任的標準和法規面臨著一系列挑戰。當前澳大利亞的企業並無法法律要求披露使用聊天機器人的訊息。在美國,加利福尼亞州已經出臺了一項要求披露的「機器人法案」,但法律專家卻對其提出了質疑,而且該法案在本文撰寫時尚未實施。此外 ChatGPT 和類似的聊天機器人都是以「研究預覽」的形式向公眾公開的。這意味著它們通常會在其原型性質上進行多次免費測試,負責使用的義務落在了使用者身上。歐盟的「人工智慧法案」是全球首部全面規範人工智慧的法規。該法案提出了適度的法規和教育是前進的道路,因為過度的法規可能會妨礙創新。與數位素養類似,人工智慧素養應該在學校、大學和組織中作為強制要求,並且應該免費且易於獲取,以供公眾使用。

結論

隨著人工智慧聊天機器人愈來愈貼近人類,我們必須正視這一技術帶來的風險。在使用這些機器人時,我們需要保持警覺,並對它們的約束和局限性有所理解。教育和透明度是解決這一問題的關鍵。政府和組織應該制定相應的法規和標準,並在教育體系中加固人工智慧素養的培養。只有這樣,我們才能充分利用人工智慧聊天機器人的優勢,同時確保公眾的健康和福祉。
ArtificialIntelligence-Snapchat,AI,聊天機器人,人工智慧,風險,界線模糊
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。