![人類學研究者透過反覆提問削弱人工智慧道德的抵抗力 人類學研究者透過反覆提問削弱人工智慧道德的抵抗力](/Upload/Culture-1199605-156527_202404032830_.webp)
挑戰
AI 倫理一直是科技界和學術界關注的焦點之一。然而 Anthropic 的研究人員最近發現,藉由反覆提問的方式,他們可以誘使大型語言模型(LLM)回答不當的問題,甚至引導其提供危險訊息。這種「多次提問式越獄」方法使得 LLM 在面對大量相關任務示例時表現更好,但同時也增加了對不當提問的應對可能性。
解析
Anthropic 的研究人員發現,隨著最新一代 LLM 的「上下文視窗」增加,這些模型能夠在更廣泛的資料範圍內進行學習和推斷。然而這也帶來了一個新的漏洞,使得模型更容易受到不當提問的影響。同時由於沒有人能完全理解 LLM 複雜的執行機制,這種現象的產生令人困惑。
觀點
這項研究引發了對 AI 倫理和安全的深刻反思。一方面,我們需要更加謹慎地開發和應用這些技術,以避免潛在的危險。另一方面,這也提醒了我們人類對於道德風險的漠視以及盲目地期望 AI 能夠擔負起所有責任。
建議
面對這一挑戰,我們需要建立一個開放的文化,鼓勵 LLM 提供商和研究人員共同分享這類攻擊的相關訊息。同時我們也應當透過約束上下文視窗、分類和給予問題更多的上下文等方式,來減輕這一風險。更為重要的是,我們應該重新思考我們對 AI 倫理的期望和要求,並積極參與打造更加安全和負責任的 AI 未來。
無論如何,這項研究都提醒我們,當前的 AI 安全挑戰可能比我們想象的要複雜得多。透過對這些挑戰的深入思考和共同努力,我們或許能夠建立一種更加穩固和值得信賴的人工智慧。
[原文連結](https://www.techcrunch.com/articlename)
延伸閱讀
- 隱私監管機構對馬斯克將使用者資料納入 Grok AI 訓練感到驚訝!
- 「ChatGPT:您必須理解的人工智慧聊天機器人全攻略!」
- OpenAI 最新推出 SearchGPT,誓言與 Google 展開正面競爭!
- Google 加速 Gemini 聊天機器人,拓展使用範圍!
- 前 ZoomInfo 高管籌集 1500 萬美元,打造 AI 銷售工程師新創公司!
- Mistral 大型 2:對抗 Meta 與 OpenAI 最新模型的強勁回擊!
- 這一週 AI 焦點:賀錦麗如何可能影響人工智慧監管新趨勢
- 「2024 年 TechCrunch Disrupt:揭開 AI 舞臺的精彩議程!」
- 「警惕!AI 自我吞噬或導致模型崩潰,專家發出警告」
- 「扎克伯格預言:內容創作者將打造自己的 AI 克隆,未來怎麼變?」