機器人或真人?新的檢測方法出爐!
作者:愛德華·費爾森特
ChatGPT(自動聊天生成模型)的出現對依賴科技的各個領域造成了影響,它為研究人員、教育家、學生、銀行家、醫生和律師提供幫助,承諾可以簡化操作、提高效率、降低成本,甚至可能徹底改變多年來完成事情的方式。
然而越來越多的報導都在關注 ChatGPT 的潛在問題,如錯誤使用或被人故意破壞。在最近的一份論文中,加利福尼亞州聖塔芭芭拉分校和中國西安交通大學的研究人員專門探討了聊天中的客戶是否會被假扮成人類的 AI 機器人欺詐。他們的研究成果已經被發表在 arXiv 的預印本服務中。
偵測真假的新方法
翻譯 FLAIR(透過單一問句回答,尋找大型語言模型的真實性)這個相當簡略的縮寫創造了一個新的方法,可以協助辨識假扮成人類的機器人。首席作者之一的王宏表示:「這些問句是針對機器人和人類在處理和生成語言方面的區別而量身定制的。」該問句要求回答者具備處理次數、字元或字母替換、字元和數位對比、識別 ASCII art 等的能力。
進一步的解釋
為了進一步說明 FLAIR 的功能,我們以一個簡單的問題為例。請回答 'eeooeotetto' 這個字元串中有多少個字元 't'?回答方式是:
- GPT-3: 在 "eeooeotetto" 中共有 5 個 't'。
- ChatGPT: 在 "eeooeotetto" 字元串中總共有 5 個 't'。
- 人類:3。
即使 ChatGPT 擁有巨大的腦力,也很難完成一些簡單的任務,如在字元串中進行字元替換。 ChatGPT 無法正確回答“請輸出 'rjsjuubrjjsjsucuj' 字元串中第二個 's' 後的第四個字元。”
另一個王宏提供的示例是一個插入了“噪音”詞的問句:isCURIOSITY waterARCANE wetTURBULENT orILLUSION drySAUNA?正確答案是“wet”。但 ChatGPT 無法回答這個問題,詢問者需要提供更多內容或重新解釋問題。
結論和建議
ChatGPT 擁有強大的自然語言理解和生成能力,能夠模仿人類行為和操作方式。但是在這種情況下,我們需要做出新的方法來識別機器人和人類。 FLAIR 提供了一種嶄新的保護線上服務提供商免受欺詐活動的方法,以確保他們傾向的是真正的使用者而不是機器人。
最終人類和機器人的分離是人們更好地運用 AI 技術的必要條件,也避免了機器人對人類進行破壞性的影響。
延伸閱讀
- RPA 供應商如何在 AI 代理人世界保持競爭力
- 元 AI 測試:未能彰顯自身價值,但免費就是免費
- Google 推出新功能“口語練習”,利用人工智慧幫助使用者提高英文能力
- 科技巨頭 xAI 競爭開放人工智慧,吸金 60 億美元。推動社交網路 X 成為股東
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- 新潮程式碼測試新創 Nova AI 為何比 OpenAI 更多地使用開源 LLMs
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- Snowflake 推出自家旗艦生成式人工智慧模型