機器人或真人?新的檢測方法出爐!
作者:愛德華·費爾森特
ChatGPT(自動聊天生成模型)的出現對依賴科技的各個領域造成了影響,它為研究人員、教育家、學生、銀行家、醫生和律師提供幫助,承諾可以簡化操作、提高效率、降低成本,甚至可能徹底改變多年來完成事情的方式。
然而越來越多的報導都在關注 ChatGPT 的潛在問題,如錯誤使用或被人故意破壞。在最近的一份論文中,加利福尼亞州聖塔芭芭拉分校和中國西安交通大學的研究人員專門探討了聊天中的客戶是否會被假扮成人類的 AI 機器人欺詐。他們的研究成果已經被發表在 arXiv 的預印本服務中。
偵測真假的新方法
翻譯 FLAIR(透過單一問句回答,尋找大型語言模型的真實性)這個相當簡略的縮寫創造了一個新的方法,可以協助辨識假扮成人類的機器人。首席作者之一的王宏表示:「這些問句是針對機器人和人類在處理和生成語言方面的區別而量身定制的。」該問句要求回答者具備處理次數、字元或字母替換、字元和數位對比、識別 ASCII art 等的能力。
進一步的解釋
為了進一步說明 FLAIR 的功能,我們以一個簡單的問題為例。請回答 'eeooeotetto' 這個字元串中有多少個字元 't'?回答方式是:
- GPT-3: 在 "eeooeotetto" 中共有 5 個 't'。
- ChatGPT: 在 "eeooeotetto" 字元串中總共有 5 個 't'。
- 人類:3。
即使 ChatGPT 擁有巨大的腦力,也很難完成一些簡單的任務,如在字元串中進行字元替換。 ChatGPT 無法正確回答“請輸出 'rjsjuubrjjsjsucuj' 字元串中第二個 's' 後的第四個字元。”
另一個王宏提供的示例是一個插入了“噪音”詞的問句:isCURIOSITY waterARCANE wetTURBULENT orILLUSION drySAUNA?正確答案是“wet”。但 ChatGPT 無法回答這個問題,詢問者需要提供更多內容或重新解釋問題。
結論和建議
ChatGPT 擁有強大的自然語言理解和生成能力,能夠模仿人類行為和操作方式。但是在這種情況下,我們需要做出新的方法來識別機器人和人類。 FLAIR 提供了一種嶄新的保護線上服務提供商免受欺詐活動的方法,以確保他們傾向的是真正的使用者而不是機器人。
最終人類和機器人的分離是人們更好地運用 AI 技術的必要條件,也避免了機器人對人類進行破壞性的影響。
延伸閱讀
- Web3 投資公司 Borderless Capital 收購 CTF Capital,引進人工智慧和量化專業技術
- 0G Labs 以驚人的 3,500 萬美元預種子輪啟動,致力於打造模組化人工智慧區塊鏈
- Cyera 將籌集最高 3 億美元,估值達到 15 億美元,AI 正是資料問題
- 人工智慧與資料基礎設施推動開源新創公司需求
- Profluent 利用人工智慧發現藥物,得到 Salesforce 研究支援,Jeff Dean 提供後盾
- 大型語言模型可幫助家庭機器人在無需人類幫助的情況下恢復錯誤
- 聽得見嗎?AI 音效技術對抗嘈雜音訊
- 為何無法評論人工智慧以及為何 TechCrunch 還是這樣做?
- 穩定 AI 執行長辭職,因為你無法用更集中的 AI 來擊敗中央集權的 AI
- 為什麼人工智慧在拼字上如此不靈光?