網路詐騙者如何利用人工智慧工具
攻擊者利用 AI 工具放大風險
擁護人工智慧的支援者表示其潛力無窮。然而網路詐騙者也可以利用人工智慧技術獲利。據法新社報導,分析師解釋了這項技術如何增加線上犯罪的風險。
電子郵件釣魚是最普遍的網路詐騙手法,涉案人員冒充企業或個人傳送一批包含指向偽造網站或惡意軟體的電子郵件。AI 的進步使得這兩個世界開始交集,網路罪犯線上討論著如何讓聊天機器人生成釣魚電子郵件的最佳方法。由於大型平臺禁止使用者生成此類郵件,開發人員設計了一些旨在生成釣魚訊息的程式,其中包括 FraudGPT 和 WormGPT。這些工具的效果尚未經歷測試,著名的諮詢公司 Wavestone 的 Gerome Billois 告訴法新社:“我們才剛剛起步。”專家表示聊天機器人在釣魚團夥中的主要技能是生成相對正確的文章。錯誤拼寫和混亂的標點常常是釣魚電子郵件的重要特徵。Billois 表示:“AI 加速了攻擊的速度。”根據 FBI 的資料,去年他們收到了關於釣魚詐騙的 30,0497 宗投訴,損失達到 5200 萬美元。
克隆人的攻擊
今年早些時候,美國母親 Jennifer DeStefano 敘述了她接到女兒求助的電話,然後被綁匪告訴支付 100 萬美元贖金。她告訴當地媒體:“我一秒都沒有懷疑那是她”,然而聲音是由 AI 生成的模仿。DeStefano 很快發現了這種詐騙。這表明未來可能出現透過電話或影片通話模仿所愛之人或同事的深度偽造,這對詐騙者來說可能是一筆橫財。只需使用者短短幾秒的語音錄音,網上工具即可生成能夠欺騙員工或朋友的模仿聲音。法國 OPFOR Intelligence 諮詢公司的創始人 Jerome Saiz 表示“一群小詐騙犯的整個產業”已經熟練地透過簡訊的方式敲詐信用卡詳情,未來他們有可能開始使用這類工具。他還告訴法新社,這些詐騙者通常年輕且熟練掌握技術工具。
程式設計指南
像 ChatGPT 這樣的聊天機器人被宣揚為能夠生成可接受的電腦程式碼。詐騙者可以利用這些技能來建立能夠鎖定受害者計算機或獲取檔案或帳戶的惡意軟體。網上有人聲稱,新一代定制聊天機器人可以執行此類操作,但真實的證據很難得到。聊天機器人確實可以識別現有程式碼中的漏洞,甚至生成惡意程式碼,但不能直接執行。Saiz 表示他可以看到 AI 幫助缺乏才能的詐騙者變得更加熟練,這就像一位程式設計導師。他說:“但一個從零開始的人不可能讓 ChatGPT 為他編寫惡意軟體程式碼。”作為臨時掃描清楚問題的專家,Saiz 表示他在過去一年的案例中沒有看到任何與 AI 有關的證據。美國網路安全公司 Tanium 的 Shawn Surber 同樣持謹慎態度。他說:“對於關於生成式 AI 如何增加企業風險的擔憂,大多數基於對未知專案的恐懼,而非特定威脅。”
延伸閱讀
- Ofcom 將推動在新的網路兒童安全守則中,加固年齡取證、篩選和其他 40 項檢查
- Brandywine Realty Trust 表示資料已在勒索軟體攻擊中被竊取
- Meta 推出的 AI 工具現在能夠創造全新的影象,而非僅僅是更換背景
- LockBit 的幕後主謀被起訴:我們從中學到了什麼?
- 微軟禁止美國警方使用企業 AI 工具進行臉部辨識
- 美國聯合健康集團 CEO 表示:“也許三分之一的美國公民受到最近的駭客攻擊影響”
- Mozilla 發現大多數約會應用並不善於保護使用者資料
- 英國正在評估 AI 是否能幫助保護年輕的網路使用者
- 帕羅奧圖網路防火牆漏洞遭攻擊,數千家公司面臨新的災害
- Change Healthcare 被駭客入侵,病患資料遭勒索軟體集團洩漏