
大型科技公司警告 AI 隱私問題
大型科技公司 Apple、Samsung 和 Verizon 以及諸如美國銀行、花旗銀行、德意志銀行、高盛、富國銀行和摩根大通等銀行機構,已約束使用 OpenAI ChatGPT 和 Microsoft Copilot,因為使用這些技術存在機密資料洩漏的風險。當然除了這些大公司之外,人們也可以在小公司中看到相同的行為,儘管擁有敏感資料保護的科技公司不會冒險違反隱私法規。
專注於 AI 隱私問題
檢視科技行業的機密泄漏警告,我們可以看到 AI 技術的潛在問題。其中一個顯而易見的應用是客戶服務,這是企業試圖降低成本的地方。但要使客戶服務起作用,客戶必須放棄他們的詳細訊息 - 有時是私人的,有時是敏感的。那麼,企業如何計劃保障其客戶服務機器人的隱私呢?
這不僅是客戶服務部門的問題。舉個例子,假設迪士尼決定讓 AI - 而不是視覺效果部門 - 編寫其漫威電影。當然這也會引起漫威粉絲們泄露劇情的問題。然而技術行業的普遍情況是,早期公司 - 像 Facebook 的早期版本 - 不會太重視資料安全。因此約束敏感材料的曝光是有道理的,就像 OpenAI 本身建議您這樣做的那樣。 (“請勿在對話中共享任何敏感訊息。”)
AI 導致的問題和風險
建造 AI 的費用之一是計算。構建您自己的資料中心成本高昂,但使用雲端計算意味著您的查詢正在在遠端伺服器上處理,這實際上是在依賴他人保障您的資料。您可以看到銀行可能會感到害怕 - 金融資料極其敏感。此外還存在意圖明確的公司間諜活動風險,影響商業祕密。
在即將展開的 AI 風潮中,隱私和實用性之間總是有一個推拉問題。在許多情況下 - 例如 Google 和 Facebook 之類的公司 - 使用者已經為免費的產品交換了自己的隱私。Google 的 Bard 明確表示查詢將用於“改進和開發 Google 產品、服務和機器學習技術。”
AI 的未來
如果這些最注重安全的公司正在封鎖其 AI 使用,那麼其他公司也可能需要考慮問題。AI 技術未來的發展之一或許是,公司受到越來越大的壓力,必須調整和清晰地概述其安全措施。除此之外,任何想要使用 AI 技術的公司都必須建立自己的專屬模型,或者至少執行自己的處理,這聽起來相當地昂貴和難以擴充套件。最終這都將成為線上隱私的一場噩夢,您的航空公司(或債收公司、藥房或任何人)定期洩漏您的資料。
但願,上述這些種種問題和風險都會平息。如果這些最注重安全的公司憂慮它們的 AI 使用,那其他公司也可能會需要認真對待隱私問題。
延伸閱讀
- Pinterest 警告!DEI 攻擊成為潛在商業風險的最新公告!
- 聯邦貿易委員會警告:微軟與 OpenAI 合夥關係恐引發反壟斷問題!
- 資料中心電力需求將在未來五年內翻倍,科技界震撼警告!
- CISA 釋出警告:Ivanti 又遭遇活躍攻擊的漏洞威脅!
- 比特幣 ATM 成詐騙溫牀,聯邦貿易委員會警告!
- 每日追蹤母公司 VerSe 估值驟降 42%至 29 億美元!投資者警告引發關注
- 以太坊聯合創始人警告「支援加密貨幣」的候選人:「他們是否出於正當原因?」
- 快遞英雄發出警告:或面臨 4 億歐元反壟斷罰款
- Reddit 反 AI 爬蟲,發出警告 + TechCrunch Minute
- 訊號應用程式總裁警告歐盟議員:停止玩弄網路安全