![大型科技公司已警告我們 AI 隱私問題 大型科技公司已警告我們 AI 隱私問題](/Upload/Privacy-ra4vJwxnvAo-620290_20230520088_.webp)
大型科技公司警告 AI 隱私問題
大型科技公司 Apple、Samsung 和 Verizon 以及諸如美國銀行、花旗銀行、德意志銀行、高盛、富國銀行和摩根大通等銀行機構,已約束使用 OpenAI ChatGPT 和 Microsoft Copilot,因為使用這些技術存在機密資料洩漏的風險。當然除了這些大公司之外,人們也可以在小公司中看到相同的行為,儘管擁有敏感資料保護的科技公司不會冒險違反隱私法規。
專注於 AI 隱私問題
檢視科技行業的機密泄漏警告,我們可以看到 AI 技術的潛在問題。其中一個顯而易見的應用是客戶服務,這是企業試圖降低成本的地方。但要使客戶服務起作用,客戶必須放棄他們的詳細訊息 - 有時是私人的,有時是敏感的。那麼,企業如何計劃保障其客戶服務機器人的隱私呢?
這不僅是客戶服務部門的問題。舉個例子,假設迪士尼決定讓 AI - 而不是視覺效果部門 - 編寫其漫威電影。當然這也會引起漫威粉絲們泄露劇情的問題。然而技術行業的普遍情況是,早期公司 - 像 Facebook 的早期版本 - 不會太重視資料安全。因此約束敏感材料的曝光是有道理的,就像 OpenAI 本身建議您這樣做的那樣。 (“請勿在對話中共享任何敏感訊息。”)
AI 導致的問題和風險
建造 AI 的費用之一是計算。構建您自己的資料中心成本高昂,但使用雲端計算意味著您的查詢正在在遠端伺服器上處理,這實際上是在依賴他人保障您的資料。您可以看到銀行可能會感到害怕 - 金融資料極其敏感。此外還存在意圖明確的公司間諜活動風險,影響商業祕密。
在即將展開的 AI 風潮中,隱私和實用性之間總是有一個推拉問題。在許多情況下 - 例如 Google 和 Facebook 之類的公司 - 使用者已經為免費的產品交換了自己的隱私。Google 的 Bard 明確表示查詢將用於“改進和開發 Google 產品、服務和機器學習技術。”
AI 的未來
如果這些最注重安全的公司正在封鎖其 AI 使用,那麼其他公司也可能需要考慮問題。AI 技術未來的發展之一或許是,公司受到越來越大的壓力,必須調整和清晰地概述其安全措施。除此之外,任何想要使用 AI 技術的公司都必須建立自己的專屬模型,或者至少執行自己的處理,這聽起來相當地昂貴和難以擴充套件。最終這都將成為線上隱私的一場噩夢,您的航空公司(或債收公司、藥房或任何人)定期洩漏您的資料。
但願,上述這些種種問題和風險都會平息。如果這些最注重安全的公司憂慮它們的 AI 使用,那其他公司也可能會需要認真對待隱私問題。
延伸閱讀
- 以太坊聯合創始人警告「支援加密貨幣」的候選人:「他們是否出於正當原因?」
- 快遞英雄發出警告:或面臨 4 億歐元反壟斷罰款
- Reddit 反 AI 爬蟲,發出警告 + TechCrunch Minute
- 訊號應用程式總裁警告歐盟議員:停止玩弄網路安全
- 大型科技公司在英國大選前透過「促進競爭」規則
- 英國資料保護監管機構結束對 Snap 的 GenAI 聊天機器人的隱私調查,但警告行業
- Google 就 10 家印度公司逃避 Play 商店費用發出警告,並威脅將移除其應用程式
- 大型科技公司的人工智慧基礎設施合作將受到歐盟反壟斷主管更深入的審查
- Tinder 推出新警告功能,提醒使用者可能不當行為
- Sundar Pichai 警告 Google 員工,更多裁員即將到來