Zoom 因使用客戶資料來訓練 AI 模型而陷入了法律糾紛。最近,Zoom 的服務條款引起了爭議,有人聲稱該公司可以在未經允許的情況下使用客戶資料來訓練 AI 模型。這引起了社交媒體上的公憤。然而一些專家指出,這一條款僅適用於"服務生成的資料",而不是客戶在平臺上做的一切。儘管如此人們仍然感到憤怒。畢竟,開會本身已經夠痛苦了,如果你的"輸入"被重新用於訓練 AI 模型,可能導致你的工作不再需要。
從法律的角度來看,Zoom 在歐盟的活動受到了隱私相關的法律要求的約束。在這裡相關法律是歐盟的一般資料保護條例(GDPR)和電子通訊隱私指令。根據這些法律,Zoom 在使用個人資料時必須遵守一系列有關個人訊息的權利。此外電子通訊隱私指令要求在未經使用者同意的情況下,禁止他人對通訊和相關流量資料進行監聽、竊聽、儲存或其他監控。
Zoom 回應了有關其服務條款的爭議,並表示在未經客戶同意的情況下,不會使用音訊、影片或聊天客戶內容來訓練其人工智慧模型。然而 Zoom 在針對其在歐盟的資料處理方面的法律基礎時並沒有給出明確回答。它的發言人只是重申了這一點,即他們在更新的部落格和服務條款中明確指出,未經客戶同意,他們不會使用音訊、影片或聊天客戶內容來訓練他們的人工智慧模型。儘管 Zoom 在一些情況下提供了"通知",告知會議參與者其生成式 AI 服務正在使用,但這種通知是否等同於要求 Zoom 獲得使用者同意分享其資料仍然不清楚。
根據歐盟法律,如果 Zoom 聲稱同意是其資料處理的法律基礎,實際上必須提供真正的自由選擇。然而 Zoom 似乎並沒有給會議參與者提供完全自由選擇來拒絕共享資料作為 AI 訓練的內容。Zoom 還將生成式 AI 功能的資料處理與其他非必要的用途相結合,例如產品改進和模型訓練。這看起來違反了 GDPR 限定用途的原則。此外 Zoom 似乎透過將共享資料的框框預先選中,來迫使管理員同意這種資料的共享。這令人質疑 Zoom 的選擇是否符合歐盟的同意標準。
當然 Zoom 可能會聲稱其使用資料來訓練 AI 模型的法律依據是履行合同。然而從法律專家的分析來看,Zoom 似乎並沒有充分考慮到歐洲的資料保護框架。歐洲對於所有個人資料的擁有採取了不同的態度,並將其區分為非個人資料和個人資料。Zoom 沒有將這兩種資料區分開來。Zoom 似乎將焦點放在客戶內容資料(即通訊內容)和遙測資料上,而後者是後設資料。這種區分方式與歐洲法律不相容。Zoom 似乎還聲稱可以隨意處理後設資料,這與 GDPR 的定義相悖。根據 GDPR 的定義,後設資料可以是個人資料,並且有時還可能是敏感個人資料。法律專家表示 Zoom 需要獲得這類資料的同意才能在歐盟合法地進行處理。
儘管 Zoom 可能希望其對資料進行 AI 訓練的做法不會引起國際監管機構的關注,但是如果使用者對其廣泛的資料共享條款感到憤怒,這可能給 Zoom 帶來更大的麻煩。此外根據歐洲的資料保護法律,Zoom 可能面臨的罰款高達全球年度營業額的 4%。因此 Zoom 應該更加重視使用者對其資料使用的擔憂。
有一點值得注意的是,Zoom 似乎並沒有在歐盟的任何成員國註冊營運機構。監管機構可以對 Zoom 在歐盟的合規性提出質疑。此外電子通訊隱私指令並不像 GDPR 一樣擁有一站式監管機制。這意味著任何監管機構都可以對 Zoom 的違規行為進行調查。因此使用者對 Zoom 使用其資料進行 AI 訓練的公開反彈可能給 Zoom 帶來更大的風險。
總之 Zoom 應該更加重視歐洲使用者對其資料使用的擔憂,並盡快解決有關其資料處理的法律問題。此外 Zoom 還應該更加透明地向使用者提供相關訊息,並確保其選擇是否真正自由和明確。由於這樣的資料使用引起了公眾的關注,Zoom 可能需要面對來自歐洲監管機構的調查和相應的法律問題。
Privacy-Zoom,法律糾紛,客戶資料,AI 模型,訓練
延伸閱讀
- 黑板創始人將原設計給老師的 Zoom 附加元變成商務工具
- Seam 希望讓客戶資料對每個商業使用者都可取得
- 瓦納計劃讓使用者出租 Reddit 資料以訓練人工智慧【AI】
- 印度音訊巨頭 BoAt 表示正在調查疑似客戶資料泄露
- Modal 籌集 2500 萬美元,為企業員工提供資料與人工智慧訓練
- NFT 平臺 Zora 提供了一種新的賺錢方式,適合 AI 模型製作者
- 史上最大的文字轉語音 AI 模型體現「新興能力」
- Zoom 推出 Vision Pro 應用程式,擁有數位人物、3D 檔案等功能
- Kin.art 推出免費工具,防止 GenAI 模型在藝術品上進行訓練
- 研究發現:人類學家發現 AI 模型可以被訓練成欺騙者