蘋果公司約束員工使用 ChatGPT 擔憂資料外漏
近日《華爾街日報》的報導指出,蘋果公司約束員工使用類似 OpenAI ChatGPT 等 AI 工具,因為這些系統或許可能洩露機密資訊。據記者 Mark Gurman 在推特上的發言,ChatGPT 其實已經在蘋果公司尋找不安全的軟體清單上數個月了,此外蘋果公司還警告員工禁止使用 GitHub 的 AI 程式設計助手 Copilot。
ChatGPT 對於公司的風險
OpenAI 在 ChatGPT 中預設儲存所有使用者與聊天機器人互動的對話。這些對話會被 OpenAI 收集,用於訓練系統,並可由版主進行監控,並且如果違反了公司的服務條款,OpenAI 亦有權檢視。去年四月,OpenAI 推出了一項新功能,讓使用者可以關閉聊天記錄(巧合的是,該工具被多個歐盟國家調查是否出現隱私違規問題),但即使啟用此設定,OpenAI 系統還是可以保留對話 30 天,在「濫用」之後才會永久刪除它們。
考慮到 ChatGPT 在改程式式碼和產生頭腦風暴等任務上的效用,蘋果公司可能有很好的原因去擔心其員工會將機密專案的訊息輸入到系統中,並可能被 OpenAI 的版主看到。儘管當前還沒有證據表明 ChatGPT 本身易遭遇攻擊,但是一些語言模型的對話介面仍然可能受到訓練資料的提取,因此標準的風險管理程式可能會帶來好處。
其他公司的禁令
蘋果公司並不是唯一一家實施此類禁令的公司。其他一些公司也包括摩根大通、Verizon 和亞馬遜。儘管這次禁令在 OpenAI 剛剛推出 ChatGPT 的 iOS 應用程式略顯尷尬,但值得關注的是,這款應用程式是免費的,支援語音輸入,並且可以在美國使用。OpenAI 還表示將會很快在其他國家推出該應用程式,同時推出 Android 版本。
總結與建議
在當今的數位化時代,人工智慧和大資料技術日益普及,也帶來了資料和隱私泄漏的風險。為了應對這些風險,公司和員工必須注意到潛在的安全漏洞,並且做好風險管理。此次蘋果公司的禁令告訴我們,即使開發人員新增的人工智慧程式看起來很棒,仍需先考慮到可能釀成的風險,以免造成損失。同時在這樣的情況下,人們也應該尋求技術公司的教育訓練和諮詢,以提高他們處理工作資訊安全的能力。
延伸閱讀
- Google 解僱 28 名員工,因為他們爭議性的 Project Nimbus 合同與以色列引發的靜坐抗議
- 無線耳機升級帶來 ChatGPT 貼心助手 - Nothing 最新耳機震撼登場
- 特斯拉裁員:優秀員工遭裁,某些部門大縮水
- Microsoft 員工安全疏失,內部密碼外洩
- 敬請期待:與 Sand Technologies 一同探索未來員工與科技進化的策略
- ChatGPT 不再需要帳戶 - 但有一個小陷阱
- AI 動力對話機器人 ChatGPT:一切你需要知道的
- 協變科技致力於打造 ChatGPT 機器人
- 科技明星對 JP 摩根的 8000 萬美元合作訊息岌岌可危,員工表示
- AI 影片生成競爭升溫:Deepmind 前員工推出 Haiper