OpenAI 失去了信任和安全領導者
Emilia David 報導
OpenAI 的信任和安全主管 Dave Willner 將離開公司,此舉發生在 AI 行業受到政策制定者對於隱私和安全的更多關注之際。Willner 在信任和安全領域工作了近十年時間。在加入 OpenAI 之前,他曾是託兒創業公司 Otter 的信任和安全主管,並領導了 Airbnb 的信任和社區政策。聯邦貿易委員會上週啟動了對 OpenAI 的調查,以確保其訓練資料收集方法是否違反了消費者權利。美國證券交易委員會也表示擔憂,大型 AI 模型可能將金融資料和決策集中化,類似於 2008 年金融危機前的群體思維。OpenAI、Meta、Microsoft 和其他在 AI 領域的大型公司本週與白宮簽署了一項承諾,承諾投資於安全和歧視研究以及一種新的水印系統來識別 AI 生成的內容。OpenAI 的 CEO Sam Altman 積極呼籲 AI 法規,呼籲國會制定政策,並支援要求開發強大的 AI 模型需要取得許可證的倡議。
重視信任和安全的重要性
Willner 在 LinkedIn 上表示他決定在參加最近一次信任和安全專業人士的會議 TrustCon 後,平衡與小公司合作以及見證自己的孩子成長。他說:“那一刻的清晰使我得出了一個可能對很多人來說感知很反直觀,但對我而言卻非常正確的決定。雖然這個選擇對於我這個職位的人來說並不常常明確地公開表明,但卻是一個非常容易的選擇。我希望這篇文章能有助於讓這種選擇變得更加常規化。”
AI 行業面臨的挑戰
隨著 AI 的快速發展,政策制定者開始對其產生越來越多的關注。他們關注的重點主要集中在隱私保護和安全方面。聯邦貿易委員會對 OpenAI 的調查是反應了消費者對於個人資料收集和使用的擔憂。此外金融監管機構也對大型 AI 模型可能導致集中化和群體思維的風險表示擔憂。這些關切反映了 AI 技術在日常生活中的應用和影響的增加。
社論和建議
建立可信的 AI 行業
OpenAI 在失去信任和安全領導者的同時與其他大型 AI 公司簽署了一項承諾,承諾投資於安全和歧視研究。這是一個積極的舉措,旨在應對保護個人隱私和避免 AI 技術在金融等領域中產生不良影響的重要問題。然而單靠公司內部的努力是不夠的,政府和監管機構也應加固監管,制定相應的法律和政策,確保 AI 技術的安全和合法使用。
個人擁有隱私權的重要性
隨著 AI 技術的不斷進步,個人隱私日益受到侵犯的風險也在增加。政府和企業應該重視個人隱私權的保護,確保 AI 技術不會濫用個人資料。同時個人在使用 AI 技術時也應該保持警惕,注意保護自己的隱私。
培養 AI 人才
AI 技術的發展需要大量的人才支援,特別是專業的信任和安全專家。政府和企業應該加大對 AI 人才的培養和支援力度,提供良好的培訓和發展機會。同時個人也應該積極學習相關知識,提高自己在 AI 領域的專業能力。
結論
OpenAI 失去了信任和安全領導者,這引起了人們對 AI 技術的隱私和安全問題的關注。政策制定者、企業和個人都應該意識到 AI 技術的發展所帶來的挑戰,同時努力解決這些問題,確保 AI 技術的可信和安全使用。
延伸閱讀
- OpenAI 與 Google 擺出競爭的 AI 願景
- OpenAI 設立超智慧 AI 團隊,卻任由其荒廢,訊息來源指稱
- 本週人工智慧大事記:OpenAI 轉向非安全應用
- OpenAI 成立團隊控制「超智慧」AI,卻任憑其枯萎——訊息來源指出
- 醫療保健公司 WebTPA 披露侵害 250 萬人的資料洩露事件
- OpenAI 聯合創始人兼長期首席科學家 Ilya Sutskever 離職
- OpenAI 考慮允許 AI 色情內容?
- OpenAI 揭開 AI 祕密指令的面紗
- OpenAI 表示正在建立一個工具,以讓內容創作者選擇退出 AI 訓練
- 微軟和 OpenAI 啟動 200 萬美元基金以對抗選舉假影片