
白宮前顧問和 AI 學者簽署反對 AI 危害和政策宣告
背景
兩位前白宮 AI 政策顧問以及超過 150 名 AI 學者、研究人員和政策從業者,都在 ACM FaaCT(公平、負責任和透明性會議)的年度會議中簽署了一份新的《反對 AI 危害和政策宣告》。這份宣告突出了 AI 系統當前的危害影響,並呼籲制定基於現有研究和工具的政策。宣告強調保護公共利益和基本權利,並提到了不準確或有偏見的算法對生命救援醫療的危害以及語言模型對操縱和散布錯誤訊息的助長。
反對 AI 危害的宣告
這份由 ACM FaaCT 發表的宣告表示:「我們,這裡簽署的公平、負責任和透明性會議的學者和從業者,對發展和應用保護公共利益和基本權利的 AI 的呼籲表示歡迎。我們的研究早就預見到各種複雜程度和能力的 AI 系統對人的有害影響。我們的研究還展示了如何設計、審核或抵制 AI 系統,以保護民主、社會正義和人權。此時此刻,我們需要基於多年來對這個問題的研究來制定明智的政策。我們已經有工具來建立一個更安全的技術未來,我們呼籲政策制定者全面應用這些工具。」
反對 AI 危害的重要性
這份宣告的重要性在於,它將注意力集中在 AI 系統當前的危害影響上。過去的宣告更多關注 AI 可能引發的風險和潛在的災難,但這份宣告則關注實際影響,呼籲政策制定者基於現有研究和工具進行政策制定。
大力呼籲政策制定者
這份宣告的重要性在於,它將注意力集中在 AI 系統當前的危害影響上。過去的宣告更多關注 AI 可能引發的風險和潛在的災難,但這份宣告則關注實際影響,呼籲政策制定者基於現有研究和工具進行政策制定。
評論與建議
這份宣告的發表對於 AI 領域來說是一個重要的裏程碑。它提醒我們,AI 系統的危害影響不容忽視,並且有助於引起公眾對 AI 發展的關注。政策制定者應該嚴肅對待這些宣告,並根據現有的研究和工具制定相應的政策來降低 AI 系統的危害。
同時我們也應該保持對 AI 技術的發展和應用的開放態度。儘管 AI 系統存在危害,但它們也有巨大的潛力為社會帶來福祉和進步。因此我們需要在保護公共利益和基本權利的前提下,推動 AI 技術的安全和負責發展。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!