網路議題

本週 AI 新聞:我們能相信 DeepMind 是個道德的嗎?

This week in AI: Can we trust DeepMind to be ethical?作者:背景本週,DeepMind,Google 旗下的人工智慧研究實驗室,發布了一份關於評估人工智慧系統的社會和倫理風險的框架的論文。該論文呼籲人工智慧開發者、應用開發者和“更廣泛的公衆利益相關 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

本週 AI 新聞:我們能相信 DeepMind 是個道德的嗎?

This week in AI: Can we trust DeepMind to be ethical?

作者:

背景

本週,DeepMind,Google 旗下的人工智慧研究實驗室,發布了一份關於評估人工智慧系統的社會和倫理風險的框架的論文。該論文呼籲人工智慧開發者、應用開發者和“更廣泛的公衆利益相關者”參與評估和審計人工智慧,包括生成人工智慧(例如 ChatGPT、穩態擴散等)。這份論文發布的時間並非偶然,因爲下周將舉行 AI 安全峰會,這是英國政府支援的一個活動,將匯聚國際政府、領先的人工智慧公司、公民社會團體和研究專家,重點討論如何最好地管理人工智慧最新進展帶來的風險,包括生成人工智慧。在峰會期間,英國計劃成立一個全球諮詢小組,其模式類似於聯合國的氣候變化政府間專門委員會,由一群知名學者輪流撰寫有關人工智慧前沿發展及相關危險的定期報告。DeepMind 在峰會實質性討論之前,公開表明了自己的觀點。誠然,這個研究實驗室提出了一些合理(盡管顯而易見)的觀點,比如呼籲從“人類互動的角度”審查人工智慧系統以及審視這些系統可能被使用和融入社會的方式。

然而在評估 DeepMind 的提議時,看一看其母公司 Google 在一項斯坦福研究人員發布的研究中如何打分是很有意義的。這項研究對十個重要的人工智慧模型進行了打分,評估其透明度。評分根據 100 個標準,包括模型的訓練資料來源是否公開、使用的硬體訊息、訓練過程中的人工參與等。其中 Google 的旗艦文字分析人工智慧模型 PaLM 2 只得到了可憐的 40%的分數。現在DeepMind 並沒有直接開發 PaLM 2。但該實驗室在自己的模型透明度方面並不一貫,而其母公司在關鍵透明度方面的不足暗示了 DeepMind 在提高透明度方面並沒有太大的上級壓力。

另一方面,在公開政策方面,DeepMind 似乎正在採取行動,以改變人們對其模型架構和內部執行缺乏透明的看法。幾個月前,該實驗室與 OpenAI 和 Anthropic 一起,承諾向英國政府“提供早期或優先存取”其人工智慧模型,以支援評估和安全研究。問題是,這只是形式主義嗎?畢竟,沒有人會將 DeepMind 的行爲視爲慈善行爲-該實驗室每年透過向 Google 團隊內部授權其工作賺取數億美元的收入。也許該實驗室下一個倫理測試將是其即將推出的 AI 聊天機器人 Gemini,DeepMind CEO Demis Hassabis 再三承諾該機器人在功能上將與 OpenAI 的 ChatGPT 不相上下。如果 DeepMind 希望在人工智慧倫理方面被認真對待,就必須全面詳細地說明 Gemini 的弱點和局限性,而不只是其優點。我們肯定會密切關注接下來的幾個月裏的事態發展。

思考

DeepMind 自成立以來,一直在人工智慧領域佔據重要地位。其研究成果和技術創新被廣泛應用於各個領域,取得了巨大的商業價值。然而人們對其道德和倫理承諾持有不同意見。

正如上文所述,DeepMind 的母公司 Google 在透明度方面的表現並不理想,這引發了人們對 DeepMind 的信任問題。Google 自成立以來一直面臨着透明度和隱私問題的質疑,這也間接地對 DeepMind 的形象產生了影響。雖然 DeepMind 在公開論文中呼籲人工智慧開發者和應用開發者更加透明和負責任,但其自身的透明度還有待提高。

此外 DeepMind 的商業模式也受到了質疑。該實驗室將其研究成果授權給 Google 內部團隊使用,從中獲利數億美元。這引發了一些人的擔憂,認爲 DeepMind 可能將其技術投資重點放在了 Google 的商業利益上,而不是真正爲社會帶來長期價值。

然而 DeepMind 也採取了一些行動,試圖改變外界對其缺乏透明度的觀點。例如,與 OpenAI 和 Anthropic 一起,DeepMind 承諾向英國政府提供其 AI 模型,以支援評估和安全研究。這表明 DeepMind 正在花費精力來強調其對透明度和安全的重視。

編輯觀點與建議

在評估 DeepMind道德和倫理承諾時,我們必須在深入思考一些關鍵問題。

首先我們需要考慮 DeepMind 的商業模式是否有助於實現其道德目標。雖然 DeepMind 從其技術授權中獲利豐厚,但這是否意味着其實際價值被過度商業化了?該實驗室是否有責任確保其技術在符合倫理準則的範圍內使用?

其次我們需要審查 DeepMind 在透明度方面的表現。Google 在透明度和隱私保護方面的不足對 DeepMind 的信譽產生了負面影響。DeepMind 需要加固自己的透明度政策,向公衆和學術界提供更多關於其模型架構和內部執行的訊息。

最後我們應該對 DeepMind 的合作承諾保持警惕。盡管 DeepMind 承諾與 OpenAI 和 Anthropic 共享其 AI 模型以支援研究,但我們需要確保這種合作不僅僅是形式主義。應確保這些合作能夠實際促進人工智慧的透明和安全。

鑑於 DeepMind人工智慧領域的重要地位以及其所面臨的倫理和道德挑戰,我們建議 DeepMind 採取以下行動:

首先 DeepMind 應確保其商業模式與其道德目標一致。該實驗室應該制定明確的指導方針,確保其技術在與道德價值觀相一致的方式下被使用和推廣。

其次 DeepMind 應加固其透明度政策。該實驗室應向公衆和學術界提供更多關於其模型架構和內部執行的詳細訊息,以建立信任。

最後DeepMind 應確保其合作承諾是真實和有意義的。與 OpenAI 和 Anthropic 等合作夥伴的合作應該超越形式主義,真正推動人工智慧的透明和安全。

總的來說我們認爲 DeepMind人工智慧倫理方面面臨一系列挑戰,但也有機會成爲行業的先鋒。透過採取透明度措施、制定明確的倫理指南並加固合作夥伴關系,DeepMind 可以樹立起一個可信賴和受尊重的形象。

Technology-AI 倫理,DeepMind,道德,人工智慧,新聞
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。