
人工智慧模型缺乏透明度:研究
調查研究揭示人工智慧模型缺乏透明度
人工智慧(Artificial Intelligence, AI)的出現既引發了對其技術潛力的關注,也引發了對其對社會的潛在影響的擔憂。根據一項週三發表的研究,人工智慧模型缺乏透明度,旨在為政策制定者在監管迅速增長的技術方面提供指導。
斯坦福大學的研究人員設計了一個名為「基礎模型透明度指數」的指標,對 10 家主要 AI 公司進行排名。Facebook 和 Instagram 的所有者 Meta 在七月份推出的 AI 模型 Llama 2 獲得了最好的成績,達到了 54%。由微軟支援的公司 OpenAI 的旗艦模型 GPT-4,也是建立了著名聊天機器人 ChatGPT 的 OpenAI 的旗艦模型,以 48%的分數排名第三。Google 的 PaLM 2 以 40%的成績排名第五,僅略高於由亞馬遜支援的公司 Anthropic 的 Claude 2,排名第六,分數為 36%。斯坦福大學基礎模型研究中心的研究員 Rishi Bommasani 表示公司應該努力為自己的模型爭取 80 至 100%的評分。
研究人員表示「缺乏透明度使得政策制定者更難」制定有意義的政策來約束這項強大的技術。他們還表示這也使得其他企業更難知道他們是否可以依賴這項技術進行自己的應用,讓學者們進行研究以及讓消費者理解模型的局限性。Bommasani 表示:「如果缺乏透明度,監管機構甚至無法提出正確的問題,更不用說在這些領域採取行動了。」
透明度缺失的影響
研究人員指出,人工智慧公司不公開提供有關多少使用者依賴其模型以及其使用地理位置的訊息。大多數 AI 公司也不公開他們的模型使用多少受版權保護的材料。
斯坦福研究人員表示對於許多歐盟以及美國、英國、中國、加拿大、G7 和其他眾多政府的政策制定者來說透明度是一個重要的政策優先事項。歐盟正在領先監管人工智慧的行列,並計劃在年底前核準全球首部涉及這項技術的法律。G7 在今年早些時候的日本峰會上呼籲採取行動,英國也將在 11 月份主辦一次關於這個問題的國際峰會。
社論評論:為人工智慧進行透明化努力
由於人工智慧的快速發展和應用,透明度已經成為 AI 領域中的一個關鍵問題。這項研究的結果呼籲 AI 公司應該更加注重公開透明,並為政策制定者提供更多訊息,以便能夠制定符合現實需求的監管政策。
缺乏透明度對於不僅僅是政策制定者,也對於企業、學者和消費者來說都具有諸多負面影響。企業無法確保是否可以信賴這些 AI 模型來應用於他們自己的業務上;學者們難以進行有效的研究;消費者難以理解這些模型的局限性。只有透明度才能夠解決這些問題,確保 AI 技術的公平和可信度。
在 AI 領域,透明度不僅僅是一個道德問題,也是一個必要條件。AI 模型透明度的不足使得作出適當的監管和管理變得更加困難,甚至可能導致不需要的後果。如果人工智慧技術希望得到廣泛應用並為社會帶來真正的價值,那麼各方利益關注者都應該著重推動透明度的增強。
建議與展望
對於 AI 公司而言,提高透明度需要投入努力,並提供有關其模型使用情況、版權材料使用等相關訊息。政策制定者應該推動相應的監管措施,要求 AI 公司提供更多透明的訊息。同時學術界也應該加固對 AI 技術的研究,以提供更多關於透明度的可行解決方案。
此外國際社會應該加固合作,形成共識,共同擺脫透明度問題帶來的困境,推動 AI 技術的可持續發展。透明度的增強不僅僅對 AI 公司和政府機構有益,更有利於整個社會的發展和進步。
延伸閱讀
- 新加坡逮捕涉嫌走私 Nvidia 晶片的犯罪集團!背後真相大揭露!
- 「Inception 首度曝光!全新 AI 模型顛覆科技界!」
- 《Anthropic 利用寶可夢測試最新 AI 模型,成果驚人!》
- xAI 關於 Grok 3 基準測試的謊言揭祕:真相究竟如何?
- 特朗普終結推特封禁法律戰,背後真相揭曉!
- 研究人員利用 NPR 週日謎題測試 AI 推理能力的創新方法
- 「突破性發展!研究人員以不到 50 美元打造 OpenAI 的競爭對手」
- Google 悄然推出下一代旗艦 AI 模型,科技界即將震撼!
- 馬斯克坦承:對全自動駕駛的誤判,你絕對想知道的真相!
- AI2 推出新 AI 模型,成功超越 DeepSeek 最佳技術!