網路議題

AI 巨頭模型缺乏透明度,史丹佛大學研究報告揭曉

全球最大的人工智慧模型缺乏透明度,斯坦福研究指出斯坦福研究院人工智慧中心發布的研究報告稱,全球最大的人工智慧基礎模型(包括 OpenAI 和 Meta 等公司)並未充分披露有關其對社會影響的訊息。斯坦福人工智慧中心(HAI)最近發布了其基礎模型透明度指數(Foundation Model Trans .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 巨頭模型缺乏透明度,史丹佛大學研究報告揭曉

全球最大的人工智慧模型缺乏透明度,斯坦福研究指出

斯坦福研究院人工智慧中心發布的研究報告稱,全球最大的人工智慧基礎模型(包括 OpenAI 和 Meta 等公司)並未充分披露有關其對社會影響的訊息。

斯坦福人工智慧中心(HAI)最近發布了其基礎模型透明度指數(Foundation Model Transparency Index),該指數追蹤了 10 個最受歡迎的人工智慧模型的開發商是否披露了有關其工作原理以及人們如何使用這些系統的訊息。在測試的模型中,Meta 的 Llama 2 得分最高,其次是 BloomZ 和 OpenAI 的 GPT-4。然而這些模型的得分並不高。 其他評估的模型包括 Stability 的 Stable Diffusion,Anthropic 的 Claude,Google 的 PaLM 2,Cohere 的 Command,AI21 Labs 的 Jurassic 2,Inflection 的 Inflection-1 以及 Amazon 的 Titan。研究人員向《The Verge》承認,透明度是一個廣義的概念。他們的定義是基於 100 個指標,包括模型構建過程的訊息、模型的執行方式以及人們如何使用這些模型。他們解析了模型的公開訊息,並爲每個模型分配了一個得分,判斷公司是否披露了合作夥伴和第三方開發商,是否告知客戶模型是否使用私人訊息以及其他一系列問題。 Meta 的得分爲 54%,在模型基礎方面得分最高,因爲該公司披露了其模型創作的研究成果。BloomZ 作爲一種開源模型,得到了 53%的得分,而 GPT-4 得分爲 48%。盡管 OpenAI 採用了相對封閉的設計方法,但其模型 Stable Diffusion 得分爲 47%。OpenAI 拒絕公開大部分研究成果,並不披露資料來源,但 GPT-4 之所以能夠排名靠前,是因爲關於其合作夥伴有大量可用的訊息。OpenAI 與許多公司合作,將 GPT-4 整合到其產品中,從而產生了許多公開的詳細訊息。 《The Verge》聯絡了 Meta、OpenAI、Stability、Google 和 Anthropic,但尚未收到回應。然而斯坦福的研究人員發現,這些模型的建立者都沒有披露有關其對社會影響的任何訊息,包括隱私、版權或偏見投訴的處理方式。 斯坦福研究中心基礎模型研究負責人 Rishi Bommasani 表示該索引的目標是爲政府和企業提供一個基準。一些提議的法規,比如歐盟的《AI 法案》,可能不久將要求大型基礎模型的開發者提供透明度報告。“我們希望透過該指數將模型透明度提高,並將這個模糊的概念具體化,以便進行度量。”Bommasani 說。該研究組專注於每家公司的一個模型,以便進行比較。 生成式人工智慧擁有一個龐大而有聲的開源社區,但一些領域內最大的公司並不公開分享研究成果或程式碼。盡管 OpenAI 在其名稱中有“開放”一詞,但它已不再發布研究成果,理由是競爭力和安全性考慮。Bommasani 表示該研究組願意擴大索引的範圍,但當前將繼續評估這已經有的 10 個基礎模型

評論

提高人工智慧透明度的必要性

這份斯坦福大學的研究報告揭示了當前人工智慧領域的一個重要問題,即缺乏透明度透明度對於確保人工智慧的公正性、隱私保護和社會安全至關重要。然而當前的實踐顯示,大多數開發者並未充分披露有關他們的模型的訊息,包括其構建過程、工作原理以及可能對社會產生的影響。

透明度衡量指數的意義

斯坦福研究中心發布的基礎模型透明度指數是一個具有重要意義的工具。該指數透過詳細的評估,爲政府和企業提供了一個標準來評估人工智慧模型透明度。透過對模型的公開訊息進行解析,並將各項指標量化,該指數可以幫助開發者和相關方面更好地理解模型的性質和潛在風險。

政府和企業的責任

政府和企業在提高人工智慧透明度方面扮演重要角色。政府可以透過制定相關法規和政策來推動開發者披露更多有關其人工智慧模型的訊息。例如,歐盟的《AI 法案》要求大型基礎模型的開發者提供透明度報告,這是一種積極而必要的舉措。 而企業則應當主動披露更多關於其人工智慧模型的訊息,包括合作夥伴和資料來源等方面。透明度不僅有助於消除公衆的不信任,並爲使用者提供信心也有助於促進模型的發展和創新。企業應積極倡導透明度,並以開放的態度回應公衆的關注和疑慮。

編輯觀點

鑄就透明、公正的人工智慧

在人工智慧的發展過程中,透明度的確立是至關重要的。透明度不僅與技術的發展和應用息息相關,也關乎人們對人工智慧的信任和接受度。 因此我們呼籲各方共同努力,推動人工智慧透明度的建立。開發者應該更加積極地披露自己的研究成果和模型訊息,向公衆展示真實和可信的一面。 政府應該制定相關法規和政策,要求開發者提供透明度報告,並加固對人工智慧的監管和審查。只有政府的監管能夠形成有效的約束,確保人工智慧的發展符合公衆和社會的期望和利益。 同時公衆也應該積極參與對人工智慧的討論和監督。只有透過多方參與和共同努力,我們才能共同鑄就透明、公正的人工智慧未來。
Transparency-AI,透明度,模型,史丹佛大學,研究報告
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。