網路議題

AI 公司必須證實其 AI 的安全性,非營利組織表示

AI 公司需要證實其 AI 是安全的,非營利組織提醒 AI 公司必須證實其 AI 是安全的,非營利組織提醒在 AI 的領域裡,非營利組織 Accountable Tech、AI Now 和 Electic Privacy Information Center(EPIC)共同發布了一份政策建議,旨在約束 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 公司必須證實其 AI 的安全性,非營利組織表示

AI 公司需要證實其 AI 是安全的,非營利組織提醒

AI 公司必須證實其 AI 是安全的,非營利組織提醒

在 AI 的領域裡,非營利組織 Accountable Tech、AI Now 和 Electic Privacy Information Center(EPIC)共同發布了一份政策建議,旨在約束大型 AI 公司在規範方面所擁有的權力,同時也增強政府機構對泛生成 AI 的使用的管控力度。這個組織在本月向主要的美國政治家和政府機構傳送了這些框架,希望他們在制定新的 AI 法律和規範時考慮這些建議。這份框架稱為“Zero Trust AI Governance”,基於三條原則:執行現有法律,制定明確的、易於執行的規則,並要求公司在 AI 生命週期的每個階段都證實 AI 系統是無害的。它將 AI 的定義涵蓋了泛生成 AI 和支援其執行的基礎模型以及算法決策。

這個組織之所以現在要將這份框架公諸於眾,是因為這項技術正在迅速發展,而新法律無法以這個速度推出。該組織的共同創始人 Jesse Lehrich 告訴 The Verge 說:“我們希望現在將框架公之於眾,因為技術發展得很快但新的法律卻無法跟上步伐。這使我們有時間在確保最佳的規範之前,減輕最大的危害。”他還補充說,隨著選舉季節的到來,國會即將離開進行競選活動,AI 規範的命運還未定。其中一個非營利組織的代表稱,當前的反歧視、消費者保護和競爭法律能夠解決現有的問題。AI 中的歧視和偏見是研究人員多年來一直警告的問題。最近《滾石》雜誌的一篇文章詳細介紹了著名專家 Timnit Gebru 等人多年來對此議題的警示,然而這些公司卻對他們的警告視而不見。該組織的代表還指出,聯邦貿易委員會對 OpenAI 的調查就是現有法規揭露潛在消費者損害的一個例子。其他政府機構也警告 AI 公司將對其特定行業中的 AI 使用進行密切監管。國會已經舉行了多次聽證會,試圖找出如何應對泛生成 AI 的方法。參議院多數黨領袖查克·舒默(D-Chuck Schumer)敦促同事們在 AI 法規制定上“加快步伐”。像 OpenAI 這樣的大型 AI 公司已經表明願意與美國政府合作制定規範,甚至與白宮簽署了一項非拘束力的協議,以制定負責任的 AI。這份“Zero Trust AI”框架還尋求重新定義類似於第 230 段的數位防護法,以便使泛生成 AI 公司對其模型產生的虛假或危險訊息負有法律責任。Lehrich 說:“第 230 條的理念基本上是合理的,但是評論餐廳記錄的差評和 GPT 造假的誹謗言論是不同的。”(第 230 條的透過部分是為了保護線上服務免受誹謗內容的責任,但是對於 ChatGPT 這樣的平臺是否能夠對生成虛假和有害的陳述負責的判例幾乎沒有建立起來。)隨著立法者繼續與 AI 公司會面,引發了對規範可能遭受意圖操控的擔憂,Accountable Tech 及其合作夥伴提出了幾項明確的政策,即清楚定義並不容懷疑的政策。其中包括禁止使用 AI 進行情感識別、預測性警務、在公共場所進行大量監視的人臉識別、社會積分制度以及完全自動化的招聘、解僱和人力資源管理。他們還要求禁止在某項服務中收集或處理過多的敏感資料,禁止在教育和招聘等領域收集生物測量資料以及“監控廣告”。Accountable Tech 還敦促立法者阻止大型雲服務提供商擁有或對大型商業 AI 服務擁有利益,以約束大型科技公司在 AI 生態系統中的影響力。微軟和 Google 等雲服務提供商對於泛生成 AI 具有超乎尋常的影響力。最著名的泛生成 AI 開發商 OpenAI 與微軟合作,後者也對該公司進行了投資。Google 推出了其大型語言模型 Bard,並正在研發其他用於商業用途的 AI 模型。Accountable Tech 及其合作夥伴希望從事 AI 開發的公司能夠證實大型 AI 模型不會造成整體損害。該組織提出了一種類似於藥品行業的方法,即在將 AI 模型公開之前,公司應接受規範,並在商業上市後進行持續監測。這些非營利組織並不要求建立單一的政府監管機構。然而 Lehrich 說這是立法者必須思考的問題,看看是否將規則分開會使規範更靈活還是使執法變得困難。Lehrich 表示理解中小企業可能對他們所要求的大量規章產生反感,但他認為還是有空間將政策量身定制給不同規模的企業。他說:“從現實角度看,我們需要區分 AI 供應鏈的不同階段,並為每個階段設計適當的要求。”他還補充道,使用開源模型的開發者也應該確保其模型遵循指南。

評論和建議

隨著 AI 技術的快速發展,如何規範人工智慧成為了一個重要的議題。這份由 Accountable Tech、AI Now 和 EPIC 等非營利組織發布的政策建議提供了一個重要的思考框架。在審視 AI 技術的發展可能帶來的影響時,必須同時關注 AI 的安全性、倫理性和隱私性。這些原則應該成為政府、立法者和 AI 公司共同努力的目標。

AI 技術的潛在風險已經在過去的幾年中引起了廣泛的關注。從潛在的歧視、偏見到虛假和有害訊息的生成,這些問題都需要被重視並解決。政府機構應該積極監管 AI 公司的使用,並確保 AI 技術不會對社會、經濟和個人產生負面的影響。

此外立法者和政府機構應該制定具體的規則和法規,明確禁止 AI 技術在某些領域的使用,特別是與個人隱私和公共安全相關的領域。例如,情感識別、預測性警務、大規模監控的人臉識別等應該被禁止。這些政策應該能夠具體清楚,並且沒有歧義。

同時 AI 公司也有責任證實他們的 AI 系統是安全的和無害的。他們應該對其 AI 模型進行監測,並確保其不會生成虛假或有害的訊息。此外 AI 公司應該採取措施,約束他們在 AI 生態系統中的影響力,避免大型科技公司對 AI 產業產生過大的壟斷。

最後政府和 AI 公司之間的協作至關重要。政府應該與 AI 公司建立合作機制,共同制定規範和法規,以確保 AI 技術能夠得到適當的監管和使用。而 AI 公司應該積極參與制定這些規範和法規,並承擔起責任,證實他們的 AI 系統是安全的和可靠的。

Technology-AI 安全性,AI 公司,非營利組織

延伸閱讀

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。