市場觀察

OpenAI 受到 FTC 調查:消費者保護是美國 AI 監管的開端

FTC 調查 OpenAI:消費者保護是美國 AI 監管的開端作者:安娜娜·蘇薩爾拉,The Conversation 美國聯邦貿易委員會(FTC)正對 ChatGPT 制造商 OpenAI 展開調查,以核實該公司是否存在違反消費者保護法的行爲。FTC 在 2023 年 7 月 10 日那周向 Ope .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

OpenAI 受到 FTC 調查:消費者保護是美國 AI 監管的開端

FTC 調查 OpenAI:消費者保護是美國 AI 監管的開端

作者:安娜娜·蘇薩爾拉,The Conversation

美國聯邦貿易委員會(FTC)正對 ChatGPT 制造商 OpenAI 展開調查,以核實該公司是否存在違反消費者保護法的行爲。FTC 在 2023 年 7 月 10 日那周向 OpenAI 傳送了一份長達 20 頁的訊息索取要求。此舉在歐洲監管機構開始採取行動、國會正在制定監管人工智慧行業的法律的同時發生。FTC 要求 OpenAI 提供有關使用者對 OpenAI 發布的“虛假、誤導、貶低或有害”宣告提出的所有投訴的細節,並要求 OpenAI 是否從事了與消費者危害(包括聲譽損害)相關的不公平或欺騙行爲。該機構還就 OpenAI 獲取資料的方式、模型的訓練方法、人類反饋過程、風險評估與緩解以及隱私保護機制提出了詳細問題。

社交媒體與人工智慧研究者的觀點

作爲社交媒體和人工智慧研究者,我認識到生成式人工智慧模型的巨大變革潛力,但我認爲這些系統也帶來了風險。尤其是在消費者保護的背景下,這些模型可能會產生錯誤、展示偏見並侵犯個人資料隱私。

生成式 AI 模型的隱藏力量

無論是 ChatGPT 等聊天機器人還是 DALL-E 等影象生成工具,生成式人工智慧模型都具有從文字、影象、聲音和影片輸入中建立逼真內容的能力。這些工具可以透過瀏覽器或智慧手機應用程式進行存取。由於這些 AI 模型沒有預定義的用途,它們可以輕鬆適應各種領域的各種應用,包括金融和生物學等 。這些模型透過大量資料進行訓練,可以透過簡單的語言描述來適應不同的任務,幾乎不需要程式設計。

由於 GPT-3 和 GPT-4 等 AI 模型是由使用專有資料集的私人組織開發的,公衆不知道用於訓練它們的資料的性質。訓練資料的不透明性以及模型架構的復雜性(GPT-3 是基於超過 1750 億個變數或“引數”進行訓練的)使得對這些模型進行審計變得困難。因此很難證實它們的構建或訓練方式會造成傷害。

幻覺現象

在語言模型人工智慧中,幻覺是指一個確信但不準確且似乎無法透過模型的訓練資料進行取證的回答。即使是設計成不容易產生幻覺的生成式 AI 模型也放大了這種現象。生成式 AI 模型可能會產生不正確或誤導性的訊息,從而對使用者造成實際損害。一項研究調查了 ChatGPT 在醫學領域生成事實上正確的科學寫作的能力,結果發現 ChatGPT 要麼生成對不存在的論文的引用,要麼報告不存在的結果。在我們的調查中,我和我的合作者也發現了類似的情況。當這些模型在沒有充分監督的情況下使用時,這種幻覺可能會造成真正的損害。例如,ChatGPT 錯誤地聲稱一個被提及的教授曾被指控性騷擾。一位電臺主持人也對 OpenAI 提出了誹謗訴訟,因爲 ChatGPT 錯誤地聲稱有針對他的侵佔指控。

偏見和歧視

如果沒有充分的保障或保護措施,根據從網際網路上收集的大量資料進行訓練的生成式 AI 模型可能會復制現有的社會偏見。例如,使用生成式 AI 模型設計招聘活動的組織可能會無意識地對某些群體造成歧視。當記者要求 DALL-E 2 生成關於“一位技術記者撰寫一篇關於一種可以創造出非凡且奇特影象的新 AI 系統”的圖片時,它只生成了男性的照片。一個 AI 肖像應用程式顯示了幾個社會文化偏見,例如將一名女演員的膚色變得更淺。其中一個主要關切是資料隱私,特別是在 FTC 的調查中。AI 可能泄露與使用其資料進行訓練的人的敏感或機密訊息。駭客可能會獲取到訓練 AI 模型的資料的人的敏感訊息。研究人員對所謂的提示注入攻擊提出了警告,這種攻擊可以欺騙生成式 AI 從而泄露不應該透露的訊息。其中一種攻擊方式是透過向某人傳送日歷邀請,要求他們的數位助手匯出接收者的資料並將其傳送給駭客。

一些建議

歐洲委員會已發布了關於值得信賴的 AI 的倫理準則,其中包括對 AI 系統六個不同方面的評估檢查表:人類代理和監督;技術的穩固性和安全性;隱私和資料管理;透明度、多樣性、非歧視性和公平性;社會和環境福祉;以及問責制。更好地記錄 AI 開發者的過程可以幫助凸顯潛在的危害。例如,算法公平性的研究人員提出了模型卡片,類似於食品的營養標籤。資料宣告和資料表可以對用於訓練 AI 模型的資料集進行表徵,起到類似的作用。例如,亞馬遜網路服務公司推出了描述其提供的一些模型的用途和約束的 AI 服務卡片。這些卡片描述了模型的能力、訓練資料和預期用途。FTC 的調查表明,這種型別的披露可能是美國監管機構採取的一個方向。此外如果 FTC 發現 OpenAI 違反了消費者保護法律,可以對該公司處以罰款或強制約束解決方案。

Regulation-OpenAI,FTC,調查,消費者保護,美國,AI 監管,開端
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。