網路議題

Sarah Silverman 對抗 AI:道德數位領域爆笑戰線的新梗頭

對於 Gen AI 的問題,保護消費者隱私是首要考量問題的核心:資料的使用權和同意問題對於 Gen AI 所帶來的困惑,問題的核心在於資料的使用權和同意問題。許多資料已經被用於現有的模型中,這些資料使得模型的執行超乎之前的想像。而且每天仍然有大量的資料被新增進來。這是一個問題,因為消費者並沒有意識到 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Sarah Silverman 對抗 AI:道德數位領域爆笑戰線的新梗頭

對於 Gen AI 的問題,保護消費者隱私是首要考量

問題的核心:資料的使用權和同意問題

對於 Gen AI 所帶來的困惑,問題的核心在於資料的使用權和同意問題。許多資料已經被用於現有的模型中,這些資料使得模型的執行超乎之前的想像。而且每天仍然有大量的資料被新增進來。這是一個問題,因為消費者並沒有意識到他們的訊息、搜尋以及他們的智慧財產權和藝術創作,會被用來供 AI 模型培訓。看似無害的互動現在被刮取和用於培訓。當模型分析這些資料時,它開啟了根據消費者從未同意用於此類目的的資料的行為模式和興趣的新程度的理解。簡而言之,這意味著像 ChatGPT 和 Bard 這樣的聊天機器人以及各種公司建立和使用的 AI 模型,都在無限期地利用他們在法律上沒有權利擁有的訊息。儘管有 GDPR 的遺忘權或加利福尼亞州 CCPA 中的刪除個人訊息的權利這樣的消費者保護,但公司並沒有一個簡單的機制來刪除個人訊息。一旦部署了 Gen AI 模型,要從模型或算法中剔除該資料是非常困難的;而且這樣做的後果會在整個模型中產生影響。然而像聯邦貿易委員會(FTC)這樣的機構就力圖迫使公司這樣做。去年 FTC 命令 WW International(前身為韋特沃秤)根據兒童網上隱私保護法(COPPA)銷毀使用兒童資料的算法或 AI 模型。最近,亞馬遜 Alexa 因類似違規行為被罰款,FTC 委員 Alvaro Bedoya 在其中提到,該筆款項應該成為“每一家迫不及待地獲取更多資料的 AI 公司的警告”。組織應警惕,FTC 和其他機構即將行動,資料刪除的懲罰比任何罰款都要嚴重。這是因為在當前以 AI 為驅動的世界中,真正有價值的智力和表演性財產來自於模型本身。它們是價值儲存庫。如果組織不能以正確的方式處理資料,引發算法“公開”的要求(這可能會擴大到 COPPA 之外的案件),這些模型在本質上將變得毫無價值(或僅在黑市上創造價值)。而且珍貴的見解,有時需要多年的時間才能形成,將會消失。

AI 公司的嚴厲警告

去年 FTC 命令 WW International(前身為韋特沃秤)根據兒童網上隱私保護法(COPPA)銷毀使用兒童資料的算法或 AI 模型。最近,亞馬遜 Alexa 因類似違規行為被罰款,FTC 委員 Alvaro Bedoya 在其中提到,該筆款項應該成為“每一家迫不及待地獲取更多資料的 AI 公司的警告”。組織應警惕,FTC 和其他機構即將行動,資料刪除的懲罰比任何罰款都要嚴重。

保護未來的重要性

除了對於他們收集和保留特定資料點的原因提出問題外,公司還必須在使用 Gen AI 的問題上擁有一個道德和負責的範疇。這樣做不僅保護他們自己,也保護他們的客戶。以 Adobe 為例,儘管在 AI 利用方面有一些問題,但 Adobe 是第一批為 Gen AI 制定道德使用政策的公司之一。有了一個倫理審查委員會,Adobe 的方法、指引和關於 AI 的理念容易找到,可以在主導航條上的一個標籤(“AI at Adobe”)點選一下就能看到。這家公司把 AI 倫理放在了首位,成為一個尊重人類貢獻的 Gen AI 的擁護者。表面上看,這是一個引發信任的立場。與此相反,像微軟、Twitter 和 Meta 這樣減少了負責任的 AI 團隊的公司,可能會使消費者懷疑擁有最多資料的公司為了利潤而將保護擺在次要位置。為了贏得消費者的信任和尊重以及獲得和保留使用者和減緩 Gen AI 可能引發的潛在傷害,觸及消費者資料的每一家公司都需要為 Gen AI 制定並執行一個道德使用政策。在現在和未來,保護客戶訊息以及保護模型的價值和完整性至關重要。這是我們時代的一個關鍵問題。它比訴訟和政府法規更重要。這是一個與大型社會問題有關的問題,與保護基本人權息息相關。

Comedy-SarahSilverman,AI,道德,數位領域,爆笑,戰線,新梗頭
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。