人工智慧生成的仇恨言論正在增加:領袖在採用這項新技術前應考慮的三件事
隨着人工智慧(AI)技術的發展,業務中已存在多年的 AI 被其生成型產品(如 ChatGPT、ChatSonic、Jasper AI 等)代替。這將使 AI 的使用對普通使用者的影響,迅速升級。最近的一項 ADL 調查發現,84%的美國人擔心生成型 AI 將增加虛假訊息和仇恨言論的傳播。在這個新領域中,正在考慮採用這種技術的領袖們應該自問嚴格的問題,包括它將如何形塑未來,對於好與壞都要考慮。以下是希望所有領袖在將生成型 AI 工具納入組織和工作場所時考慮的三件事。
把信任和安全放在首位
雖然社交媒體一直在應對內容審核的問題,生成型 AI 正在被引入到以前沒有經驗處理此類問題的公司中,如醫療和金融。許多行業可能很快就會發現自己面臨着困難和新挑戰,因爲他們採用了這些技術。例如,如果你是一家醫療保健公司,你的 AI 聊天機器人突然對患者無禮甚至是仇恨性的話,你會如何處理?雖然生成型 AI 具有強大的潛力,但它也讓惡意人士輕而易舉地制作有害內容。社交媒體平臺經過數十年的發展,已經發展出了新的紀律——信任和安全——嘗試解決與使用者生成的內容相關的棘手問題。但不是其他行業。因此公司需要請專家就信任和安全問題進行討論。他們需要建立專業知識,並思考這些工具可能被濫用的方式。他們需要投資人員負責解決問題,以免這些工具被惡意人員濫用時措手不及。
建立高標準,並堅持透明度
特別是在工作或教育環境中,非常重要的是 AI 平臺應有充分的防護措施,以防止生成仇恨或騷擾內容。雖然 AI 平臺是非常有用的工具,但並不是百分之百無懈可擊。例如,在幾分鍾內,ADL 的測試人員最近使用 Expedia 應用程式及其新的 ChatGPT 功能,建立了一份歐洲著名的反猶大屠殺行程的行程表以及附近藝術用品商店的清單,在這些地點可以購買噴漆,以參與對這些地點的敲詐勒索行爲。雖然我們已經看到一些生成型 AI 在處理可能導致反猶太和其他仇恨反應的問題時得到改善,但我們看到其他人在確保他們不會促進偏見或偏見傳播方面還有所不足。在廣泛採用 AI 之前,領導者應該問重要的問題,例如:正在進行哪些測試以確保這些產品不會被濫用?使用哪些資料集來構建這些模型?線上仇恨最受關注的社區的經驗是否被納入這些工具的建立中?如果沒有平臺的透明度,那就不能保證這些 AI 模型不會促進偏見或偏見的傳播。
防止被武器化
即使是有強大信任和安全實踐的 AI,還是有可能被普通使用者濫用。作爲領導者,我們需要鼓勵 AI 系統的設計者建立防範人類武器化的措施。不幸的是,雖然 AI 工具有強大的潛力,但惡意使用者輕而易舉地使用這些工具制作任何這樣的情況內容。他們可以制造令人信服的假新聞,建立視覺上令人信服的 Deepfake 影片,並在幾秒鍾內傳播仇恨和騷擾內容。生成型 AI 生成的內容也可能導致極端主義思想的傳播,或用於激進化易受攻擊的個人。針對這些威脅,AI 平臺應該加入強大的模式識別系統,可以經受得住潛在的大量有害內容容易會透過這些工具被制造出來的考驗。生成型 AI 具有幾乎無限的潛力,能夠改善生活,革新我們對線上可獲取訊息的處理。我對未來有 AI 的前景感到興奮,但只有在負責任的領導下才能實現。
延伸閱讀
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- Snowflake 推出自家旗艦生成式人工智慧模型
- Parloa 完成 6600 萬美元融資,打造客服對話人工智慧平臺
- Perplexity 籌集超過 2.5 億美元,估值達 25-30 億美元,用於其人工智慧搜尋平臺
- 前 Snap 研究人員正在利用人工智慧打造下一代 Bitmoji - 輕鬆創作個人化貼圖
- Adobe 聲稱其最新的影象生成模型是迄今為止最佳的
- 聯合航空如何運用人工智慧讓旅行更輕鬆