人工智慧-generated 仇恨上升:在採用這項新技術之前,領袖應該考慮的三件事
在商業環境中,人工智慧已經存在多年,但近年來像 ChatGPT、ChatSonic、Jasper AI 等生成式人工智慧產品的發展,顯著提高了普通人的使用簡便性,也加劇了美國公眾對濫用這些技術的潛在憂慮。根據反誹謗聯盟最近的一份調查,84%的美國人擔心生成式人工智慧將增加不實訊息和仇恨的傳播。考慮採用這項技術的領袖應該秉持著以善待人和社會影響為核心價值,仔細思考以下三件事,以決定如何整合生成式人工智慧工具到組織和工作場所中。
將信任和安全置於首位
社交媒體已經習慣了內容審核,但生成式人工智慧正在介紹到沒有處理這些問題的醫療保健和金融等工作場所。許多行業很快就會面臨這些技術帶來的新挑戰。如果您是一個醫療保健公司,您的前線 AI 聊天機器人突然向患者無禮甚至仇恨,您將如何處理?就其功能和潛力而言,生成式人工智慧使不良行為者易於製造有害內容。社交媒體平臺幾十年來已經發展了一種新的學科——信任和安全,以解決與使用者生成的內容相關的棘手問題。其他行業則不然。因此公司需要引入信任和安全方面的專家來討論其實施,建立專業知識,思考這些工具可能被濫用的方法,並投資於負責處理濫用的員工,以免在這些工具被惡意使用時一無所知。
建立高壁壘並堅持透明
尤其是在工作或教育環境中,AI 平臺應該有足夠的防範措施,以防止生成仇恨或騷擾的內容。AI 平臺非常有用,但不是 100%可靠。例如,在幾分鐘內,ADL 測試人員最近使用慕達交通預訂 app 中的 ChatGPT 功能,建立了在歐洲著名的反猶太 pogrom 次數表以及附近的藝術用品商店列表,以便購買噴漆,從而對這些地點進行破壞。盡管我們已經看到一些生成式 AI 改進了處理可能導致反猶太主義和其他令人討厭的回答的問題,但我們看到其他生成式 AI 未能確保它們不會促進偏見或偏見等有害內容的傳播。在廣泛採用 AI 之前,領導者應該提出關鍵問題,例如:正在進行哪些測試以確保這些產品不會受到濫用? 使用哪些資料集來構建這些模型? 以及是否將網上仇恨最受影響的社區的經驗納入這些工具的建立中? 平臺沒有透明度,這些 AI 模型就沒有任何保證不會促進偏見或偏見的傳播。
防禦武器化
即使擁有強大的信任和安全措施,普通使用者仍可能濫用人工智慧。作為領袖,我們需要鼓勵人工智慧系統設計師在人類武器化方面建立防範措施。不幸的是,盡管擁有強大的能力和潛力,但人工智慧工具使有不良方法的使用者可以輕易地產生任何情境的內容,他們可以製造出令人信服的假新聞,創造出視覺上令人信服的偽造影片,並在幾秒鐘內散佈仇恨和騷擾。生成的人工智慧生成內容也可能促進極端主義思想的傳播,或用來使容易受到影響的個人走向極端主義。為了應對這些威脅,AI 平臺應該融入強大的審核系統,以承擔可能使用這些工具產生的有害內容的潛在洪水。生成式人工智慧幾乎具有改善生活和革新我們處理網上無盡訊息的無限潛力。我對擁有人工智慧的未來充滿期待,希望只有負責任的領導力才能實現。
延伸閱讀
- 元 AI 測試:未能彰顯自身價值,但免費就是免費
- Google 推出新功能“口語練習”,利用人工智慧幫助使用者提高英文能力
- 科技巨頭 xAI 競爭開放人工智慧,吸金 60 億美元。推動社交網路 X 成為股東
- Google Cloud 迎來晴天
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- 安德瑞爾在五角大樓計畫中推進無人駕駛戰鬥機的程式
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- Snowflake 推出自家旗艦生成式人工智慧模型