網路議題

AI 產生的仇恨正在上升:領袖在採用這項新技術前應考慮的三件事

人工智慧-generated 仇恨上升:在採用這項新技術之前,領袖應該考慮的三件事在商業環境中,人工智慧已經存在多年,但近年來像 ChatGPT、ChatSonic、Jasper AI 等生成式人工智慧產品的發展,顯著提高了普通人的使用簡便性,也加劇了美國公眾對濫用這些技術的潛在憂慮。根據反誹謗聯盟 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 產生的仇恨正在上升:領袖在採用這項新技術前應考慮的三件事

人工智慧-generated 仇恨上升:在採用這項新技術之前,領袖應該考慮的三件事

在商業環境中,人工智慧已經存在多年,但近年來像 ChatGPT、ChatSonic、Jasper AI 等生成式人工智慧產品的發展,顯著提高了普通人的使用簡便性,也加劇了美國公眾對濫用這些技術的潛在憂慮。根據反誹謗聯盟最近的一份調查,84%的美國人擔心生成式人工智慧將增加不實訊息和仇恨的傳播。考慮採用這項技術領袖應該秉持著以善待人和社會影響為核心價值,仔細思考以下三件事,以決定如何整合生成式人工智慧工具到組織和工作場所中。

將信任和安全置於首位

社交媒體已經習慣了內容審核,但生成式人工智慧正在介紹到沒有處理這些問題的醫療保健和金融等工作場所。許多行業很快就會面臨這些技術帶來的新挑戰。如果您是一個醫療保健公司,您的前線 AI 聊天機器人突然向患者無禮甚至仇恨,您將如何處理?就其功能和潛力而言,生成式人工智慧使不良行為者易於製造有害內容。社交媒體平臺幾十年來已經發展了一種新的學科——信任和安全,以解決與使用者生成的內容相關的棘手問題。其他行業則不然。因此公司需要引入信任和安全方面的專家來討論其實施,建立專業知識,思考這些工具可能被濫用的方法,並投資於負責處理濫用的員工,以免在這些工具被惡意使用時一無所知。

建立高壁壘並堅持透明

尤其是在工作或教育環境中,AI 平臺應該有足夠的防範措施,以防止生成仇恨或騷擾的內容。AI 平臺非常有用,但不是 100%可靠。例如,在幾分鐘內,ADL 測試人員最近使用慕達交通預訂 app 中的 ChatGPT 功能,建立了在歐洲著名的反猶太 pogrom 次數表以及附近的藝術用品商店列表,以便購買噴漆,從而對這些地點進行破壞。盡管我們已經看到一些生成式 AI 改進了處理可能導致反猶太主義和其他令人討厭的回答的問題,但我們看到其他生成式 AI 未能確保它們不會促進偏見或偏見等有害內容的傳播。在廣泛採用 AI 之前,領導者應該提出關鍵問題,例如:正在進行哪些測試以確保這些產品不會受到濫用? 使用哪些資料集來構建這些模型? 以及是否將網上仇恨最受影響的社區的經驗納入這些工具的建立中? 平臺沒有透明度,這些 AI 模型就沒有任何保證不會促進偏見或偏見的傳播。

防禦武器化

即使擁有強大的信任和安全措施,普通使用者仍可能濫用人工智慧。作為領袖,我們需要鼓勵人工智慧系統設計師在人類武器化方面建立防範措施。不幸的是,盡管擁有強大的能力和潛力,但人工智慧工具使有不良方法的使用者可以輕易地產生任何情境的內容,他們可以製造出令人信服的假新聞,創造出視覺上令人信服的偽造影片,並在幾秒鐘內散佈仇恨和騷擾。生成的人工智慧生成內容也可能促進極端主義思想的傳播,或用來使容易受到影響的個人走向極端主義。為了應對這些威脅,AI 平臺應該融入強大的審核系統,以承擔可能使用這些工具產生的有害內容的潛在洪水。生成式人工智慧幾乎具有改善生活和革新我們處理網上無盡訊息的無限潛力。我對擁有人工智慧的未來充滿期待,希望只有負責任的領導力才能實現。

Artificial Intelligence-人工智慧,仇恨,技術,領袖,考慮,預防,倫理,社會影響

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。