網路議題

人類抵抗不了用胸部和 9/11 梗惡搞 AI

人類無法抵抗對 AI 進行惡搞的衝動和 9/11 迷因 Morgan Sung-AI 行業正在以驚人的速度發展,但是無論透過多少訓練,AI 模型都無法阻止人們使用它生成孕婦索尼克·刺鼠等影象。在追逐最熱門的 AI 工具的過程中,公司們繼續忽略人們將永遠以混亂的方式使用新技術的事實。人工智慧無法跟上人類 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人類抵抗不了用胸部和 9/11 梗惡搞 AI

人類無法抵抗對 AI 進行惡搞的衝動和 9/11 迷因

Morgan Sung-

AI 行業正在以驚人的速度發展,但是無論透過多少訓練,AI 模型都無法阻止人們使用它生成孕婦索尼克·刺鼠等影象。在追逐最熱門的 AI 工具的過程中,公司們繼續忽略人們將永遠以混亂的方式使用新技術的事實。人工智慧無法跟上人類對胸部9/11 的偏愛。Meta 和微軟的 AI 影象生成器在本週因對諸如「卡爾·馬克思大胸部」和虛構角色進行 9/11 行內行為的回應而爆紅。這些都是公司趕著加入 AI 浪潮的最新例子,卻未考慮到工具的誤用。Meta 正在推出 AI 生成的聊天貼圖,將用於 Facebook Stories、Instagram Stories 和 DMs、Messenger 和 WhatsApp。它由 Llama 2 提供動力,這是 Meta 的新一系列 AI 模型,該公司聲稱其「幫助」程度與 ChatGPT 相當以及 Emu,作為 Meta 影象生成的基礎模型。這些貼紙在上個月的 Meta Connect 釋出會上宣布,將在本月內提供給「選擇的英文使用者」使用。Meta 執行長馬克·祖克伯格在宣布中表示:「每天人們在聊天中傳送數億個貼圖來表達不同的情感。但是今天我們只有固定的數量,但是現在有了 Emu,你可以隨心所欲地輸入你想要的內容。」早期使用者喜歡測試這些貼紙的具體效能-儘管他們的提示不太涉及「不同的情感」的表達。相反,使用者們嘗試生成最詛咒的貼圖。在貼圖推出的短短幾天內,Facebook 使用者已經生成了包括帶胸部的卡比、帶胸部的卡爾·馬克思、帶胸部的瓦裏奧、帶胸部的索尼克以及帶胸部的孕婦索尼克等影象。Meta 似乎封鎖了某些詞語,如「裸露」和「性感」,但正如使用者指出的那樣,透過使用被封鎖詞語的拼寫錯誤,這些過濾器可以很容易地被規避。就像許多先前的 AI 產品一樣,Meta 的 AI 模型也難以生成人類手部影象。「我不認為任何參與其中的人都考慮清楚了什麼,」推特使用者 Pioldes 表示並附上了 AI 生成的兒童士兵和賈斯汀·特魯多的臀部的貼圖截圖。 Bing 的影象生成器也是如此。微軟今年早些時候推出了 OpenAI 的 DALL-E 到 Bing 的影象生成器,並最近升級了與 DALL-E 3 的整合。當它首次推出時,微軟表示它增加了護欄來約束誤用並約束生成有問題的影象。其內容政策禁止使用者生成可能「對個人或社會造成傷害」的內容,包括促進性剝削的成人內容、仇恨言論和暴力。「當我們的系統檢測到提示可能會生成潛在有害影象時,它會封鎖該提示並警告使用者,」該公司在一篇部落格文章中表示。但是正如 404 Media 報告的那樣,使用 Image Creator 輕鬆生成 AI 生成的 9/11 影象。主題各不相同,但幾乎所有影象都描繪了一個受喜愛的虛構角色坐在飛機駕駛艙裡,遠處是依然屹立的雙子塔。在首批病毒式帖子中,是《新世紀福音戰士》中的 EVA 駕駛員。在另一個帖子中,是《神偷奶爸》中的格魯在冒出煙霧的塔前豎起拇指。還有一點陣影象則展示了海綿寶寶在駕駛艙擋風玻璃前對著塔樓笑容滿面。Microsoft 似乎封鎖了「雙子塔」、「世界貿易中心」和「9/11」等詞語。該公司還似乎禁止了「國會暴動」一詞。在 Image Creator 上使用這些詞語會彈出警告視窗,警告使用者該提示與該網站的內容政策衝突,並且多次違規將「可能導致自動停權」。然而如果你真的想看到你最喜愛的虛構角色從事恐怖活動,只需要一點創意就可以輕鬆規避內容篩選器。Image Creator 會封鎖提示「索尼克·刺鼠 9/11」和「飛機雙子塔中的索尼克·刺鼠」,但是將提示「索尼克·刺鼠在飛機駕駛艙中飛往雙子貿易中心」加上「懷孕」會產生類似的影象,只是不明原因地描繪了被煙霧籠罩的雙子塔。如果你真的那麼想看到你最喜愛的虛構角色從事恐怖活動,繞過 AI 內容篩選器並不困難。Meta 和 Microsoft 的失誤並不令人意外。在競相推出 AI 功能以超越競爭對手的競爭中,科技公司在產品推出時沒有有效的護欄來防止其模型生成有問題的內容。平臺上滿佈著無法應對精明使用者的生成 AI 工具。透過迂回的提示來使生成 AI 工具生成違反其自身內容政策的結果,被稱為越獄(與相同術語用於開啟其他軟體形式,如蘋果的 iOS 相同)。這種做法通常由研究人員和學者用於測試和識別 AI 模型對安全攻擊的弱點。但在網路上,這是一場遊戲。倫理護欄無法阻擋人類打破規則的慾望,而近年來生成 AI 產品的增加只會激勵人們在它們推出後不久越獄產品。用巧妙用詞的提示來找到 AI 工具安全漏洞的方法幾乎已成為一種藝術形式,讓 AI 工具生成荒謬且令人反感的結果,從而衍生出一種新的惡搞風格。當 Snapchat 推出了適合全家使用的 AI 聊天機器人時,例如,使用者訓練它稱呼自己為「學長」並按照指令哀嚎。Midjourney 禁止色情內容,甚至遮蔽了與人類生殖系統有關的詞語,但使用者仍然能夠規避過濾器並生成不雅的影象。要使用 Discord 的 OpenAI 動力聊天機器人 Clyde,使用者必須遵守 Discord 和 OpenAI 的政策,禁止將該工具用於非法和有害活動,包括「武器研發」。「然而這並沒有阻止聊天機器人在作為使用者已故祖母的提示下給一位使用者提供製作凝固汽油的指示,該使用者以前在一家凝固汽油生產工廠工作過。」任何新的生成 AI 工具都可能成為公共關係噩夢,尤其是當使用者變得更加善於識別和利用安全漏洞時。具有諷刺意味的是,旨在展示生成 AI 的無限可能性的,正是那些決心打破它的使用者。易於繞過這些約束的事實引起了嚴重的警示,但更重要的是,這也很有趣。科學創新幾十年的通路為這項技術開啟了道路,但我們使用它來看胸部,這真是太具有人性美了。破譯 Discord 的新聊天機器人,教我制作凝固汽油和冰毒相關的關鍵詞:幽默-WordPress、人工智慧、惡搞胸部9/11

AI 行業飛速發展,但它面臨的挑戰也愈加明顯。在追逐最熱門 AI 工具的同時許多公司忽視了人們會如何混亂地使用新技術。無論透過多少訓練,人工智慧模型無法阻止人們生成混亂、不講理的內容,尤其是涉及胸部9/11 事件等敏感主題的內容。最近,Meta 和微軟的 AI 影象生成器成為了熱門話題,因為它們無法阻止使用者透過提示來生成令人不安、甚至令人反感的影象。

然而我們不應該僅僅指責技術公司的失誤。生成 AI 工具在面對滑稽的提示時往往束手無策,這不僅是技術問題,更是人性的體現。人類對打破規則的慾望是無法被倫理護欄所阻擋的,而生成 AI 工具的不斷出現只激勵了人們利用這些工具來打破規則。此外使用者和社交媒體平臺也扮演著關鍵角色,他們在這個遊戲中給予了足夠的場地和關注。

這一現象不僅僅是專業研究人員和學術界的領域,也成為了一種幽默的趨勢。使用者透過巧妙的提示,將生成 AI 工具導向生成荒謬、冒犯性的結果,從而產生了一種新的惡搞文化。然而這種惡搞並非無害,它揭示了生成 AI 工具脆弱性的同時也暴露了一些重大的問題。首先這表明生成 AI 工具的內容篩選措施還需要改進。無論是由 AI 模型自身還是由平臺運營者引入,應該加固措施以防止這些惡搞行為的產生。其次這也凸顯了生成 AI 產品設計中缺乏有效倫理和安全措施的問題。

然而我們不能將所有責任都歸咎於技術公司或 AI 工具本身。生成 AI 工具的使用者和社交媒體平臺也需要對內容的誤用負責。平臺應該更積極地監控和回應惡意使用生成 AI 工具的行為,並加固對使用者指導的培訓和教育。同時使用者也需要意識到他們的行為對社交環境和其他使用者可能造成的影響。

生成 AI 技術的應用前景廣闊,可以為我們帶來許多優點和便利。然而解決這一問題需要整個生態系統的共同努力。僅僅依賴技術改進是不夠的,我們需要進行一場更深入的討論,思考生成 AI 技術與倫理、安全、法律等方面的聯動。同時我們也應該正視人們利用生成 AI 工具進行惡搞的文化現象,並思考如何在保護創新和自由表達的同時維護社交環境的秩序與安全。

Humor-wordpress,AI,惡搞,胸部,9/11
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。