網路議題

全新「Animate Anyone」造成全面深度假像風波

# 「Animate Anyone」預示著全動態深偽技術的到來## 深偽技術的新裏程碑科技新聞網站 TechCrunch 報導,隨著靜態影像深偽技術的出現,我們可能很快就要面對任何人線上上放上照片後,可能會產生生成的影片:使用「Animate Anyone」,不肖份子可以比以往更好地操作人物形象。這 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

全新「Animate Anyone」造成全面深度假像風波
# 「Animate Anyone」預示著全動態深偽技術的到來 ## 深偽技術的新裏程碑 科技新聞網站 TechCrunch 報導,隨著靜態影像深偽技術的出現,我們可能很快就要面對任何人線上上放上照片後,可能會產生生成的影片:使用「Animate Anyone」,不肖份子可以比以往更好地操作人物形象。這項新的生成式影片技術是由阿裏巴巴集團智慧計算研究院的研究人員開發的。相較於在夏天引起轟動的 DisCo 和 DreamPose 等以靜態影像為基礎的影片製作系統,「Animate Anyone」是一個重大的進步。這項技術並非首見,但已經跨越了“畫質粗糙學術實驗”和“若不仔細觀察則足以迷惑”的艱難階段。當前靜態影像和文字對話已經對我們的現實感造成嚴重破壞,而像「Animate Anyone」這樣的影像生成技術將進一步加劇這一問題。 ## 技術執行原理 這類影像生成模型首先從參考影象中提取細節,如臉部特徵、圖案和姿態,例如一名模特穿著待售服飾的時尚照片。然後,會建立一系列影象,其中這些細節被對映到微微不同的姿勢上,這些姿勢可以是動作捕捉或者是從另一個影片中提取的。先前的模型表明這是可能的,但存在許多問題。幻象是一個重大問題,因為模型必須捏造合理的細節,例如當一個人轉身時衣袖或頭髮的移動方式。這導致了許多非常奇異的影象,使得生成的影片遠非令人信服。但這種可能性依然存在,而「Animate Anyone」的表現有了很大改進,儘管仍然遠非完美。新模型的技術細節超出了大多數人的理解範圍,但該研究強調了一個新的中間步驟,「使模型能夠全面地在一致的特徵空間中學習與參考影象的關係,這對於改善外觀細節保留有重大貢獻」。透過改善基本和細節的保留,生成的影象有了更強的真實基礎,並且效果更佳。 ## 提高真實性有望帶來更大的風險 儘管技術當前對於一般用途來說過於複雜並存在許多錯誤,但在人工智慧領域,事情往往不會長時間保持這種狀態。縱使該團隊還沒有將程式碼公開釋出,他們已在 GitHub 上提供了頁面,開篇開發人員寫道:「我們正積極準備為公眾釋出展示和程式碼。盡管我們暫時無法承諾特定的發布日期,但請相信我們提供展示和原始程式碼的意願是堅定的」。當網路突然充斥著這種影片時,將會帶來怎樣的後果?我們將不得不等待,而且可能比我們想像的更早就知道結果。 ## 展望與建議 這項技術的出現可能帶來了許多風險,而政府和科技公司需要加固監管和對抗虛假訊息的能力。此外個人也需謹慎對待線上上分享的照片和個人訊息,預防個人形象被操縱和利用。然而這也提醒我們人們要更加警惕,並進一步思考我們與新科技的關係。科技的進步帶來的挑戰不僅僅在於技術本身,還需要我們進一步探索人類價值觀、隱私保護和倫理道德。認識到這些挑戰,我們可以更好地應對未來可能帶來的風險。 作為個人,我們應該提高警惕,並尋求加固隱私保護和科技監管的方法。作為社會,我們需要進一步促進對技術的倫理和社會影響的討論,以便更好地引導技術發展,使其真正造福人類。 深偽技術可能是當前的挑戰,但也提醒我們需更加關注技術發展帶來的風險和挑戰,以保護個人隱私和社會安全。
Deepfake-深度假像,全新科技,媒體風波,虛擬實境,媒體操控
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。