網路議題

Google 正在測試一款能夠撰寫新聞文章的人工智慧工具

Google 正在測試 AI 工具撰寫新聞文章概述根據《紐約時報》的最新報導,Google 正在測試一種使用人工智慧(AI)撰寫新聞報導的工具,並向《紐約時報》、《華盛頓郵報》和《華爾街日報》的所有者 News Corp 提供業務合作。該工具,內部代號為「創世紀(Genesis)」,可以接受訊息並生 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Google 正在測試一款能夠撰寫新聞文章的人工智慧工具

Google 正在測試 AI 工具撰寫新聞文章

概述

根據《紐約時報》的最新報導,Google 正在測試一種使用人工智慧(AI)撰寫新聞報導的工具,並向《紐約時報》、《華盛頓郵報》和《華爾街日報》的所有者 News Corp 提供業務合作。該工具,內部代號為「創世紀(Genesis)」,可以接受訊息並生成新聞稿。 Google 相信這一工具可以作為記者的個人助理,透過自動化某些任務,釋放出更多時間進行其他工作。Google 將這款工具視為一種「負責任的技術」。

技術用途與爭議

據報導,一些受到這一工具提議的高管認為這一技術令人不安,認為它似乎忽略了產生準確新聞報導所需的努力。然而 Google 在一份給 TechCrunch 的宣告中表示:“與新聞出版商,尤其是較小的出版商合作,我們正處於初探想法的最早階段,以提供 AI-enabled tools 來幫助記者的工作。例如,AI-enabled tools 可以幫助記者選擇標題或不同的寫作風格。”該發言人補充道:“我們的目標是讓記者能夠選擇使用這些新興技術的方式,以增強他們的工作效率,就像我們正在 Gmail 和 Google Docs 中提供輔助工具一樣。簡單來說這些工具不打算也無法取代記者在新聞報導、創作和事實核查中的重要角色。” 這份報匯出現在若幹新聞機構,包括 NPR 和 Insider,已經通知員工他們打算探索如何在新聞室中負責任地使用 AI 的背景下。一些新聞機構,包括美聯社,長期以來已經使用 AI 撰寫大企業的盈利報導,但這些報導僅佔該機構整體報導的一小部分,其他報導仍然由記者撰寫。

AI 生成的議論與挑戰

Google 的新工具可能引發焦慮,因為未經事實核查或充分編輯的 AI 生成文章可能會傳播錯誤的資訊。今年早些時候,美國媒體網站 CNET 悄悄地開始使用生成式 AI 來產生文章,但這一舉動最終使該公司陷入困境。CNET 不得不對 AI 生成的超過一半文章進行更正,其中一些文章包含事實錯誤,而其他一些文章可能包含抄襲內容。該網站的一些文章現在有一個編輯附註,其中寫道:“本文的早期版本由 AI 引擎協助撰寫。這個版本已由專職作家進行了重大更新。”

思考與社論

這一新聞引發了關於 AI 技術在新聞業中潛在影響的深刻思考。在這個不斷發展的數位時代,AI 技術的應用不斷擴充套件,但它同時也引發了一系列道德和倫理問題。 在新聞業中,準確性和事實核查是不容忽視的價值。新聞記者承擔著獨立且以真實為本的角色,為公眾提供確實且可靠的訊息,以幫助他們做出明智的決策。然而 AI 生成的文章可能缺乏人類記者的專業知識和判斷力,增加了出現誤導或錯誤訊息的風險。 因此新聞機構應該謹慎評估 AI 技術的應用,確保其不損害其核心價值觀和使用者信任度。AI 工具可以作為記者的輔助工具,但其應用應當限於幫助記者提高效率,例如提供標題選擇或寫作風格的建議,而不是完全取代記者的角色。 同樣,AI 生成的文章應當接受嚴格的事實核查和編輯,以確保其準確性和可靠性。新聞機構需要制訂相應的準則和體系,確保 AI 生成的文章符合行業標準。

結論和建議

AI 技術的應用為新聞業帶來了新的挑戰和機遇。新聞機構應該積極探索如何適當地使用 AI,以提高工作效率和讀者體驗,同時保持專業性和準確性。 對於 AI 生成的文章新聞機構應該加固事實核查和編輯,並確保其準確性和可靠性。同時應該建立明確的準則和流程,以控制和監督 AI 技術的應用。 此外新聞機構也應該重視記者的專業發展和技能提升,以應對 AI 技術發展帶來的變化。記者需要開展相應的培訓和學習,以適應新聞業的數位轉型和技術革新。 最終 AI 技術可以成為新聞業的有力工具,但它應該被視為一種輔助人類的工具,而不是完全取代人類的角色。新聞業應該保持其核心價值觀,並適應數位時代的變革。
AIWriting-Google,人工智慧,新聞,文章,工具,測試

延伸閱讀

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。