網路議題

現在您的網站可以選擇不培訓 Google 的 Bard 和未來的人工智慧

你的網站現在可以選擇不訓練 Google 的 Bard 和未來的 AI 大型語言模型是使用各種資料進行訓練的,其中大部分似乎是在無知無覺的情況下收集的。現在你可以選擇是否允許 Google 將你的網頁內容用作供其 Bard AI 和任何未來模型所使用的素材。只需在您網站的 robots.txt 檔案中 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

現在您的網站可以選擇不培訓 Google 的 Bard 和未來的人工智慧

你的網站現在可以選擇不訓練 Google 的 Bard 和未來的 AI

大型語言模型是使用各種資料進行訓練的,其中大部分似乎是在無知無覺的情況下收集的。現在你可以選擇是否允許 Google 將你的網頁內容用作供其 Bard AI 和任何未來模型所使用的素材。只需在您網站的 robots.txt 檔案中禁止“User-Agent: Google-Extended”,這個檔案向自動化網路爬蟲指示它們可以存取哪些內容。盡管 Google 聲稱以一種道德、包容的方式開發其 AI,但 AI 訓練的用途實際上與索引網路有很大區別。該公司的信任副總裁丹尼爾·羅曼在一篇部落格文章中寫道:“我們還聽到網站發布者希望對新興的生成式 AI 用例如何使用其內容的選擇權和控制。”,好像這是一個驚喜。有趣的是,該帖子中並未出現“訓練”一詞,儘管這明顯就是這些資料的用途:作為訓練機器學習模型的原材料。相反,這位信任副總裁問你是否真的不想“幫助改進 Bard 和 Vertex AI 生成 API 的準確性和能力”——“幫助這些 AI 模型隨著時間的推移變得更加準確和強大”。你看,這不是關於 Google 拿走了你的東西,而是關於你是否願意幫助。某種意義上這或許是提出這個問題的最好方式,因為同意是這個問題中至關重要的一部分,而積極選擇貢獻正是 Google 應該要求的。然而 Bard 和其他模型已經訓練過了來自使用者的大量資料,而這些使用者並未給予許可,這結果使得這種陳述失去了任何真實性。Google 的行動不容否認的事實是它利用對網路資料的一慣性存取,得到了它所需的東西,現在才在事後請求許可,以便看起來像是他們重視許可和道德資料收集。如果真是如此,我們早就有了這個設定。巧合的是,Medium 剛剛宣布,除非有更好、更細緻的解決方案,否則它將在全球範圍內遮蔽這類爬蟲。而且他們絕非唯一一家這樣做的公司。Medium 暗示正在形成一個新生的媒體聯盟以阻止 AI 爬蟲。

人工智慧訓練與資料隱私的倫理辯論

這個問題引發了人工智慧訓練和資料隱私的一系列倫理辯論。雖然 Google 聲稱以道德和包容的方式開發其 AI 技術,但還是無法否認公司一直在未經使用者許可的情況下收集和使用大量資料。這種行為引發了對於資料隱私的擔憂以及對於誰擁有和控制網路上的資料的問題。

在這個情境下,Google 提出了讓網站選擇是否參與 AI 訓練的選項。對於那些關心資料隱私的人來說這無疑是一個重要的選擇。然而這種選擇應該是事先的,而不是在公司已經利用這些資料進行訓練之後才詢問。

這引發了一個悖論:是否應該支援 Google 的 AI 訓練,以促使更準確和強大的模型的發展,還是要堅持尊重個人資料隱私的原則,並不允許認為沒有先前許可而使用的資料進行訓練?這是一個涉及倫理和價值觀的問題,沒有一個絕對正確的答案。

給網站擁有者的建議

作為網站擁有者,你應該認真考慮是否允許 Google 訓練它的 AI 模型使用你的網頁內容。你應該權衡對於 AI 技術發展的貢獻和對於資料隱私的關注之間的平衡。同時你也應該關注這個問題正在引發的討論和行業趨勢。

此外你應該關注與你在這個問題上的看法相似的公司和媒體聯盟。Medium 等公司正在採取行動,制定更嚴格、更精確的解決方案,以保護資料隱私。作為網站擁有者,你可以考慮加入這些聯盟,共同推動更加負責任和尊重使用者資料隱私的行業標準。

無論你的選擇是支援還是拒絕 Google 的 AI 訓練,重要的是保護好你的資料和使用者隱私。這需要你與科技公司和其他利害相關者合作,確保資料收集和使用的透明度、合法性和倫理性。

ArtificialIntelligence-wordpress,網站開發,GoogleBard,人工智慧,AI,機器學習,網站設計
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。