網路議題

擺脫 Google 博多的教訓:隨著 Meta 將 AI 運用於應用程式,引起注目!

專題報導:Meta AI 的快速應用在安全和隱私面臨問題背景 Meta Connect 開發者和創作者大會在 Meta 總部舉辦,讓人們仿彿身在迪士尼樂園般熱鬧、多採多姿。這是自流行病大流行以來的第一次實體會議。會議期間,每當 Mark Zuckerberg 宣布一項令人驚嘆、有趣或可愛的 AI 產品 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

擺脫 Google 博多的教訓:隨著 Meta 將 AI 運用於應用程式,引起注目!

專題報導:Meta AI 的快速應用在安全和隱私面臨問題

背景

Meta Connect 開發者和創作者大會在 Meta 總部舉辦,讓人們仿彿身在迪士尼樂園般熱鬧、多採多姿。這是自流行病大流行以來的第一次實體會議。會議期間,每當 Mark Zuckerberg 宣布一項令人驚嘆、有趣或可愛的 AI 產品(例如 AI 貼圖!AI 角色!AI Zuck 的狗影象!),觀眾們總是熱情鼓掌。這讓人們回想起童年時在海洋世界觀賞虎鯨表演的時光,驚嘆不已:哇!虎鯨真厲害,還會鼓掌!啊!看它跳得多高!事實上 Meta AI 的產品非常令人印象深刻,至少在展示形式下是如此。在 Facebook、Instagram 或 WhatsApp 上與 Snoop Dogg 作為地牢主對話?太好了!內建 AI 語音聊天的 Ray-Ban 智慧眼鏡?太棒了!在群組聊天中提供 AI 編輯的餐廳推薦?這個產品這幾年怎麼沒有出現?然而 Meta AI 的互動、有趣的特性,即使是商業和品牌使用的工具,也出現在一個時刻,即大量的科技巨頭快速推出 AI 產品引起對安全、隱私和技術驕傲的擔憂。

Google 搜尋暴露 Bard 的對話

根據 VentureBeat 的報導,Google 最近的一次更新引起了人們的關注。Google 搜尋開始索引在 Bard 上分享的對話連結,這可能會導致意圖保密的訊息被公開展示在搜尋結果頁面上。如果一個人使用 Bard 提問並與配偶、朋友或商業夥伴分享連結,那個連結上的對話可能被 Google 的爬蟲程式解析並公開展示給整個世界看。這無疑是 Bard 隱私功能的一個大失敗,引起了社交媒體上一系列關於這一問題的討論。Google 對 Fast Company 的詢問回答稱:“Bard 允許人們分享對話,如果他們選擇這樣做。我們也不希望這些共享的對話在 Google 搜尋中被索引。我們正在努力將它們從索引中遮蔽。”但這是否足以讓使用者繼續信任 Bard?只有時間才能給出答案。

ChatGPT 作為“極其有效”的治療師

另一個令人擔憂的 AI 產品是 OpenAI 的 ChatGPT。OpenAI CEO Sam Altman 在介紹 ChatGPT 的新語音模式和視覺功能時,OpenAI 的安全系統負責人 Lilian Weng 在推特上談到了她與 ChatGPT 的“治療”會話。她的評論引起了一些反對聲音,但 OpenAI 的聯合創始人兼首席科學家 Ilya Sutskever 堅持這個觀點,認為未來將有“極其有效”和“非常便宜”的 AI 治療,這將“徹底改善人們的生活體驗”。考慮到 Weng 和 Sutskever 並非心理健康專家或合格的治療師,這似乎是一種危險和不負責任的態度,尤其是當這些工具即將在全球範圍內被廣泛應用時,可能會對人們的生活產生影響。當然人們可能會使用這些工具來獲得情感上的支援或類似於治療的效果,但這是否意味著 LLMs(大型語言模型)是治療的適當和負責任用例以及推銷這種工具的公司(更不用說開發它的首席科學家)是否應該將其推銷為如此使用?這裡似乎有很多需要注意的問題。

MetaAI 應用普及化

回到 Meta:該公司的 AI 產品發布似乎是迄今為止最大規模地將生成式 AI 帶入主流。是的,亞馬遜最新的 Alexa LLM 將與家庭聯絡在一起,微軟的 Copilot 將進入幾乎每個辦公室,而 OpenAI 的 ChatGPT 則啟發了所有這一切。但在 Facebook 上使用 AI 聊天?在 Instagram 中生成 AI 影象?在 WhatsApp 中分享 AI 聊天、貼圖和照片?這將使生成式 AI 的使用者數量增加到數十億。隨著大型科技公司快速部署 AI 產品,我不禁想知道,我們是否能真正理解這將帶來什麼影響。我不是說 Meta 不將其 AI 努力視為重要。根據該公司發表的一篇關於負責任構建生成式 AI 功能的博文,他們已經在推出之前將安全措施融入其 AI 功能和模型中;它們將繼續改進這些功能;並且他們“與政府、其他公司、學術界和公民社會的 AI 專家、父母、隱私專家和倡導者以及其他組織合作,建立負責任的範疇”。但是像現在的所有 AI 產品一樣,這些產品發布的後果還有待觀察,因為這是前所未有的。我們似乎正處於一個大型的強化學習和人類反饋實驗中,因為世界開始廣泛使用這些生成式 AI 產品和功能。而就像 AI 一樣,規模的大小很重要:當數十億人們嘗試使用 Meta、亞馬遜、Google 和微軟的最新 AI 工具時,必然會有更多類似 Bard 的失敗。希望後果不會太嚴重,就像與地下城主 Snoop Dogg 的對話出現問題一樣簡單。

社論

AI 應用的安全和隱私挑戰

Meta Connect 開發者和創作者大會展示了 Meta AI 的令人驚嘆的功能。然而這些產品的快速應用也引發了關於安全、隱私和技術驕傲的議題。從 Google 搜尋暴露 Bard 對話的問題,到 OpenAI 將 ChatGPT 推廣為治療工具,我們需要重新思考這些 AI 產品的道德和負責任使用。

安全性與隱私保護之重要性

Meta 和其他科技巨頭應該將安全性和隱私保護視為發展 AI 產品的首要任務。不僅需要在產品推出前建立保障措施,還需要不斷改進這些功能以適應不斷變化的需求。此外與政府、學術界、公民社會等各方合作以確保負責任的監管框架也是必要的。

避免誤導和負責任的宣傳

使用 AI 工具作為情感支援或治療工具的可能性存在,但這不意味著 AI 公司可以將其產品宣傳為合格的治療師。對於這一議題,我們需要對市場宣傳進行監管,確保人們對這些工具的使用有正確的期望。

實驗的後果和風險

隨著生成式 AI 產品越來越普及,我們必須認識到我們正在進行的是一個實驗。我們無法預測這些工具帶來的後果和風險。因此科技公司和監管機構需要密切關注、研究和監測這些工具的實際使用情況,以應對可能出現的問題和挑戰。

建議

建立 AI 產品的倫理標準

這些事件表明,我們需要更嚴格的監管和倫理標準來指導 AI 產品領域的發展。科技公司應該在開發和推出產品之前考慮到安全和隱私問題,並與各利益相關方交流,以制定明確的規範並確保產品的負責任使用。

加固公眾教育

對於使用者來說理解 AI 產品的約束、風險和合理的期望非常重要。科技公司應該向公眾提供透明、易於理解的訊息,以幫助人們做出明智的選擇並使用這些工具。

建立跨界合作

安全和隱私問題是跨界的問題,需要各方共同努力解決。政府、學術界、科技公司和公民社會等利益相關方應該加固合作,共同制定規範和監管框架,以確保 AI 產品的安全運用。

結論

雖然 Meta AI 的產品展示令人印象深刻,但我們必須意識到快速應用 AI 產品的挑戰和風險。安全和隱私保護是最重要的議題,而對宣傳誤導的警惕也至關重要。我們希望在 AI 產品的發展過程中注重道德和負責任的使用,並不斷改進和監管這些產品,以確保他們對人類社會的發展和福祉產生積極的影響。
Technology-wordpress,Google 博多,教訓,Meta,AI,應用程式,注目
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。