Google 發布具備 AI 學習模型的機器人,能為你提供能量飲料
新一代機器人將擁有更強的智慧能力
Google 希望透過推出 AI 學習模型 Robotic Transformer(RT-2)來提升機器人的智慧機能。RT-2 是該公司所稱的視覺-語言-動作(VLA)模型的新版本。該模型教會機器人更好地識別視覺和語言模式,以解釋指令並推斷出最適合該請求的物體。研究人員在一個廚房辦公環境中使用機器人手臂測試了 RT-2,他們要求機器人手臂決定什麼是一個好的臨時錘子(它是一塊巖石),然後選擇一種給筋疲力盡的人喝的飲料(一罐紅牛)。他們還告訴機器人把一罐可樂放到泰勒·斯威夫特(Taylor Swift)的照片上。機器人是斯威夫特的粉絲,這對人類來說是個好訊息。
根據論文中的介紹,這一全新的模型透過在網路和機器人資料上進行訓練,借鑒了 Google 自家的 Bard 等大型語言模型的研究進展,並將其與機器人資料(比如哪些關節需要移動)相結合。該模型還能理解英語以外的語言指示。
提供更全面的指令無疑對機器人來說是一個重大突破
多年來,研究人員一直試圖讓機器人擁有更好的推理能力,以解決在現實環境中如何執行的問題。正如 The Verge 的 James Vincent 所指出的,現實生活是極其混亂的。機器人要做一些對人類來說很簡單的事情,就需要更多的指示。例如,清理灑出的飲料。人類本能地知道該怎麼做:撿起玻璃杯,找些東西來吸乾水漬,把它丟掉,下次要小心。以前,教導一個機器人需要很長的時間。研究人員不得不個別程式設計指令。但是有了像 RT-2 這樣強大的 VLA 模型,機器人可以存取更多的訊息,以推斷接下來該做什麼。
去年 Google 首次涉足智慧機器人領域,宣布將在機器人上使用其 LLM PaLM,建立了一個笨拙命名的 PaLM-SayCan 系統,將 LLM 與物理機器人相結合。
不過 Google 的新機器人並不完美。《紐約時報》在一次現場展示中報道,這臺機器人錯誤地辨識了蘇打水口味,並將水果誤認為白色。根據個人的性格不同,這一訊息可能要麼受到歡迎,要麼讓人聯想到《黑鏡》中令人恐懼的機器人狗(受到波士頓動力機器人的影響)。不管怎樣,我們應該期待明年出現更聰明的機器人,它甚至可以只用最少的指令清理灑出的飲料。
結語和建議
人工智慧的快速發展讓我們不禁思考機器人對人類的生活和社會產生的影響。機器人擁有更智慧的能力,可以更好地理解人類的指令和需求,這無疑是一個重大的突破。然而我們也不得不注意到機器人在某些方面仍然存在一些問題和約束。
首先機器人的準確性和可靠性仍然需要不斷改進。像 Google 這樣的公司在開發新的機器人技術時,應該更加注重測試和取證,以確保機器人的行為和判斷是正確的。否則,機器人在現實世界中的應用可能造成傷害或不便。
其次隨著機器人能力的增強,我們也需要更多地思考機器人的道德和倫理問題。機器人可以根據自己的判斷和推斷做出決策,這可能引發一系列關於責任和公平的問題。我們應該制定相應的法律和規定,以保護公眾利益和個人隱私。
最後我們作為個人也應該對機器人的普及和使用保持謹慎和理性。雖然機器人可以帶來便利和效率,但我們應該保持自己的獨立思考和判斷能力。機器人只是工具,而非替代人類的存在。我們應該善用機器人技術,同時保持人性的溫暖與理智。
延伸閱讀
- Netflix 將建立自己的廣告伺服器挑戰 Google 和 Amazon
- Google 仍未修復 Gemini 偏見影像生成器
- Google 在 Android 上新增實時威脅檢測和螢幕分享保護
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- Google 推出新的 Private Space 功能,就像是 Android 版的無痕模式
- Google I/O 2024:Google 剛宣布的所有重大訊息
- Google 發布 AI 動態威脅檢測服務,打擊 Android 惡意軟體
- Google 將在桌面版 Chrome 中加入其 Gemini Nano AI 模型
- Google 宣布 Patreon 和 Grammarly 已開始測試 Gemini Nano
- Google 推出新一代 AI 模型 LearnLM,助力教育業界革新