未來的人工智慧算法有潛力像人類一樣學習,研究人員表示
探索機器學習中的持續學習和人類記憶
2023 年 7 月 20 日,《俄亥俄州立大學》的電機工程師在分析一種名為「持續學習」的過程對機器認知能力的影響時,明白到記憶對機器和人類來說同樣是一個容易失去的陷阱。持續學習指的是電腦透過積累從舊的任務中獲得的知識,不斷地學習一系列的任務。但科學家仍然面臨一個主要挑戰,那就是學習如何克服機器學習中的「災難性遺忘」,這是一個機器智慧代理人中的記憶損失過程。
據俄亥俄州立大學的電腦科學和工程學教授 Ness Shroff 表示當人工神經網路在一個又一個新任務上進行訓練時,它們往往會失去從先前任務中獲得的訊息。這個問題在社會上越來越依賴人工智慧系統的情況下可能變成一個問題,例如自動駕駛應用和其他機器人系統需要學習新東西時,如果忘記了已經學到的東西,將對我們的安全和機器本身的安全造成危險。
人工神經網路在學習過程中的表現差異
研究人員發現,與人類在記憶相似場景的對立事實可能會困擾,但當面對不同的任務時可以輕鬆地記住內在不同的情況一樣,人工神經網路在面對相似特徵的任務時也可以較好地回憶訊息。研究小組包括俄亥俄州立大學的博士後研究員 Sen Lin 和 Peizhong Ju 以及教授 Yingbin Liang 和 Shroff。他們將在本月晚些時候於夏威夷檀香山舉行的第 40 屆國際機器學習會議上發表他們的研究成果,這是機器學習中的一個旗艦會議。
傳統的機器學習算法一次性訓練所有的資料,但 Shroff 表示他們的研究結果表明,任務相似性、正面和負面的相關性以及算法所學任務的線序等因素都會影響人工神經網路保留某些知識的時間長短。例如,為了最佳化算法的記憶,Shroff 表示應該在持續學習過程中早期教授不同的任務。這種方法擴大了網路對新訊息的容量,提高了其隨後學習更相似任務的能力。
深入瞭解機器和人腦之間的相似性
俄亥俄州立大學的 Shroff 表示他們的工作對於深入瞭解機器和人類大腦之間的相似性很重要,因為這有助於更深入地理解人工智慧。他說:"我們的工作預示著一個新時代的智慧機器,它們可以像人類一樣學習和適應。"
擁有這種能力的自主系統,將使科學家能夠更快速地擴充套件機器學習算法,並輕鬆地適應不斷變化的環境和意外的情況。基本上,這些系統的目標是有一天能夠模仿人類的學習能力。
總結與建議
這項研究的重要性在於它為我們提供了關於機器和人類認知之間相似性的寶貴洞察,並且有助於我們更好地瞭解人工智慧的能力和約束。這對於未來的人工智慧算法和自主系統的發展非常重要。
然而我們也應該對這項研究的局限性保持警惕。當前的研究在人工智慧領域還處於起步階段,且這項研究還需要進一步的取證和實驗。此外要實現像人類一樣的學習能力仍然面臨著重大的挑戰和困難。
未來,我們應該持續關注這個領域的發展並進行更多的研究,以推動人工智慧技術的進步,並確保其應用在各個領域中的安全和可靠性。
延伸閱讀
- AI 蓬勃發展,馬斯克對抗機械革命
- OpenAI 成立團隊控制「超智慧」AI,卻任憑其枯萎——訊息來源指出
- 開放 AI 與 Reddit 資料簽署合約,訓練人工智慧
- 智慧錢包 Kudos 獲得 1000 萬美元投資,研發 AI 功能挑選最佳信用卡
- 索尼音樂警告科技公司避免未經授權使用其內容訓練人工智慧
- Strava 啟用人工智慧防篡改排行榜,推出「家庭」計畫、深色模式等
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源