AIGC

人工智慧只學習一次後能否理解相關概念?

AI 能否在學習僅僅一個相關概念後掌握它?導言在過去的數十年間,哲學家和認知科學家傑裏·佛多(Jerry Fodor)和傑農·皮利欣(Zenon Pylyshyn)提出,人工神經網路,也就是推動人工智慧和機器學習的引擎,無法進行所謂的「組成性歸納」,即無法學會如何將新的概念應用到相關的情境中。然而自 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人工智慧只學習一次後能否理解相關概念?

AI 能否在學習僅僅一個相關概念後掌握它?

導言

在過去的數十年間,哲學家和認知科學家傑裏·佛多(Jerry Fodor)和傑農·皮利欣(Zenon Pylyshyn)提出,人工神經網路,也就是推動人工智慧和機器學習的引擎,無法進行所謂的「組成性歸納」,即無法學會如何將新的概念應用到相關的情境中。然而自那時以來,科學家一直在開發方法,以賦予神經網路和相關技術這種能力,但其成果參差不齊,因此這場幾十年的辯論至今仍未有結論。然而紐約大學和西班牙龐貝烏法布拉大學的研究人員最近在《自然》期刊上發表了一項技術——元學習組成性(MLC),該技術提升了包括 ChatGPT 在內的這些工具在進行組成性歸納時的能力。MLC 方法超越了現有的方法,在某些情況下更勝於人類表現。

MLC:透過練習提升神經網路的組成效能力

MLC 的核心是透過訓練神經網路,也就是推動 ChatGPT 和其他語音識別以及自然語言處理技術的引擎,以進一步提升其組成性歸納能力。在此過程中,MLC 接受一個新詞語的示例(比如「輕步」),並被要求在查詢指令(比如「輕步後退圍繞錐體」)中組成性地應用這個詞語。MLC 透過生成一個輸出序列(用箭頭指引的示意圖),然後將其與預期的目標序列進行比較,並調整其引數以進行改進。在這個訓練例子之後,又會出現一個新的訓練例子,以此類推。相比之下,之前的模型無法明確地練習其組成性技能,所以在學習和應用新詞語的時候會遇到困難。然而經過訓練,MLC 能夠成功地進行組成性歸納。

MLC 的效果與比較

研究人員在紐約大學心智、大腦和機器計劃中心的副教授布倫登·萊克(Brenden Lake)與西班牙龐貝烏法布拉大學翻譯與語言科學系的研究員馬可·巴羅尼(Marco Baroni)帶領下,進行了一系列與人類參與者的實驗,包括了與 MLC 進行相同任務的實驗。此外相較於學習人們早已知道的詞語的含義,參與者還需要學習研究人員定義的一些荒謬詞語(例如「zup」和「dax」)的含義,並且知道如何在不同情境中應用它們。MLC 的表現與人類參與者相當,甚至在某些情況下表現更好。相比之下,ChatGPT 和 GPT-4 在這個學習任務上面臨困難,儘管它們具有令人驚異的普遍能力。

結論

MLC 的出現為神經網路和大型語言模型等技術在組成性歸納方面帶來了新的希望。透過模仿人類對於新概念的學習方式,神經網路可以透過練習提升其組成效能力,並體現出與人類相當甚至更好的效能。然而雖然這項研究的結果令人鼓舞,但仍然有許多議題需要進一步研究。例如,我們需要更多理解 MLC 在不同情境和語言表達中的能力。此外對於機器學習和人工智慧技術的應用,我們還需要思考其在倫理和社會層面帶來的影響。總之隨著科學家們對於神經網路和機器學習的探索不斷深入,我們或許能夠看到更多關於人工智慧是否能夠像人類一樣進行組成性歸納的進展。
ArtificialIntelligence-人工智慧,機器學習,知識理解,相關概念

延伸閱讀

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。