AI 能否在學習僅僅一個相關概念後掌握它?
導言
在過去的數十年間,哲學家和認知科學家傑裏·佛多(Jerry Fodor)和傑農·皮利欣(Zenon Pylyshyn)提出,人工神經網路,也就是推動人工智慧和機器學習的引擎,無法進行所謂的「組成性歸納」,即無法學會如何將新的概念應用到相關的情境中。然而自那時以來,科學家一直在開發方法,以賦予神經網路和相關技術這種能力,但其成果參差不齊,因此這場幾十年的辯論至今仍未有結論。然而紐約大學和西班牙龐貝烏法布拉大學的研究人員最近在《自然》期刊上發表了一項技術——元學習組成性(MLC),該技術提升了包括 ChatGPT 在內的這些工具在進行組成性歸納時的能力。MLC 方法超越了現有的方法,在某些情況下更勝於人類表現。MLC:透過練習提升神經網路的組成效能力
MLC 的核心是透過訓練神經網路,也就是推動 ChatGPT 和其他語音識別以及自然語言處理技術的引擎,以進一步提升其組成性歸納能力。在此過程中,MLC 接受一個新詞語的示例(比如「輕步」),並被要求在查詢指令(比如「輕步後退圍繞錐體」)中組成性地應用這個詞語。MLC 透過生成一個輸出序列(用箭頭指引的示意圖),然後將其與預期的目標序列進行比較,並調整其引數以進行改進。在這個訓練例子之後,又會出現一個新的訓練例子,以此類推。相比之下,之前的模型無法明確地練習其組成性技能,所以在學習和應用新詞語的時候會遇到困難。然而經過訓練,MLC 能夠成功地進行組成性歸納。MLC 的效果與比較
研究人員在紐約大學心智、大腦和機器計劃中心的副教授布倫登·萊克(Brenden Lake)與西班牙龐貝烏法布拉大學翻譯與語言科學系的研究員馬可·巴羅尼(Marco Baroni)帶領下,進行了一系列與人類參與者的實驗,包括了與 MLC 進行相同任務的實驗。此外相較於學習人們早已知道的詞語的含義,參與者還需要學習研究人員定義的一些荒謬詞語(例如「zup」和「dax」)的含義,並且知道如何在不同情境中應用它們。MLC 的表現與人類參與者相當,甚至在某些情況下表現更好。相比之下,ChatGPT 和 GPT-4 在這個學習任務上面臨困難,儘管它們具有令人驚異的普遍能力。結論
MLC 的出現為神經網路和大型語言模型等技術在組成性歸納方面帶來了新的希望。透過模仿人類對於新概念的學習方式,神經網路可以透過練習提升其組成效能力,並體現出與人類相當甚至更好的效能。然而雖然這項研究的結果令人鼓舞,但仍然有許多議題需要進一步研究。例如,我們需要更多理解 MLC 在不同情境和語言表達中的能力。此外對於機器學習和人工智慧技術的應用,我們還需要思考其在倫理和社會層面帶來的影響。總之隨著科學家們對於神經網路和機器學習的探索不斷深入,我們或許能夠看到更多關於人工智慧是否能夠像人類一樣進行組成性歸納的進展。ArtificialIntelligence-人工智慧,機器學習,知識理解,相關概念
延伸閱讀
- AI 晶片新創 DEEPX 以 5.29 億美元估值成功籌得 8000 萬美元 C 輪融資
- Fairgen「提振」調查結果,利用合成資料和人工智慧生成的回應
- 用 Retell AI 讓公司打造「語音代理人」來應答電話
- OpenAI 揭開 AI 祕密指令的面紗
- AI 助您創辦者更快、更輕鬆地籌集資金嗎?
- 盧西德機器人獲得 900 萬美元用於無人機清潔任何地方
- 以色列新創公司 Panax 籌集了 1,000 萬美元 A 輪融資,用於其基於人工智慧的現金流管理平臺
- Reddit 測試使用基於 LLM 的人工智慧進行自動整站法語翻譯
- 三星醫聲將以 9270 萬美元收購法國人工智慧超聲波新創公司 Sonio
- 網際網路共同創始人 Robert Kahn 早在幾十年前就已經做到了加密、人工智慧和網際網路嗎?