
人工智慧是否能夠像人一樣理解語言的特定細節,這是一個廣泛的討論。有些人認為,大型語言模型(Large Language Models, LLMs)已經足夠聰明,可以代替記者等職業,但這可能是一個錯誤的論點。伊麗莎白·洛帕託(Elizabeth Lopatto)在她的報導中描述了一個關於 Google 的 BARD 的實驗,展示了這些 LLMs 的局限性。
語言是人類最基本的社交工具
語言是一個非常古老的人類技術,它的誕生是建立在人類社交行為的基礎之上的。人類必須能夠理解和掌握關於權力地位、人際關係等方面的常識,這就是為什麼我們的大腦如此複雜。大型語言模型並不代表聰明
過去的一段時間內,有些人開始逐步相信,大型語言模型已經成為一種智慧的存在,可以替代人類工作。但,事實上這些模型只能幫助人們更清晰地表達某些概念,它們並不理解一個句子或某個單詞的真正含義。就像在誘導進行 ASCII 字元的實驗中,Google 的 BARD 無法看到單詞"ketchup"中的字母 'e',而這對人類來說是一件非常簡單的事情。語言和知識是不同的
語言只是一個抽象的概念,無法完全表達人類思維中豐富的內涵。因此大型語言模型如果只是單純地從大量的文字資料中學習,並不足以理解其中所蘊含的真正含義。與此同時人類數千年來累積的智慧已經深入人們的基因中,並不斷影響我們的認知能力。人類具備豐富的知識庫和語言表達能力,透過這樣的方式體現了自己智慧的無盡可能性。大型語言模型的局限性
LLMs 遵循的是一套由人設定的規則,其理解能力僅限於與其訓練資料相關的領域。這就是為什麼 LLMs 往往無法回答那些需要基本常識的問題。因此使用 LLMs 時必須要警惕其局限性,並且仔細地評估其優點和缺點。雖然 LLMs 已經達到了比以前更高的水平,但它們仍然無法取代人類的思維和智慧。結論
在我們與大型語言模型(BARD、GPT-3 等)互動的過程中,我們需要認識到這些系統僅僅是工具,我們需要用它們來幫助我們更好地表達自己和理解不同的概念。然而如果我們想讓這些系統真正地模擬人類的智慧和思考方式,那麼我們需要將更多的科學研究投入到這個領域中,並開展更多的討論和實驗。Language Processing-NLP,AI,LanguageProcessing,Bard,Ketchup,Letter'e'
延伸閱讀
- AI 大師 Marcus 認為,人類滅絕的威脅被誇大了
- Google 的 AI 搜尋速度太慢了
- 吉格經濟下的工人得到報酬,Fidelity 壓低 Reddit 的估值,AI 徵服《Minecraft》
- AI 何時會「過度」AI?
- AI 使用 GPT-4 成為 Minecraft 專家
- 【已成為 Minecraft 專家的 AI:使用 GPT-4 的可能性】
- YC 支援的 Dumme 籌集了 340 萬美元,用於開發 AI 影片編輯器,將長 YouTube 影片轉換為短影片 (Shorts)
- AI 毀滅論被誇大了以及其他相關新聞
- AI 助手需要學會如何編輯
- 自動化 Anywhere 與 AWS 合作,以生成式人工智慧強化企業過程