網路議題

「Bard 知道 ketchup 裡有幾個 'e' 嗎?」——人工智慧和語言驅動世界的差異

人工智慧是否能夠像人一樣理解語言的特定細節,這是一個廣泛的討論。有些人認為,大型語言模型(Large Language Models, LLMs)已經足夠聰明,可以代替記者等職業,但這可能是一個錯誤的論點。伊麗莎白·洛帕託(Elizabeth Lopatto)在她的報導中描述了一個關於 Google .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

「Bard 知道 ketchup 裡有幾個 'e' 嗎?」——人工智慧和語言驅動世界的差異
人工智慧是否能夠像人一樣理解語言的特定細節,這是一個廣泛的討論。有些人認為,大型語言模型(Large Language Models, LLMs)已經足夠聰明,可以代替記者等職業,但這可能是一個錯誤的論點。伊麗莎白·洛帕託(Elizabeth Lopatto)在她的報導中描述了一個關於 Google 的 BARD 的實驗,展示了這些 LLMs 的局限性。

語言是人類最基本的社交工具

語言是一個非常古老的人類技術,它的誕生是建立在人類社交行為的基礎之上的。人類必須能夠理解和掌握關於權力地位、人際關係等方面的常識,這就是為什麼我們的大腦如此複雜。

大型語言模型並不代表聰明

過去的一段時間內,有些人開始逐步相信,大型語言模型已經成為一種智慧的存在,可以替代人類工作。但,事實上這些模型只能幫助人們更清晰地表達某些概念,它們並不理解一個句子或某個單詞的真正含義。就像在誘導進行 ASCII 字元的實驗中,Google 的 BARD 無法看到單詞"ketchup"中的字母 'e',而這對人類來說是一件非常簡單的事情。

語言和知識是不同的

語言只是一個抽象的概念,無法完全表達人類思維中豐富的內涵。因此大型語言模型如果只是單純地從大量的文字資料中學習,並不足以理解其中所蘊含的真正含義。與此同時人類數千年來累積的智慧已經深入人們的基因中,並不斷影響我們的認知能力。人類具備豐富的知識庫和語言表達能力,透過這樣的方式體現了自己智慧的無盡可能性。

大型語言模型的局限性

LLMs 遵循的是一套由人設定的規則,其理解能力僅限於與其訓練資料相關的領域。這就是為什麼 LLMs 往往無法回答那些需要基本常識的問題。因此使用 LLMs 時必須要警惕其局限性,並且仔細地評估其優點和缺點。雖然 LLMs 已經達到了比以前更高的水平,但它們仍然無法取代人類的思維和智慧。

結論

在我們與大型語言模型(BARD、GPT-3 等)互動的過程中,我們需要認識到這些系統僅僅是工具,我們需要用它們來幫助我們更好地表達自己和理解不同的概念。然而如果我們想讓這些系統真正地模擬人類的智慧和思考方式,那麼我們需要將更多的科學研究投入到這個領域中,並開展更多的討論和實驗。
Language Processing-NLP,AI,LanguageProcessing,Bard,Ketchup,Letter'e'

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。