網路議題

「Bard 知道 ketchup 裡有幾個 'e' 嗎?」——人工智慧和語言驅動世界的差異

人工智慧是否能夠像人一樣理解語言的特定細節,這是一個廣泛的討論。有些人認為,大型語言模型(Large Language Models, LLMs)已經足夠聰明,可以代替記者等職業,但這可能是一個錯誤的論點。伊麗莎白·洛帕託(Elizabeth Lopatto)在她的報導中描述了一個關於 Google .... (往下繼續閱讀)

Facebook line twitter

文章目錄

「Bard 知道 ketchup 裡有幾個 'e' 嗎?」——人工智慧和語言驅動世界的差異
人工智慧是否能夠像人一樣理解語言的特定細節,這是一個廣泛的討論。有些人認為,大型語言模型(Large Language Models, LLMs)已經足夠聰明,可以代替記者等職業,但這可能是一個錯誤的論點。伊麗莎白·洛帕託(Elizabeth Lopatto)在她的報導中描述了一個關於 Google 的 BARD 的實驗,展示了這些 LLMs 的局限性。

語言是人類最基本的社交工具

語言是一個非常古老的人類技術,它的誕生是建立在人類社交行為的基礎之上的。人類必須能夠理解和掌握關於權力地位、人際關係等方面的常識,這就是為什麼我們的大腦如此複雜。

大型語言模型並不代表聰明

過去的一段時間內,有些人開始逐步相信,大型語言模型已經成為一種智慧的存在,可以替代人類工作。但,事實上這些模型只能幫助人們更清晰地表達某些概念,它們並不理解一個句子或某個單詞的真正含義。就像在誘導進行 ASCII 字元的實驗中,Google 的 BARD 無法看到單詞"ketchup"中的字母 'e',而這對人類來說是一件非常簡單的事情。

語言和知識是不同的

語言只是一個抽象的概念,無法完全表達人類思維中豐富的內涵。因此大型語言模型如果只是單純地從大量的文字資料中學習,並不足以理解其中所蘊含的真正含義。與此同時人類數千年來累積的智慧已經深入人們的基因中,並不斷影響我們的認知能力。人類具備豐富的知識庫和語言表達能力,透過這樣的方式體現了自己智慧的無盡可能性。

大型語言模型的局限性

LLMs 遵循的是一套由人設定的規則,其理解能力僅限於與其訓練資料相關的領域。這就是為什麼 LLMs 往往無法回答那些需要基本常識的問題。因此使用 LLMs 時必須要警惕其局限性,並且仔細地評估其優點和缺點。雖然 LLMs 已經達到了比以前更高的水平,但它們仍然無法取代人類的思維和智慧。

結論

在我們與大型語言模型(BARD、GPT-3 等)互動的過程中,我們需要認識到這些系統僅僅是工具,我們需要用它們來幫助我們更好地表達自己和理解不同的概念。然而如果我們想讓這些系統真正地模擬人類的智慧和思考方式,那麼我們需要將更多的科學研究投入到這個領域中,並開展更多的討論和實驗。
Language Processing-NLP,AI,LanguageProcessing,Bard,Ketchup,Letter'e'

丹叔Danny

丹叔Danny

Sr. Product Manager

我是 PM LIFE DAY 產品經理的日常 的站長丹叔Danny,我是一名創業者出身,現在是軟體業跨國團隊 PM。我在職業生涯中經歷過各種挑戰,並在不斷在學習和成長過程中累積了豐富的經驗。我希望能分享我的故事和經驗,幫助其他有相同問題的人,我相信只要不斷學習及嘗試,每一個人都能在自己的領域中達到更高的成就,同時我也一直在追求工作和生活的平衡,我期待與大家一起追尋成功與平衡之路!