
產生式人工智慧:與炒作有所不同的真實面向
引言
產生式人工智慧是當下熱議的話題之一,不斷有新技術推出,帶來各種可能性的炒作。然而在今天的 VentureBeat Transform 2023 活動中,全球 CIO Jeff Wong 和東北大學經驗型人工智慧研究所執行主任 Usama Fayyad 進行了一場深入的對談,詳細討論了當今產生式人工智慧的真實現況。Wong 表示:“我長期以來都在研究技術,我稱之為炒作曲線和現實曲線之間總會有差異。” 他進一步解釋道:“每當新技術出現時,人們總會對其帶來的可能性感到炒作和激動,然而現實中的情況往往與地面上實際發生的以及這些技術實際能夠實現的情況大不相同。”
產生式人工智慧的真實現況
Fayyad 強調儘管產生式人工智慧和大型語言模型(LLMs)在某些方面取得了顯著進展,但它們仍然極大程度上依賴人類的監督和幹預。他說:“它們就像是隨機鸚鵡,它們並不理解自己在說什麼,只是不斷重複之前所聽到的東西。” Fayyad 補充說,“隨機鸚鵡”指的是重複所學內容,而“隨機”則表示隨機性。他認為正是這種隨機性讓模型陷入困境,甚至產生幻覺。
產生式人工智慧的真實基礎
Fayyad 認為,在科技領域,炒作曲線並不罕見,不過他認為產生式人工智慧具有現實基礎,這將推動未來的生產力和經濟增長。在過去人工智慧曾經被用於解決不同的問題,例如幫助電腦打敗人類下棋。而產生式人工智慧具有更強的實際應用場景,且使用起來更為容易。他說:“產生模型所提供的技能非常適應我們在知識經濟中所做的事情。在知識經濟中,我們大部分工作都是重複、勞動密集以及機械化的,而產生式人工智慧有可能提供自動化、節省成本和加速的解決方案。”
政府和監管應在何處?
Fayyad 認為,監管的角色在於明確規定當問題發生時,誰將承擔責任以及責任的影響。一旦確保了責任的來源,就會有具體的人或法律實體,而不僅僅是模型才會受到指責。潛在的責任將推動組織確保準確性和公平性。然而 Fayyad 認為,當前一代產生式人工智慧在性質上是與人類互補的,應該作為決策者的輔助工具。例如,如果產生式人工智慧工具生成了一份法律摘要,律師仍然需要閱讀並對其負責。對於程式碼也是如此,開發人員需要負責並能夠偵錯潛在的錯誤。Fayyad 表示:“人們問我,‘人工智慧會不會搶走我的工作?’我的回答是否定的,人工智慧不會取代你的工作,但使用人工智慧的人會取代你。”
VentureBeat 的使命是成為技術決策者獲取有關企業變革技術知識和進行交易的數碼廣場。發現我們的 Briefings。關鍵詞:人工智慧-生成式 AI、隨機鸚鵡、人工智慧、專家評論。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!