網路議題

AI「不確保時代」的到來

一個不確保時代的到來:技術發展和人工智慧浪潮人工智慧的足跡已經逐步擴大自從哈佛大學經濟學家約翰·肯尼斯·加爾布雷斯於 1977 年出版《不確保時代》一書後,他就提出了市場經濟學的成功以及對不穩定、低效和社會不平等的預測。如今在我們穿梭於人工智慧的轉型浪潮中,我們發現自己正處於一個帶有類似不確保性的新 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI「不確保時代」的到來

一個不確保時代的到來:技術發展人工智慧浪潮

人工智慧的足跡已經逐步擴大

自從哈佛大學經濟學家約翰·肯尼斯·加爾布雷斯於 1977 年出版《不確保時代》一書後,他就提出了市場經濟學的成功以及對不穩定、低效和社會不平等的預測。如今在我們穿梭於人工智慧的轉型浪潮中,我們發現自己正處於一個帶有類似不確保性的新時代。然而這次的動力不僅僅是經濟學,而是無情的技術進步,特別是人工智慧的崛起和演變。人工智慧的足跡已經開始在日常生活中變得更加明顯。從由人工智慧生成的歌曲,到以莎士比亞風格寫就的俳句,再到自駕車,模擬失散的親人以及幫助我們工作的 AI 助手,這項技術開始變得無所不在。隨著即將到來的人工智慧浪潮,人工智慧將很快變得更加普遍。 根據沃頓商學院教授伊森·莫立克最近的一篇文章,他研究了一項關於未來職業工作的實驗。該實驗涉及兩組在波士頓諮詢集團工作的顧問,每組都被分配了各種常見的任務。一組可以利用當前可用的人工智慧來增強他們的工作,另一組則不能。莫立克報告說:“使用人工智慧的顧問平均完成任務的 12.2%,完成任務的速度比沒有使用人工智慧的顧問快 25.1%,並產生了比沒有使用人工智慧的顧問高 40%的高質量結果。”當然大型語言模型(LLM)固有的問題,如混淆和偏見,可能會使這一浪潮簡單地消散,但現在看起來這種情況似乎不太可能。儘管這項技術已經展示了其破壞性潛力,但在幾年內,我們才能體驗到這場浪潮的威力。

下一代人工智慧模型的到來

下一代的 LLM 將比當前的優秀且通用化。根據《華爾街日報》的報導,Google 旗下的 Meta 公司正在研發一種至少與 GPT-4 一樣強大的 LLM。根據報導,這將在 2024 年之前實現。可以預期,在 Google 旗下的 OpenAI 也在開發下一代模型,儘管他們一直不願意公開討論計劃。基於當前可用的資訊,最具實質性的新模型應該是 Google Brain 和 DeepMind AI 團隊的“Gemini”。Gemini 可能比當今任何可用的模型都要出色。按照去年五月 Alphabet 執行長桑達爾·皮查伊在一篇博文中的說法:“雖然還處於初期,但我們已經看到令人印象深刻的多模式功能,這些功能在以前的模型中並未出現。”多模式意味著它可以處理並理解多種型別的資料輸入(文字和影象),為基於文字和影象的應用程式奠定了基礎。對以前的模型未曾見到的功能的提及意味著可能會出現更大的新興或意外的品質和行為。當前的一個新興例子是能夠建立計算機程式碼的能力,這並不是預期的功能。 已經有報導稱 Google 已經向一小群公司提供了 Gemini 的早期版本。其中一家可能是廣受好評的半導體研究公司 SemiAnalysis。根據該公司最新的一篇文章,Gemini 的先程式度可能比現在市場上的 GPT-4 模型提高 5 到 20 倍。Gemini 的設計可能基於 DeepMind 在 2022 年公開的 Gato 模型。《VentureBeat》去年的一篇文章報導說:“這個深度學習[Gato]轉換模型被描述為一個‘通用代理’,聲稱能夠以多種模態、觀察和行動規範執行 604 個不同的、主要是普通的任務。它被稱為人工智慧模型的瑞士軍刀。它明顯比迄今為止開發的其他人工智慧系統更加通用,在這方面或許是走向“人工通用智慧”(AGI)的一步。”

走向人工通用智慧(AGI)

GPT-4 被認為已經展示出“人工通用智慧的火花”,根據微軟的說法,它能夠“在數學、程式設計、視覺、醫學、法律、心理學等領域解決新奇和困難的任務,而無需任何特殊提示。”透過超越所有現有模型,Gemini 確實可能是邁向 AGI 的一大步。一種推測是,Gemini 將以多種模型能力的形式進行釋出,可能在幾個月內開始,甚至可能在今年年底之前。儘管 Gemini 可能令人印象深刻,但預計還會有更大更複雜的模型出現。Inflection AI 的執行長兼創始人、DeepMind 的創始人之一穆斯塔法·蘇萊曼在與《經濟學人》的對話中預測:“在接下來的五年中,我們這些在極其尖端的邊緣模型公司,也就是那些訓練最大型人工智慧模型的公司,將訓練出比 GPT-4 今天所見的模型大上千倍的模型。” 這些模型可能對我們的日常生活產生無與倫比的應用和影響,可能帶來巨大的好處,也可能帶來更大的危險。《Vanity Fair》引用紐約大學哲學和神經科學教授大衛·喬爾默的話:“這對人類來說是非常有好的,也許這些系統可以找到治療疾病、解決貧困和氣候變化等問題的方法,這些都是巨大的優點。”該文章還討論了潛在的風險,援引了專家對可怕結果的預測,包括人類滅絕的可能性,其機率估計範圍從 1%到 50%。這是否標誌著人類統治歷史的結束?在《經濟學人》的對話中,歷史學家尤瓦爾·諾亞·哈拉裏表示這些即將到來的人工智慧發展不會標誌著歷史的結束,而是“人類統治歷史的結束。歷史將繼續下去,只是由別人掌控。我把這個想像成為一種外星入侵。”對此蘇萊曼反駁說,AI 工具將不會具有代理權,這意味著它們不能做超出人類授權的事情。然而哈拉裏回應說,這款未來的 AI 可能會“比我們更聰明。你如何防止一個比你更聰明的存在發展出代理權?”有了代理權,AI 可以追求可能不符合人類需求和價值的行動。 這些下一代模型代表著邁向 AGI 的下一步,也代表著 AI 變得更加能幹、更加融入現代生活並變得更加不可或缺的未來。儘管有充分的理由對此抱有希望,但這些預期的新發展也更加迫使我們呼籲監管和規範。即使是製造前沿模型的公司的領導人也認為監管是必要的。根據《財富》雜誌的報導,他們在 9 月 13 日共同出席美國參議院聽證會後,“形鬆散地贊成政府監管的想法”,並且“對監管的內容沒有共識”。該會議由參議員查克·舒默組織,他在會後討論了制定適當監管的挑戰。他指出,人工智慧在技術上很複雜,不斷變化,且“對整個世界產生廣泛的、影響深遠的效應”。甚至可能無法現實地對人工智慧進行監管。首先很多技術已被釋出為開放原始碼軟體,這意味著它實際上已在野外供任何人使用。這一點可能使監管努力變得困難。我們必須採取預防措施,這是合乎邏輯和合理的。正如蘇萊曼在其與《經濟學人》的對話中所指出的:“這是我們必須採取預防措施的時刻,並不是因為任何恐懼,而是作為一種邏輯、合理的進行方式。”隨著人工智慧從狹窄能力向 AGI 快速發展,前景是廣闊的,但危險也是深遠的。這個不確保時代需要我們最深層的良心、智慧和謹慎,以發展這些人工智慧技術以造福人類,同時避免極端潛在危險。 Gary Grossman 是埃德爾曼公司(Edelman)的技術實踐高級副總裁,也是 Edelman 人工智慧卓越中心的全球負責人。 原文連結:https://venturebeat.com/2023/11/14/the-age-of-uncertainty-technology-advancement-and-the-wave-of-ai/
Technology-AI,不確保時代,技術發展,人工智慧,資料分析,機器學習,自動化
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。