
<div><h2>人工智慧的潛在風險</h2>
<p>近期發布的一份宣告,由 AI 安全中心(CAIS)發布,提出“降低人工智慧對人類的滅絕風險應該成為全球範圍內的一項優先事項,與其他社會規模風險,如大災難和核戰爭並列。”該宣告反映了大流行關於超級智慧科技逃脫控制導致末日情形的擔憂,並且需要在全球範圍內對 AI 進行嚴格監管。這份宣告涵蓋了從滅絕到人工智慧生成的假訊息破壞社會決策等多個層面對潛在風險的警告。</p>
<p>許多 AI 業內人士均對這個問題表達了關注,從此起展開了一系列的討論與爭議。宣告中簽署人士包括 Google 前員工,長期支援深度學習的 Geoffrey Hinton,加州大學伯克利分校的電腦科學教授 Stuart Russell 以及 MIT 的研究科學家和播客主持人 Lex Fridman 等,均為此領域的權威人士。在這段時間裏,充斥着“災難論者”一詞,他們提高著一只名為“P(doom)”的衡量人工智慧威脅程度的風險指數。</p>
<h3>災難論的問題</h3>
<p>如果人工智慧產生的目標不符合人類價值觀和社會目標,產生“對齊問題”,這是災難論者的重要擔憂和核心問題,這意味着這種人工智慧系統可能會採取有害行動,即使它沒有被明確地編程爲這麼做。這也是當前許多人支援人工智慧嚴格監管的原因。</p>
<h4>AI 的積極應用</h4>
<p>其中一種可能性是,人工智慧將成為一部分解決方案,解決現今存在的人類威脅,例如氣候變化和未來大流行等。亦即,” P(sol)”或“ P(solution)”機率,即人工智慧可以在這些威脅問題中發揮作用。這並不是在說完全沒有風險或我們不應該去避免最壞的情況,但是我們不能聚焦於潛在糟糕的結果或聲稱厄運已成爲機率的事實;而是需要平衡這個話題,因爲人工智慧科技的潛在收益足以抵消潛在的威脅風險。</p>
<h3>技術的監管</h3>
<p>對於如何對 AI 進行管理,AI 工業界存在爭議。一方面,需要確保對風險的有效控制;另一方面,需要確保技術的長足發展。無論向哪方面靠攏,對人工智慧進行長期持續性的監管仍是必要的。同時,任何新的技術和科技都需要公衆和社會系統的支援。 更重要的是,政府應該考慮制定更加透明,負責任的人工智慧法規。因爲人工智慧在其發展中依然存在弊端,很容易爲不道德、不良情況等所影響。</p>
<h2>總結</h2>
<p>最後,我們需要認識到的是,人工智慧可能會帶來潛在的優勢和風險。我們需要在技術方面繼續探索,並同樣着重制定監管方案,以解決技術對公衆和社會帶來的不良後果。無論我們如何判斷人工智慧的發展趨勢,我們都不應忽視其可能給人類帶來的回報。因此我們需要以更平衡的態度對待此事,同時加強必要的規章制度與監管。尤其是政府方面需要落實這些政策並確保人工智慧機器和應用的安全性,從而提高公衆對人工智慧技術的信心。</p></div><div>Artificial Intelligence (AI)-人工智慧,災難,繁榮,未來趨勢,機器學習,自動化,智慧化,</div>
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- 「日本迎接新科技:Avride 的送貨機器人精彩登場!」