專家警告:AI 技術或將導致人類滅絕
本文經過 Science X 的編輯過程和審查,並使用了可靠的新聞來源進行事實查核和 AI 校對。在確保內容可信度的同時編輯們強調了以下幾點屬性:受信任的新聞機構進行事實核查,並透過 AI 校對。
ChatGPT 引發了對 AI 的警鐘
ChatGPT 是 AI 技術領域的一大突破,該技術具備從最簡單的提示中生成論文、詩歌和對話等能力。這一突破性的成功引發了大量投資,但也引起了廣泛關注和批評。人們擔心,AI 將透過聊天機器人在網路上洪水般地傳播假訊息、製造種族主義材料,或者透過 AI 驅動的自動化程式摧毀整個行業。
AI 技術可能導致人類滅絕
週二,一群業界主管和專家發出一份宣告,警告全球領袖應該致力於減少 AI 技術帶來的「滅絕風險」。幾十位專家,包括 OpenAI 建立了 ChatGPT 機器人的 Sam Altman 在內,簽署了這一行業宣告,表示應該將解決 AI 技術帶來的風險作為「全球性的重要任務」,與其他社會性風險(如大流行和核戰)同等對待。
該宣告並未詳細說明 AI 技術所帶來的潛在滅絕威脅,此中心表示這份「簡明的宣告」旨在開啟關於 AI 技術危險的討論。
對超級智慧機器的擔憂
許多人擔心人工智慧的出現可能導致超級智慧機器的誕生,這是一個模糊定義的概念,宕機器能夠執行多種功能並且可以自主開發其自身的程式設計時,就被認為是超級智慧機器。人們擔心,若人類無法控制超級智慧機器,這將對人類和地球產生災難性的後果。
如何解決 AI 技術帶來的風險?
除了對超級智慧機器的擔憂外,另一個問題是人工智慧系統可能會出現主觀偏見,這部分需要進行資料開放,透明和公平的處理。ChatGPT 的建立者 Sam Altman 甚至在巴黎表示:「如果 AI 出現問題,軍用防毒面具也無法保護您。」他還辯護了他的公司拒絕發布資料源的決定,稱批評者真正需要知道的只是 AI 模型是否存在偏見問題。
然而 AI 公司拒絕發布資料源和處理方式的行為已經引起了許多人的批評。批評者認為,這些資料可能受到種族主義、性別歧視或政治偏見的影響。Emily Bender 等批評者還批評 AI 公司的「黑盒子」問題,即 AI 算法訓練時處理的資料缺乏透明度,批評者無法理解 AI 如何從相關資料中得出結論。
對 AI 技術的建議
AI 技術領域的發展需要一個完整的生態系統,以確保技術的安全和可靠性。我們建議:
- AI 技術的發展應該以人為本,始終把人類的利益放在首位。
- AI 技術應該開放透明,讓所有人都能理解各種資料處理和模型訓練的原理。
- AI 技術需要得到有效的監管和管理,不僅僅是約束它們的應用,還要實施符合道德和法律準則的監管措施。
AI 技術需要透過透明、可信、完善的監管措施,確保人工智慧的安全和可靠性。當前的研究和開發人員,理應將人類的福祉及社會責任視為保護和發展人工智慧技術的重要原則。否則,AI 技術的發展可能對人類社會帶來無法承受的風險。
延伸閱讀
- 這款相機以 AI 詩詞交換照片
- Webflow 併購 Intellimize,加入 AI 動力頁面個性化
- 頭條新聞:頂級公司專頁功能即將上線,搭載 AI 及行銷工具助您擴充套件觀眾量
- Amazon Music 跟隨 Spotify 推出自己的 AI 播放清單生成器 Maestro
- 「Facebook 與 Instagram AI 生成的裸照遭調查」
- 新聞標題:Meta 在 Instagram 測試 AI 動力搜尋欄
- Google 計劃透過兩款新的 10 美元 Workspace 附加元件來實現 AI 的盈利化
- Multiverse 視界養成獨角獸收購 Searchlight,以 AI 為重心
- Anthropic 找到了一個讓 AI 提供未知答案的技巧 + TechCrunch 分鐘: Anthropic 如何獲得 AI 提供未知答案
- 資料庫公司 DataStax 收購低程式碼 AI 平臺 Langflow 的新創公司