
如何應對人工智慧的風險:從標準設定到全球治理
人類在約 150 萬年前發現了火,當時很快就意識到這是件好事,但也很快發現了火帶來的風險:燙傷、意外引發野火、吸入煙霧或甚至燒毀村莊。這些風險非常嚴重,卻又無法回頭,因為人類已經成功地利用火為自己帶來好處。同樣的,人工智慧(AI)也可能像火一樣具有革命性的轉變。人工智慧帶來的風險也非常大,有些人甚至認為這種風險是致命性的,但不論我們是否喜歡,現狀下全球地緣政治的發展趨勢已經讓人工智慧的發展不可逆轉,而且也不可能減緩發展的速度。因此本文探討如何管理人工智慧的風險以及我們可選擇的不同發展道路。
為人工智慧的使用設定標準
管理人工智慧風險的第一步是為其使用設定標準,這可以由政府或行業團體制定,也可以是強制的或自願的。雖然自願標準很好,但現實情況是,最負責任的公司往往會遵循規則和指導方針,而其他公司則毫不在意。為了實現整個社會的利益,每個人都必須遵循指導方針。因此我們建議必須強制實施標準,即使初始標準較低(即較容易達成)。
至於是政府還是行業團體領導,答案是兩者都要。,事實上只有政府才有足夠的力量使規則具有約束力,激勵或誘導全球其他政府參與其中。然而政府行動緩慢且容易受到政治交錯的影響,這種情況在這種情況下肯定不好。因此我們認為必須讓行業團體參與並發揮主導作用,以塑造思維並為最廣泛的支援基礎建設。最終我們需要一個公私合作夥伴關係才能實現我們的目標。
管理人工智慧的創造和使用
當涉及到人工智慧時,有兩個方面需要管理:使用和創造。像所有技術創新一樣,人工智慧的使用可以帶來好的或壞的結果,關鍵在於意圖以及風險的程度(是好的、壞的,還是介於兩者之間)。然而某些型別的人工智慧本質上非常危險,需要仔細管理、約束或約束。,事實上我們今天還不知道足夠的知識來撰寫所有的規定和法規,所以我們需要一個良好的起點以及一些權威機構,以便它們在必要時發布新的規則。
管理人工智慧風險和權威指導需要快速靈活,否則它將落後於創新的步伐並變得毫無價值。現有的行業和政府機構行動緩慢,因此需要建立新的方法,以便能夠更迅速地進行。國家或全球治理人工智慧是一個大問題,但治理和規則的價值就像最弱連結一樣。所有各方的參與都是至關重要的。這將是最困難的部分。我們不應該為等待全球共識而延遲任何行動,但同時應該探索全球工作小組和框架。
好訊息是,我們不是從頭開始。各種全球團體一直在積極提出自己的觀點並發布其成果;其中值得一提的例子包括最近由美國國家標準技術研究所(NIST)發布的人工智慧風險管理框架和歐洲提出的 AI 法案,還有許多其他例子。大多數是自願性質的,但越來越多的法律支援它們。在我看來,儘管尚未全面涵蓋所有範圍,但如果你把它們全部聚在一起,你將開始這段旅程,並取得很大的進展。
反思
這將是一段顛簸的旅程,但我相信人類最終會勝利。在另外 150 萬年之後,我們的後代一定會回顧這段歷程,並認為這是一段充滿挑戰但最終成功的旅程。因此讓我們一起前進,發揮人工智慧的優勢,並注意管理這項技術的風險。我們必須用人工智慧來創造更多的利益,同時要注意不要燒毀整個世界。
作者簡介:
Brad Fisher 是 Lumenova AI 的 CEO。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!