
ChatGPT 的首席證人將在國會作證,關注人工智慧風險
摘要
在美國國會聽證會上,ChatGPT 的人工智慧公司 OpenAI 執行長 Sam Altman 將作證。國會議員們呼籲制定新規則以引導人工智慧技術的快速發展。ChatGPT 是一款免費的聊天機器人工具,去年晚些時候發布後迅速引起教育工作者的恐慌,也擴大了人們對於"生成性人工智慧"工具的擔憂。Tech 公司的執行長相繼受邀到白宮討論社會問題。雖然當前國會沒有立即出臺全面的人工智慧法規,但美國機構承諾打擊違反現有民權和消費者保護法的有害人工智慧產品。IBM 的首席隱私和信任官 Christina Montgomery 和紐約大學退休教授 Gary Marcus 也將在聽證會上作證。
報導
隨著生成性人工智慧技術的出現,聊天機器人工具 ChatGPT 引發了人們對於人工智慧技術和相關規定的擔憂。近日 OpenAI 的 CEO Sam Altman 和其他科技公司的執行官受邀到白宮討論人工智慧技術如何引領社會和經濟發展的問題。Altman 將出席國會聽證會,就 ChatGPT 的技術和應用進行證言,並回答國會議員們對於人工智慧技術的擔憂。
當 ChatGPT 推出之際,教育工作者迅速表達了對於其在作業和試卷中作弊的擔憂,並擴充套件到更廣泛的社會問題,例如生成性人工智慧工具的誤導,破壞版權保護以及翻轉某些工作。雖然當前國會尚未制定全面的人工智慧法規,但美國機構已經承諾打擊違反現有民權和消費者保護法律的有害人工智慧產品。此外人工智慧產品的設計和實施也已經成為政治問題,成為影響美國選舉,工作和經濟穩定的因素。
在這種情況下,國會議員和公眾已經開始關注人工智慧技術的影響和風險,主要是生成性人工智慧技術,這不僅是安全和隱私問題,還是關於道德和社會問題。對於這個問題,人工智慧公司的執行長表示他們接受人工智慧監管,但他們警告說,人工智慧不能被過度約束。IBM 的首席隱私和信任官 Christina Montgomery 要求國會採取“精確監管”方法,即制定規則以管理人工智慧在特定用例中的應用,而不是對技術本身進行監管。
Gary Marcus 教授是一個 AI 專家小組的成員,呼籲 OpenAI 和其他科技公司暫停其發展更強的 AI 模型,以給社會更多時間考慮風險。但是在這個新興技術和邁向更科技化生活方式的時代中,讓人們緩慢地認識到新產品和服務的價值,專家應該評估技術的長期影響,考慮到創新所造成的風險和代價。
品評和建議
隨著人工智慧技術的發展和應用,開始引起社會和政治問題。監管人工智慧的挑戰和可能帶來的改變,不僅是技術本身,而是在全球範圍內引起廣泛關注的問題。當然對於一項革命性的技術,有時候會帶來劣勢,需要稍微調整。但是從科學的角度來看,在多種應用中,人工智慧保持一種最佳的靈活性,創造等各種方式,提高問題的解決效率以及增強人類的決策能力。 因此進一步的研究和開發是必要的,同時應該把注意力放在相關的法律及標準的建立上,以減少一些風險,並確保創新能有效實施。
此外我們認為,人工智慧技術產品開發者應該將重點放在解決人類問題的技術上,透明性,和開放性,保護資料隱私的探索,這亦是人工智慧發展過程中最緊迫的問題。我們希望未來的人工智慧技術可以為全球所有人民帶來更多的福利,而不是造成更多的問題和風險。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 計劃將 Sora 影片生成器整合至 ChatGPT,開啟創意新視界!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!