歐洲、美國被敦促調查 ChatGPT 等系統所使用的人工智慧技術
背景
2023 年 6 月 20 日,歐洲聯盟的消費者保護組織敦促監管機構調查 ChatGPT 等系統所使用的人工智慧技術,並指出這種技術存在風險,使人類易受攻擊,同時也提及到歐盟集團的開創性人工智慧規定生效之前的延遲。這些監管組織聯合發出信函給各國的消費者機構、資料保護機構、競爭機構和產品安全機構,警告他們對生成型人工智慧的各種擔憂。此外一個跨大西洋的消費者組織聯盟也寫信給美國總統喬·拜登,要求他採取行動,保護消費者不受生成型人工智慧可能帶來的危害。
生成型人工智慧的風險
歐洲一直在努力監管人工智慧,尤其是隨著新型別的生成型人工智慧的興起,給 AI 聊天機器人如 ChatGPT 賦予了生成文字、影象、影片和聲音的能力。這些消費者保護組織引用挪威消費者委員會的一份報告,列舉了 AI 聊天機器人可能帶來的危險,包括提供不正確的醫療訊息、操縱人們、捏造新聞文章以及非法使用從網際網路上搜集到的大量個人資料。
監管的延遲和呼籲
儘管歐盟正在制定全球首套全面的人工智慧技術規定,但這些規定預計在兩年後才生效。這些消費者保護組織呼籲歐洲和美國的領導人使用現有法律並制定新法律來應對生成型人工智慧可能帶來的危害。他們指出,當前的情況下,消費者對這項技術的保護是不足夠的,該技術正在以快速的速度發展。
國際監管行動
一些國家的監管機構已經開始採取行動。例如,義大利的隱私監管機構要求 ChatGPT 的製造商 OpenAI 在調查可能的資料洩露之前,暫停處理使用者的個人訊息。法國、西班牙和加拿大也一直在調查 OpenAI 和 ChatGPT 相關的問題。
評論與建議
生成型人工智慧的潛在風險
生成型人工智慧在技術上的突破讓 AI 聊天機器人具備了更接近人類的表達能力,但同時也帶來了一系列風險。今日的消費者保護組織的呼籲正是基於對這些風險的擔憂,他們在信中提到了 AI 聊天機器人可能有誤導性和操縱性的行為以及對個人資料的大規模非法使用。這些風險對消費者的個人隱私和訊息的準確性具有重大影響,因此進行評估和監管是非常必要的。
監管的重要性與挑戰
生成型人工智慧的迅猛發展對監管機構提出了新的挑戰。由於這些技術一直在不斷發展和改進,監管機構需要保持與技術的同步,以確保消費者的利益和安全。然而制定適當且有效的監管政策並不簡單,需要平衡創新和風險,並尊重人工智慧技術的自主性和發展的空間。因此結合現有的法律框架並制定新的法律,以應對生成型人工智慧所帶來的新挑戰,是一個重要而複雜的任務。
建議
針對這些警告和呼籲,歐洲和美國應當高度重視,加固與監管機構的合作,共同制定適用於生成型人工智慧的監管政策。首先需要提供足夠的資源和專業知識,以加固對這種新興技術的研究和評估。其次應建立一個國際合作的框架,促進訊息共享和最佳實踐的交流,以加快監管機構對生成型人工智慧的理解和應對能力的提升。最後應該鼓勵行業自律和技術開發者的責任意識,以確保人工智慧技術的安全和可靠性,並促進其可持續發展。