
印度取消對人工智慧模型發布計劃的審批要求
撤回原先計劃
印度在遭到眾多本地和全球企業家和投資者的批評後,決定收回近期的人工智慧指引。印度電子和資訊部門在上週五與行業利益相關方分享了更新的人工智慧指南,不再要求在南亞市場推出或部署人工智慧模型之前獲得政府批準。根據修訂後的指南,公司被建議標記未經充分測試和不可靠的人工智慧模型,以通知使用者其潛在的不可靠性。這一修訂是因為印度電子和資訊部門本月早些時候收到了來自許多知名人士的嚴厲批評。Andreessen Horowitz 風險投資公司的合夥人 Martin Casado 稱印度的舉措為“一大災難”。
政策轉變
這項 3 月 1 日的指引也標誌著印度對人工智慧監管的前一種放手的政策的逆轉。不到一年前,該部門已拒絕監管人工智慧的增長,將該領域視為印度戰略利益的關鍵所在。與本月早些時候的原始指南一樣,這項新的指南尚未線上上釋出,但 TechCrunch 已檢視了一份副本。部門本月早些時候表示儘管該指南無法律約束力,但它預示著了“未來的監管”,並且要求公司遵從。指南強調根據印度法律,人工智慧模型不應用於分享非法內容,不應允許偏見、歧視或對選舉過程的整潔性構成威脅。中介應該使用“同意彈出”或類似機制,明確告知使用者有關人工智慧生成的輸出的不可靠性。該部門強調要確保 Deppfake(深度偽造)和虛假訊息易於識別,建議中介標記或嵌入具有獨特後設資料或識別符號的內容。它不再要求公司設計一種技術來識別任何特定訊息的“發起者”。
影響與建議
這一變化無疑對印度的人工智慧行業產生了深遠的影響,影響著政府監管方式以及企業和投資者的投資和業務策略。對於全球人工智慧行業的發展,這也標誌著一個新的轉折點。
專家建議
在這樣的背景下,專家們呼籲各利益相關方與政府保持溝通,在監管制度的制定上找到平衡點,既保護使用者權益,又不過度壓制創新和發展。縱觀全球,對於人工智慧監管的探索和實踐也依然處於探索階段,怎樣更好地平衡利益是一個值得深思的問題。
結語
這一次印度的政策轉變,引發了人們對於人工智慧監管和發展方向的思考。它提醒著我們,當新技術興起時,政策應如何應對,是一個需要認真對待的問題。我們希望印度方面可以在接下來的行動中,找到合適的制度化平衡點,促進人工智慧行業的良性發展,也希望其他國家和地區可以從中吸取經驗,共同促進全球人工智慧監管的探索和發展。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!