OpenAI 成立新團隊研究兒童安全
作者: Kyle Wiggers
時間: 8 小時前
在遭受來自激進分子和父母的質疑後,OpenAI 成立了一個新的團隊,專門研究如何防止其人工智慧工具被兒童誤用或濫用。在其招聘網頁上的一個新職位上,OpenAI 透露了一個兒童安全團隊的存在,該公司表示正在與 OpenAI 內部的平臺政策、法律和調查小組以及外部合作夥伴合作,管理與未成年使用者有關的“流程、事件和審查”。
兒童安全團隊的使命
這個團隊當前正在尋找一名兒童安全執行專家,負責在人工智慧生成的內容中應用 OpenAI 的政策,並在與“敏感”(可能是與兒童相關的)內容相關的審查過程中工作。這項舉措反映出 OpenAI 對於在未成年使用者使用人工智慧方面遵守政策的警覺性以及對負面新聞的戒心。
兒童與人工智慧的互動
兒童和青少年越來越多地轉向 GenAI 工具,不僅用於學業,還用於處理個人問題。根據民主技術中心的一項民意調查,29% 的兒童報告曾使用 ChatGPT 應對焦慮或心理健康問題,22% 用於與朋友問題,16% 用於家庭糾紛。
對 GenAI 的擔憂
一些人認為這是一種增長的風險。去年夏天,學校和大學紛紛禁用 ChatGPT,原因是擔心抄襲和不實資訊。自那時起,有些機構已經取消了禁令。但並非所有人都認為 GenAI 的潛力是好的,他們指出像英國更安全網路中心的調查發現,超過一半的兒童(53%)報告曾見到同齡人使用 GenAI,用於制造真實但不實的訊息或影象,用以使某人不快。
OpenAI 的倡議與回應
去年九月,OpenAI 為教室中 ChatGPT 的使用發表了檔案,包括提示和常見問題解答,為教育工作者提供指導。OpenAI 承認,其工具,特別是 ChatGPT,可能產生不適合所有受眾或所有年齡段的輸出,並建議對兒童進行“慎重”的暴露 - 甚至是符合年齡要求的兒童。
UNESCO 的呼籲
對兒童使用 GenAI 指南的呼籲日益增長。去年底,聯合國教科文組織呼籲各國政府監管 GenAI 在教育中的使用,包括實施使用者的年齡約束和資料保護以及使用者隱私的防範措施。
人工智慧可以為人類發展提供巨大的機遇,但也可能造成傷害和偏見。UNESCO 的總幹事奧德裏·阿祖萊在一份新聞稿中表示:“如果沒有公眾參與和政府必要的保障和監管,它就不能融入教育。”
延伸閱讀
- 蘋果 AI 計劃揭祕:從財報中學到的三件事
- 美國 NASA 向私人太空公司訂購研究,探討火星任務支援角色
- 微軟選擇與 Sanctuary AI 合作進行通用機器人研究
- OpenAI 與英國《金融時報》達成戰略合作,包括內容使用
- OpenAI 旗下創投基金悄悄籌集 1500 萬美元
- 「不鏽鋼」幫助 OpenAI、Anthropic 等公司構建其 API 的 SDK
- 前 Snap 研究人員正在利用人工智慧打造下一代 Bitmoji - 輕鬆創作個人化貼圖
- OpenAI 計劃在東京設立新辦事處、特斯拉裁員數千人
- OpenAI 宣布東京辦公室成立,並推出日文最佳化的 GPT-4 模型
- OpenAI 擴大自定義模型訓練計劃