AIGC

不要急著將生成式人工智慧應用推向市場,英國監管機構警告隱私風險

英國監管機構敦促人工智慧開發者應先處理隱私風險,再將產品推向市場監管機構警告:要在推出產品前確保處理好隱私和資料保護風險英國的資料保護監管機構發出了對於人工智慧開發者的最明確警告,表示希望他們在將產品推向市場之前應先處理好隱私風險。據報導,英國訊息專員辦公室的執行總監 Stephen Almond .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

不要急著將生成式人工智慧應用推向市場,英國監管機構警告隱私風險

英國監管機構敦促人工智慧開發者應先處理隱私風險,再將產品推向市場

監管機構警告:要在推出產品前確保處理好隱私和資料保護風險

英國的資料保護監管機構發出了對於人工智慧開發者的最明確警告,表示希望他們在將產品推向市場之前應先處理好隱私風險。據報導,英國訊息專員辦公室的執行總監 Stephen Almond 即將在今天的會議上發表演講,並在部落格文章中提前警告,不要讓開發者輕率地使用強大的人工智慧技術而忽視對隱私和資料保護風險的應有審慎。

監管機構要求進一步應對不同情境下的隱私風險

英國訊息專員辦公室將考慮使用生成式人工智慧技術的不同應用情境,對涉及健康應用程式的生成式人工智慧 API(應用程式介面)可能有更高的合規期望,相比之下,對零售應用程式則較低。監管機構指出,這意味著即使使用相同的底層技術,英國市場上的企業也需要向訊息專員辦公室展示他們解決了在特定情境下產生的風險。因此開發者無法以“我們只是使用 OpenAI 的 API,所以認為在向我們的性健康診所查詢應用程式中新增智慧聊天機器人時不需要考慮隱私問題”這樣的立場逃避責任。

避免忽視隱私風險,但利用生成式人工智慧技術的商機

訊息專員辦公室強調企業正確地看到生成式人工智慧技術帶來的機遇,無論是為了為客戶創造更好的服務還是減少成本。然而他們不能對隱私風險視而不見。Almond 敦促開發者在開始時花時間理解人工智慧如何使用個人訊息,並在意識到風險後採取措施,然後以確信的態度推出人工智慧應用程式,以免對客戶或監管機構造成擾亂。

英國監管機構的警告意味著什麼?

罰則可能令企業付出高昂代價

根據英國的資料保護法令,如果處理不當,對於資料保護侵犯可以處以高達 1750 萬英鎊或上一財政年度全球總收入的 4%的罰款。這意味著對於不遵守建議並急於推向市場的企業來說可能會產生更多的監管風險,包括潛在的巨額罰款。

不同部門的監管機構制定不同的指南

作為一個成熟的監管機構英國訊息專員辦公室被賦予了制定人工智慧使用的隱私和資料保護指南的任務,這是英國政府在最近的人工智慧白皮書中提出的方法。英國政府表示它更青睞人工智慧的柔性原則和具體行業指南,這些指南由專門負責各行業的監管機構制定,例如競爭機構、金融行為監管機構、Ofcom 和訊息專員辦公室,而不是引入專門的立法框架作為指導人工智慧發展的工具,正如歐洲聯盟正在討論的那樣。這意味著在未來的幾周和幾個月中,英國將出現一個不斷發展和完善的期望指南的拼湊圖。

總結和建議

英國訊息專員辦公室的明確警告向企業發出了明確的訊號,他們期望企業不僅瞭解他們的建議,還要採取行動。任何忽視這一指南並急於推向市場的企業都將為自己增加監管風險,包括可能面臨巨額罰款的風險。 即使英國政府表示不認為需要專門的立法或僅專注於人工智慧監管的機構來規範該技術,但最近他們開始強調人工智慧開發者應該將安全放在首位。本月初,英國首相 Rishi Sunak 宣布計劃在今年秋天舉辦一次全球人工智慧安全峰會,似乎是為了促進研究工作。這一想法迅速得到了數家人工智慧巨頭的認同。 在面對監管機構的要求時,企業應該將隱私和資料保護風險放在首位。花時間理解人工智慧如何使用個人訊息,並確保已經制定了相應的措施以減少風險。企業應該充分遵從監管機構的指南,以確保他們的產品和服務符合隱私和資料保護的最高標準。
Privacy-人工智慧,監管機構,隱私風險,市場推向,英國
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。