大型人臉辨識搜尋引擎現在封鎖對兒童臉部的搜尋
根據《紐約時報》的報導,利用人臉辨識技術來搜尋網上人物照片的公共搜尋引擎 PimEyes 已經封鎖了對兒童臉部的搜尋。然而這個新的檢測系統還處於開發初期,它使用年齡檢測人工智慧來識別被搜尋人是否為兒童。經測試,《紐約時報》發現該系統在識別某些角度拍攝的兒童照片時遇到困難,而且對於青少年的識別也不總是準確。
PimEyes 執行長 Giorgi Gobronidze 表示他早在 2021 年就計劃實施這樣的保護機制,但這一功能在紐約時報的記者 Kashmir Hill 上週發表了一篇關於人工智慧對兒童威脅的文章之後才完全部署。根據 Gobronidze 的說法,幫助未成年人的人權組織可以繼續搜尋他們,而其他搜尋將生成遮蔽兒童臉部的圖片。
隱私問題和對兒童的威脅
這並不是唯一一個因侵犯隱私而受到關注的人臉辨識引擎。在 2020 年 1 月,《紐約時報》的調查揭示了數百家執法機構已經開始使用類似的人臉辨識引擎 Clearview AI,而這些引擎的監管非常有限。《紐約時報》記者 Kashmir Hill 在一篇文章中寫道,該服務封鎖了超過 200 個帳戶,這些帳戶因為對兒童進行不當搜尋而被封禁。一位母親告訴 Hill,她使用 PimEyes 竟然在該網站上找到了自己從未見過的孩子照片,如果她想找出這些照片的來源,就必須支付每月 29.99 美元的訂閱費。
技術與隱私的關係
關於技術與隱私之間的關係,Electronic Frontier Foundation 的工作人員技術專家 Daly Barnett 去年在批評 PimEyes 對兒童缺乏保護措施時表示:“這只是技術中的另一個大問題,無論是否基於監視。”他指出,在技術設計之初並沒有考慮到隱私保護,使用者不得不選擇退出他們的隱私被侵犯。
如何平衡技術發展和隱私保護
面對人臉辨識技術為隱私帶來的挑戰,需要達到一個平衡點,既可以推動技術發展,又可以保障個人隱私。政府和科技公司應該充分認識到這一問題的重要性,制定相應的法律法規和監管機制,確保技術的應用不侵犯個人隱私權。在這個過程中,科技公司應該積極承擔起社會責任,將隱私保護納入到產品和服務設計的早期階段,而不是事後才進行補救。
結論與建議
兒童隱私的保護應該是優先考慮的問題之一。在開發人臉辨識技術和相關服務時,必須考慮到其對未成年人的潛在影響以及隱私的保護。一方面,我們需要加固監管,制定相應的法律和政策,確保這些技術在使用中不會構成對兒童隱私的威脅。另一方面,科技公司應該更加注重隱私保護,將其納入產品設計的初期,並提供簡單易用的選項,讓使用者更好地保護自己的隱私權。
延伸閱讀
- 新聞標題:Meta 在 Instagram 測試 AI 動力搜尋欄
- 禁止黃色網站登陸:Pornhub 封鎖德州 IP 位址
- 蘋果變卦!歐洲 iPhone 解除網頁應用封鎖
- FCC 委員會主席力促調查蘋果封鎖 Beeper Mini 的決定
- Google 在新加坡開始封鎖使用者的特定應用程式側載
- Arc 推出新 iPhone 瀏覽器,願成為你的搜尋好夥伴
- Brave Search 現在可以為程式設計查詢提供結果
- AI 搜尋引擎 Perplexity AI 價值 5.2 億美元,成功籌集 7000 萬美元
- 印度將封鎖幣安、Kraken 等加密貨幣交易網站
- Google 宣布終結地理圍欄搜尋令,扭轉自身創造的監控問題