專案管理

AI 工具追蹤網路上危險行為的潛在價值:為保護孩子的服務提供者謹慎行事

AI 工具用於追蹤兒童危險網路行為:服務提供者持慎重態度但認為有價值近年來隨著兒童網路使用的普及,孩子們日常線上活動的風險也在不斷增加。為了保障兒童的安全,許多網路服務提供者開始考慮使用人工智慧技術來監測兒童在網路上的行為,希望能早期發現潛在的風險。一項來自 Vanderbilt Universit .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 工具追蹤網路上危險行為的潛在價值:為保護孩子的服務提供者謹慎行事

AI 工具用於追蹤兒童危險網路行為:服務提供者持慎重態度但認為有價值

近年來隨著兒童網路使用的普及,孩子們日常線上活動的風險也在不斷增加。為了保障兒童的安全,許多網路服務提供者開始考慮使用人工智慧技術來監測兒童在網路上的行為,希望能早期發現潛在的風險。一項來自 Vanderbilt University 的最新研究發現,社會服務提供者對於使用人工智慧來偵測網路上的危險行為持慎重態度,但同時也認為使用這種智慧型工具有其價值。

使用 AI 工具的好處

在這項研究中,研究人員存取了全美 37 名社會服務提供者,包括兒童青少年與家庭服務工作者、心理諮商師、教師、少年司法官員、 LGBTQ+ 倡議者、政府顧問和警察等專業人士,理解他們認為網路上的哪些風險最令他們擔心以及是否認為使用 AI 技術來偵測這些風險是一種解決方案。研究結果顯示,社會服務提供者最關心的網路風險是性騷擾和虛擬霸凌等線上性風險,尤其是當這些經驗越過了數位和現實世界的界線時。

社會服務提供者表示當前他們主要依靠自報告的方式來理解兒童是否遭遇網路上的風險,在此過程中需要建立一種信任關係。否則,他們只能在啟動正式調查後才能發現相關風險。在兒童福利機構中,已經有一些演算法決策支援系統來評估與兒童照顧相關的離線風險結果,以便工作人員能夠支援兒童的需求。不過這項研究是第一次探討使用人工智慧來追蹤危險網路行為的風險偵測工具,以幫助社會服務提供者識別和減輕弱勢青少年的網路風險經驗。

研究團隊成員、Vanderbilt University 的電腦科學副教授 Pamela J. Wisniewski 表示:"我們發現,社會服務提供者不希望將科技用作監視兒童或打擊年輕人,而是希望用它來幫助他們開啟對話。他們對一種可以幫助他們建立關係的解決方案沒有多大興趣,這種方案不會進行審查或向法律當局發出警報。他們希望得到某種提示或提示,這樣才能問:「今天在學校發生了什麼事情嗎?有人傳送這條訊息,它傷害了你嗎?是否冒犯了你?」"

使用 AI 工具的挑戰

然而社會服務提供者對使用人工智慧技術所持態度並不完全支援。他們普遍關注使用這種技術可能存在的問題,例如缺乏資源和存取必要的社交媒體資料以及違反他們與年輕人建立的信任關係,這需要時間去建立。此外學術研究人員也關注到,用於訓練人工智慧演算法的資料集可能忽略了老年人的情況,因此需要更多的研究和測試來提高可行性。

此外社會服務提供者還指出,人工智慧工具可以過度警覺,例如當兒童使用不當言語時,演算法可能會將其歸為 "噪音"。因此社會服務提供者優先希望使用優先過濾和篩選網路性行為風險和虛擬霸凌等問題的工具,但也要考慮使用社會服務提供者的區別。司法系統的使用者需要支援調查和事件反應的觀點。他們關心的是偵測和預防非法行為。而教育工作者和兒童福利官員需要一種更具體的日常檢視特定青少年經歷的方式。臨床醫生、治療師和心理健康從業者主要希望看到評估,以將結果與他們當前確立的病患評估方式相協調,以確保指示心理健康可能受損的因素。

結論

社會服務提供者對使用人工智慧技術來幫助偵測網路上的危險行為持慎重態度,但認為使用這種智慧型工具有其價值。他們認為這種工具可以幫助建立信任關係和開啟對話,而不是用於監視或打擊他們關心的年輕人。然而社會服務提供者也指出,使用這種技術可能存在的挑戰,包括缺乏資源和存取必要的社交媒體資料以及違反他們與年輕人建立的信任關係。因此使用這種工具應該謹慎且審慎。此外科學家和工程師還需要繼續研究和開發更準確的 AI 工具,以減少虛假報警和過度警覺等問題。

(本文經 Science X 審查、編輯,並使用了 Vanderbilt University 的研究報告)

Child safety-AI 工具,網路安全,危險行為,兒童保護,服務提供者
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。