網路議題

如何監管人工智慧的資料供應

AI 的取證:確保安全 AI 所需的監管機制近年來人工智慧(AI)以其強大的能力風靡全球,但一些人對此持有疑問:AI 是否將在不久的將來奴役人類、是否只是最新的科技潮流,抑或是更為微妙的事情?這個問題並不簡單。一方面,ChatGPT 成功透過了律師考試,這既令人印象深刻,也可能對律師行業構成一種可怕 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

如何監管人工智慧的資料供應

AI 的取證:確保安全 AI 所需的監管機制

近年來人工智慧(AI)以其強大的能力風靡全球,但一些人對此持有疑問:AI 是否將在不久的將來奴役人類、是否只是最新的科技潮流,抑或是更為微妙的事情?這個問題並不簡單。一方面,ChatGPT 成功透過了律師考試,這既令人印象深刻,也可能對律師行業構成一種可怕的威脅。但實際上已經有一些軟體能力的問題逐步浮出水面,比如一名律師在法庭上使用 ChatGPT 時,該機器人捏造了他們的論點。AI 無疑將繼續進步,但仍有重大問題需要回答。我們如何確保我們能夠信任 AI?我們如何確保其輸出不僅正確,而且沒有偏見和審查制度的影響?AI 模型所使用的訓練資料從何而來?我們如何確保資料沒有被操縱?篡改對任何 AI 模型都會產生高風險的情境,尤其是將來將用於安全、交通運輸、國防等可能涉及人命安全的領域。

AI Unleashed:一個為企業資料領袖打造的獨家高管活動

AI 的取證:確保安全 AI

盡管全球各國機構承認 AI 將成為我們流程和系統中不可或缺的一部分,但這並不意味著我們應該在沒有謹慎關注的情況下進行應用。我們需要回答的兩個最重要的問題是:特定系統是否使用 AI 模型?如果使用了 AI 模型,它可以給予/影響什麼功能?如果我們知道一個模型已經被訓練到其預定目的,並且我們確切地知道它被部署在哪裡(以及它能做什麼),那麼我們已經消除了許多 AI 被誤用的風險。AI 取證有許多不同的方法,包括硬體檢查、系統檢查、持續取證和 Van Eck 輻射分析。

硬體檢查

硬體檢查是對計算元件進行物理檢查,以確保是否存在於 AI 中使用的晶片。相比之下,系統檢查機制利用軟體分析模型,確保它能夠控制的功能,並標誌任何應禁止的功能。該機制透過識別和分離系統的隔離區域(有意混淆以保護智慧財產權和機密的部分)來工作。軟體將檢查周圍的透明元件,以檢測並標誌系統中使用的任何人工智慧處理,而無需揭示任何敏感資訊或智慧財產權。

深入取證方法

持續取證機制在初步檢查之後進行,以確保一旦模型被部署,就不會被更改或篡改。一些抗篡改技術,如密碼雜湊和程式碼混淆單獨執行於模型本身內部。密碼雜湊允許檢查員檢測系統的基礎狀態是否被更改,而不需要揭示底層資料或程式碼。程式碼混淆方法則將系統程式碼在機器級別上混淆,以防止外部勢力解讀。而 Van Eck 輻射分析則透過分析系統執行時發射的輻射模式來檢測變化。由於復雜的系統執行多個並行過程,輻射通常被干擾,從而很難提取出具體的程式碼。然而 Van Eck 技術可以檢測到重大變化(如新增的 AI),同時無需解讀系統部署者希望保密的敏感資訊。

訓練資料:避免“垃圾進,垃圾出”

最重要的是,進入 AI 模型的資料需要在源頭進行取證。例如,如果對手國家試圖摧毀您的戰鬥機機群,為什麼不試圖操縱用於訓練機群訊號處理 AI 模型的訓練資料呢?每個 AI 模型都是基於資料進行訓練,這些資料告訴模型該如何解讀、分析並對新輸入進行操作。儘管訓練過程中有大量技術細節需要處理,但它歸結為使 AI“理解”某種事物的過程,就像人類一樣。這個過程類似,而且困難也是相似的。理想情況下,我們希望訓練資料集能夠代表模型在訓練和部署後將要處理的真實資料。例如,我們可以建立一個過去的員工資料集,其中包含高績效的員工,然後使用這些特點來訓練一個 AI 模型,該模型可以透過審查一份求職者的簡歷來預測其素質。實際上亞馬遜就是這麼做的。結果如何?客觀地說,該模型在完成訓練的任務上取得了巨大的成功。不好的訊息是,資料教導該模型具有性別偏見。資料集中大多數的高績效員工是男性,這可能使您得出兩個結論:男性表現比女性更好,或者只是男性被錄用的更多,而這扭曲了資料。AI 模型沒有智慧去考慮後者,因此它只能假設前者,這使得候選人的性別在模型中具有更大的權重。取證和透明度對於建立安全、準確、符合道德的 AI 至關重要。最終使用者應該知道 AI 模型是基於正確的資料進行訓練的。利用零知識密碼學證實資料沒有被操縱,可確保 AI 在訓練時使用的資料集準確、防止篡改。

展望未來

業務領導者必須至少在高層次上理解可用的取證方法以及它們在檢測使用 AI、模型變化和源頭訓練資料偏見方面的有效性。辨識解決方案是第一步。構建這些工具的平臺提供了對強大 AI 模型可能產生的危險問題的重要保護,無論是來自不滿的員工、產業/軍事間諜還是可能導致危險的人為錯誤。雖然取證不能解決所有 AI 系統的問題,但它可以在很大程度上確保 AI 模型按預期工作,並能夠立即檢測到其意外演變或被篡改的可能性。AI 在我們的日常生活中漸漸變得越來越重要,因此我們需要確保我們可以信任它。

Privacy-人工智慧,監管,資料供應,資料隱私,法規遵從
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。