網路議題

白宮科學顧問呼籲加固人工智慧風險的防護措施

白宮科學顧問呼籲加固對人工智慧風險的防護措施背景白宮科學與技術政策辦公室主任,印度裔、德州長大的工程師兼應用物理學家 Arati Prabhakar 是美國總統喬·拜登在人工智慧領域的專家顧問之一。Prabhakar 在政府和私營部門擁有豐富的工作經驗,曾在國防部的高級技術研究部門擔任領導職位,並且 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

白宮科學顧問呼籲加固人工智慧風險的防護措施

白宮科學顧問呼籲加固對人工智慧風險的防護措施

背景

白宮科學與技術政策辦公室主任,印度裔、德州長大的工程師兼應用物理學家 Arati Prabhakar 是美國總統喬·拜登在人工智慧領域的專家顧問之一。Prabhakar 在政府和私營部門擁有豐富的工作經驗,曾在國防部的高級技術研究部門擔任領導職位,並且是一位前矽谷執行官和風險投資家。她最近在拉斯維加斯的 DefCon 駭客大會上,接受了《美聯社》的專訪。

拜登總統對於人工智慧的問題,常常會諮詢 Prabhakar 的意見。而 Prabhakar 正在協助指導美國在保護人工智慧技術方面的方法,並依賴於亞馬遜、Google、微軟和 Meta 等大型美國科技公司的合作。

科學家對人工智慧風險的關注

科學界對於人工智慧的發展快速且無可避免地會產生一定的風險表達關注。Prabhakar 在訪談中提到了對人工智慧技術的潛在風險。她提到了以下幾個方面:

可解釋性

一些人工智慧系統,特別是深度學習和機器學習系統,是不透明的黑盒子。這意味著這些系統的執行方式遠離人們的理解。不過 Prabhakar 指出,多數風險來自於那些不可解釋的事物。她舉例說明,我們每天都在服用藥物,儘管我們無法確切預測它們與我們的身體細胞的相互作用,但我們已經找到了使藥物足夠安全的方式。在進行臨床試驗之前,藥物可能沒有明確的安全措施,使用藥物可能有助於康復,但也有可能致人於死地。這就像我們現在對待人工智慧技術一樣,我們可能沒有完美的措施,但我們應該努力瞭解這些系統的安全性和有效性,以便真正利用它們所能提供的價值。

潛在應用之危機

Prabhakar 擔心的一些具體人工智慧應用包括:人們常常破壞了聊天機器人的約束,透過引誘它們告訴自己如何製造武器。此外由於這些系統是以人類資料為基礎訓練的,因此有時會轉傳原有資料中存在的偏見。例如,人臉識別系統被不當使用,導致黑人被錯誤逮捕的案例已有相當廣泛的紀錄。此外隱私問題也是人工智慧應用中的一大關切。所有公開的個人資料可能看似單個訊息無足輕重,但將它們結合起來就能理解每個人的很多訊息。

科技公司的自願承諾

Prabhakar 提到,包括 Google、微軟和 ChatGPT(OpenAI)在內的七家公司已同意遵守白宮制定的自願人工智慧安全標準。但她強調公司的自願承諾只是其中的一部分,政府也有責任承擔起相應的責任。她表示希望更多的公司加入,自願承諾也得到擴大。Prabhakar 強調了政府在執行和立法層面的職責。

結論和建議

隨著人工智慧技術的不斷發展,對於風險的關注是必要的。政府、科學家和企業家應該共同努力,確保人工智慧技術的安全和可持續發展。

政府應該加固監管和制定相應的法律,以保護公眾免受不適當使用人工智慧技術的風險,同時也為企業提供明確的準則和指導,以確保他們在發展人工智慧技術時考慮到兼顧倫理和社會影響。對於那些違反相關法律和準則的行為,必須進行嚴肅的懲罰和追究責任。

另外科學界應該加固對人工智慧輸入資料和算法的審查,以減少偏見和失誤的風險。同時從長遠來看,人工智慧系統應該被設計成具有可解釋性,以便人們能夠理解它們的執行方式。

最後企業界應該繼續加固自主監督並自願遵守安全和倫理標準,並與政府和科學界合作共同解決人工智慧技術帶來的問題和風險。

ArtificialIntelligence-人工智慧風險、科學顧問、白宮、防護措施
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。