AIGC

生成式人工智慧有警告:被「部署作為監控」,請開始省思

Reflection: 生成式人工智慧被警告以監控為目的部署警告與省思在一場有關 AI 倫理的專題討論中,幾位 AI 界的重量級人物對觀眾發出了一個共同的警告,即不要過於困惑於 AI 未來的承諾和威脅。他們指出,AI 並非神奇,也不存在完全自動化的技術。事實上 AI 現在已經甚至超越了大多數美國人的 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

生成式人工智慧有警告:被「部署作為監控」,請開始省思

Reflection: 生成式人工智慧警告監控為目的部署

警告省思

在一場有關 AI 倫理的專題討論中,幾位 AI 界的重量級人物對觀眾發出了一個共同的警告,即不要過於困惑於 AI 未來的承諾和威脅。他們指出,AI 並非神奇,也不存在完全自動化的技術。事實上 AI 現在已經甚至超越了大多數美國人的理解,具有極高的侵入性。這對眾所周知的大型語言模型的培訓人員提出了質疑,認為這些人往往在有關生成式 AI 的報導中被忽視,一部分原因是這項工作缺乏吸引力,另一部分原因則是其不符合當前關於 AI 的敘事。

來自 Google、NYU AI Now 研究所創始人,並曾擔任聯邦貿易委員會的顧問的 Meredith Whittaker 對此發表了更尖銳的評論,她指出,人們對 ChatGPT、Bard 等聊天機器人類似的技術產生了驚奇,但應該看到這些技術背後的危險,特別是隨著掌握高級 AI 技術的人數增加。她認為,AI 正在替我們的生活做出決策,這些決策往往在我們看不見的地方進行,並且我們很有可能對其一無所知。舉個例子,當我們走進一家銀行申請貸款時,我們可能因為某些基於刮取社交媒體資料的 Microsoft API 判斷而被拒絕。然而對於這個決策背後存在的系統,我們往往毫不知情,也沒有機會理解其中的原因。Whittaker 指出,雖然有改變的方法,但是要改變眼下的權力層次幾乎是不可能的。

的確,許多無權力的人可能會同意 Whittaker 的觀點,包括一些 OpenAI 和 Google 的現任和前任員工,他們有時對自己公司的 AI 產品推出方式感到不安。在討論中,Moderator Sarah Friar 問到了如何在不擔憂失業風險的情況下,員工可以發聲表達自己的擔憂,而 Singh 回答說這在很大程度上取決於公司的領導和價值觀,他還指出在過去的一年中,我們見證了許多負責任的 AI 團隊被解聘的情況。

AI 作為監控技術

Whittaker 進一步指出,關於 AI 正在發生的事情,普通人理解的還有很多。她稱 AI 為“監控技術”,並詳細解釋了這一點。她指出,AI 需要大量的資料集作為支撐,這些資料集需要更多的資料和更多的收集,進一步加深了 AI 對更多(甚至是私密)資料的需求。她告訴觀眾,“以更多資料為答案,將知識集中在這些公司的手中”已經成為了一種解決方案。但同時這些 AI 系統也作為監控裝置被部署出去。這裡有一個重要的認識,即無論 AI 系統的輸出是透過機率統計的猜測,還是透過三角定位我的位置的基站資料,它們都包含了關於我的資料。這些資料不需要是準確的,也不需要反映我的真實狀態,但它們對我個人和集體生活具有重大影響,而這種影響力就被交給了這些公司。

Whittaker 還提到,AI 的問題和隱私的問題是重疊的,兩者聯動密切。當然 Whittaker 在一定程度上有自己的立場和目標。她在活動中自己也提到了這一點,她說:“Signal 和其他真正保護隱私的技術可能會繼續存在”,因為人們對權力集中感到越來越不舒服。然而如果沒有足夠的抵制力量,且時間非常緊迫,隨著 AI 的發展加速,其社會影響也將加快,我們將繼續走在“充滿炒作的 AI 之路”上,那裡,權力將在智慧的假象下得到鞏固和正當化,我們將對個人和集體生活的主觀能動性極少。”Whittaker 的這種擔憂不僅僅是 AI 框架所關注到的,它還更大一些。

總結與建議

這場專題討論充滿了熱烈的互動,更讓我們對 AI 發展的議題進一步深入思考。在 AI 發展的過程中,確實需要充分重視倫理問題。我們不能夠被 AI 的潛力所迷惑,而對 AI 中可能存在的問題視而不見。

作為使用者,我們應該秉持著對 AI 的警惕心態。我們應該知道,AI 系統背後往往需要大量的資料,這些資料涉及個人隱私,也需要大量的人力工作才能構建起來。我們應該關注 AI 對我們個人和集體生活的影響,並積極追問 AI 系統的執行方式。

同時作為普通人,我們也應該與 AI 的發展保持一定的距離。我們應該選擇使用那些真正重視隱私保護的應用和技術,並提出更多的質疑和討論。重要的是,我們要明確表達對 AI 發展的期望,並爭取自己在 AI 發展中的發言權。

在擁有這份發言權的同時我們也應該關注 AI 發展中的道德問題。我們需要與 AI 公司的領導層建立良好的溝通與合作關係,鼓勵他們制定負責任的 AI 產品政策。同時我們也應該在政府層面推動相關的監管和法律框架,以保護公眾的利益和隱私。

總之 AI 的發展對我們個人和社會帶來了許多機會和挑戰。我們應該正視這些問題,以確保 AI 的發展符合道德準則,並確保公眾的權益得到保護。

Reflection-生成式人工智慧,監控,警告,部署,省思
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。