微軟禁止美國警察部門使用企業人工智慧工具
微軟政策改變
微軟公司近期改變了其政策,禁止美國警察部門使用 Azure OpenAI Service 的生成式人工智慧。這項服務是微軟公司對 OpenAI 技術的全面管理及企業導向的封裝。根據於週三新增的使用條款,Azure OpenAI Service 不得被美國的警察部門運用,包括與 OpenAI 的文字和語音分析模型的整合。此外新條款還涵蓋了「任何全球的執法機構」,明確禁止使用「用於無法預測的野外環境中的移動攝影機,如戶外攝影機和引擎錄影機的實時面部識別技術」。批評和變通
此變更是在法執執手段領域遇到了不少批評的情況下進行的。之前,Axon 公司宣布推出了一項新產品,利用 OpenAI 的 GPT-4 生成式文字模型來總結來自戶外攝影機的音訊。批評者迅速指出了潛在的缺陷,像是產生幻象(即便是當今最好的生成式人工智慧模型也會虛構事實)和來自訓練資料的種族偏見(尤其需要關注的是有色人種被警方攔截的可能性遠高於白人同儕)。當前無法確保 Axon 是否透過 Azure OpenAI Service 使用了 GPT-4 以及如果是這樣,是否更新的政策是作為對 Axon 產品發布的回應。審慎樂觀
這些新條款為微軟留下了彈性的空間。對 Azure OpenAI Service 的使用完全禁止僅適用於美國,而不適用於國際警察。它也不涵蓋在受控環境中使用靜止攝影機進行的面部識別,例如辦公室後臺(儘管該條款禁止美國警察使用任何形式的面部識別)。這與微軟及其密切合作夥伴 OpenAI 最近對人工智慧相關的執法和國防合同的處理方式相一致。面對倫理挑戰
面對這一舉措,我們應該如何看待企業人工智慧在執法和國防領域中的應用?是否應該存在一個有力的監管機制來確保這些技術在使用中不會造成潛在的濫用?這些問題涉及到技術、權力和倫理之間微妙的平衡,需要我們仔細思考及討論。倫理挑戰
在這個訊息時代,人工智慧的應用已經無所不在。但是當人工智慧應用於警察部門和軍事機構時,這些技術就變得尤為複雜,因為這會直接關係到人權和自由。我們需要認真對待人工智慧倫理所帶來的影響,以免人權和隱私受到侵犯。倫理觀點
對於像微軟這樣的企業來說它們在利益和價值觀之間需要找到一個平衡。這可能涉及到放棄某些商業機會,以確保他們的技術不被濫用或引發爭議。企業應該承擔起社會責任,積極審視他們的技術應用是否符合道德標準。最終建議
作為個體,我們應該關注和參與這些討論。我們有責任要求公司和政府機構確保人工智慧的應用符合道德和法律準則。同時我們也應該持續關注和討論技術和倫理之間的關係,以確保我們以負責任的方式使用這些強大的工具。Ethics-Microsoft,禁止,美國,警察局,使用,企業,人工智慧,工具
延伸閱讀
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源
- Reddit 推出新工具來協助「問我任何事」特色
- Google 將在 YouTube 學術影片中推出人工智慧生成的測驗
- Google 在 I/O 主題演講中提到「AI」超過 120 次
- 在人工智慧電影節上,人性戰勝科技
- AI 推動社會變革,女性呈現關鍵力量
- 開放 AI (OpenAI)的 ChatGPT 新聞發布:我們當前所知道的事情