
如何確保 AI 技術負責任?
ChatGPT 搜尋引擎的推出讓人們既感到熱情又深感憂慮。但接下來的問題是,我們如何確保 AI 技術負責任呢?
對 ChatGPT 的不同看法
ChatGPT 與現有的搜尋引擎不同,它會根據個人需求提供完美的答案,這讓人們感到非常驚訝。該技術使用的資料也不同,因為它收集人們對思想或觀點的附着,這是根據人們與 ChatGPT 互動的方式所產生的。但我們無法確保其意圖是否有所偏頗,例如是否存在種族主義和性別歧視等烙印。
因此我們需要緊盯技術的實際效果,以發現可能存在的問題。但這樣是不夠的,我們還需要考慮技術與社會背景、文化價值觀和商業模式的關係等因素。因此我們需要採用一種開放、分析的態度來評估技術的負責任性。
什麼是負責任的技術?
一個技術是否負責任取決於它的建立目的和使用方式是否可以配合。一個製造商可能希望建立一個負責任的技術,但不能單方面地將技術歸為“負責任”或“不負責任”。因此我們需要密切關注技術的具體效果,以確保儘管夠吸引眼球,但它是否存在不當的影響,儘管有良好的意圖。
如何評估技術是否負責任?
第一步是描述技術的上下文。它如何成為基礎設施、商業模式和文化價值觀的一部分?第二步是分析其實際效果:技術是否達到了預期目標?如果沒有,它還有什麼作用?第三步是試驗技術。它的能力有哪些約束?它是否排除了任何人或事物?
此外我們還需要評估技術所代表的價值觀是否符合組織、學校、部門或國家的價值觀。如果不符合,我們就可以否決它,或者對其使用施加嚴格的約束。
公共數位基礎架構的問題在於確保技術支援我們想要的社會。
責任技術與必要技術是否相等?
我們可以輕鬆地讓各種技術為我們執行某些任務,但作為人類,我們需要思考的不僅僅是現在更重要的是未來。我們在技術中需要培養什麼?我們需要在社會背景下提出這些問題,以確保採用特定技術是否必要並且有益。例如,在防疫期間,我們需要適時採用適當的技術來保障公共衛生。
ChatGPT 可以引發許多討論,例如它是否能在課堂上增強學習效果。對於 ChatGPT 等技術,我們應當採用負責任的態度,制定明確的使用規範並與相關人員進行對話收集意見。此外我們還需要從基礎開始普及技術知識,包括技術中內建的偏見、價值觀、標準、政策和歷史等基礎知識。
AI 技術應該受到規範約束嗎?
我認為所有基礎設施和社會層面的技術都需要受到規範約束。當我們談論數位技術時,隱私權是必須得到和已經得到規範的專案。由於大型科技公司提供的是免費服務,取得資料是它們的業務模式,因此對其進行規範實施既困難又復雜。當前歐盟正在努力透過 GDPR 和其他法規來加固對大型科技公司進行規範。雖然立法總是落後於現實,但這可能是其天性。我們需要更多的研究,以便更好地理解人類與自動化系統之間的互動,從而使我們能夠在社會層面上作出更好的決策。
我們不能只是因為它是一種聰明的技術,就採用它,這樣是毫無意義的。我們需要仔細分析各種技術以確保其實際效果。
延伸閱讀
- 「亞馬遜高層:AI 技術正徹底改變公司每個角落!」
- 運用 AI 強化銷售能力,Regie.ai 如何保持人性化觸感?
- 框架首款桌面電腦:為遊戲與本地 AI 推理量身打造的極致體驗!
- ChatGPT 該不該被視為節能型 AI?最新研究揭示其能耗真相!
- 探索 Microsoft Copilot:你必須知道的 AI 技術全解析!
- 歐盟揭曉:哪些系統受到 AI 法案的影響?
- 《Decart 推出 AI 技術,讓你在 Minecraft 中體驗即時互動樂趣!》
- 「未來自動駕駛的革命:與 Zoox 的 Jesse Levinson 深入探討 AI 行駛的新視野」
- 「2024 創業競演:Narada AI 領銜前 20 強!」
- 超越炒作:打造真正具商業價值的 AI 技術