
理解人工智慧問題,從捷徑著手
引言
在 19 世紀的計算機先驅艾達·拉夫莉斯(Ada Lovelace)的文章中,她提到機器“只能執行我們知道如何命令它執行的任務”。她的這句話是在描述第一個機械計算機的時候寫下的。然而現在的機器已經可以實現我們不知道如何命令它們完成的事情。例如,2016 年,一個名為 AlphaGo 的程式成功擊敗了所有的創作者,並以無法解釋的方式完成這些成就。今天AI聊天機器人 ChatGPT 已經能夠用多種語言進行對話、解謎,甚至透過法律和醫學考試。這些新機器的成功和風險都來自於創造它們的特定方法。
機器學習的能力
機器可以透過學習經驗來進行智慧的行為,這也就是為什麼機器可以進行人類知識範圍之外的事情。比如 AlphaGo 就是透過比人類多學習更多的盤面來取得優勢。同樣地,沒有人能夠閱讀像 ChatGPT 一樣的多種語言。機器能夠實現人類無法完全理解的智慧,也意味著人們對人工智慧的表現是否可信和未來演變的不確保性產生了焦慮。人工智慧的智慧能力與人類能力並不完全相同,我們不能期望機器智慧會走向某種形式的意識。智慧是在陌生情況下做正確事情的能力,這在機器中也是可以發現的,例如那些會向使用者推薦新書的機器。
選擇捷徑的代價
人工智慧的發展面臨著諸多問題。當我們不能檢視機器內部執行時,又如何確保重要決定的公平性?當我們想阻止機器大量收集我們的個人資料時,又該如何讓它們持續執行呢?機器提供的是大量吸引使用者注意力的內容,而我們該如何期望它們阻止有害內容的繼續傳播呢?更重要的是,這些應用程式都佔據了我們數位基礎設施的中心地位,並且我們已經授權這些機器做出許多重要決定。例如,在社交媒體上,我們看到的內容編輯決定是由演算法而不是人類做出的。2022 年,英國豁免庭對 14 歲少女 Molly Russell 的悲劇死亡作出了裁決,將演算法列為推送有害內容的原因之一。而這些與人工智慧相關的問題正好來自建立它的捷徑。
需要出臺適當法規掌握人工智慧
建立人工智慧的過程中,人們不斷地嘗試模仿人類思維的方法。例如,他們努力理解人類語言和人類的推理規則,希望將這些知識放入機器中。但是這些方法都沒有取得成功。於是他們開始其他途徑。第一個捷徑是使用基於資料統計的方法做出決策,以此來避免理解我們希望機器仿效的複雜現象,如語言。這意味著你的訊息應用程式中的自動完成功能可以猜測下一個單詞,而不必理解使用者的目標。第二個捷徑是機器可以直接從網路上蒐集資料來進行訓練。第三個捷徑是不斷觀察使用者的行為並從中推斷出它們可能會點選的東西,從而理解使用者的意圖。
現在這些捷徑成為所有網路翻譯、推薦和回答問題工具的基礎。儘管成功,在這種方法中卻存在著極大的問題。當我們不能檢視機器內部執行時,又如何確保重要決定的公平性?當我們想阻止機器大量收集我們的個人資料時,又該如何讓它們持續執行呢?更重要的是,機器提供的是大量吸引使用者注意力的內容,而我們該如何期望它們阻止有害內容的繼續傳播呢?更為重要的是,這些應用程式都佔據了我們數位基礎設施的中心地位,並且我們已經授權這些機器做出許多重要決定。
這也就是為什麼義大利隱私權保護機構對 ChatGPT 採取了約束措施。該機構指出該聊天機器人在未經法律授權的情況下從網路上蒐集了大量個人資料,並且所提供的訊息內容存在錯誤。這些問題可能對整個方法都構成了嚴重挑戰,而當代解決方案可能只涉及增加法律宣告、改變條款和條件等方式。對於嚴肅的問題,我們需要出臺適當法規並找到有效解決方案。未來,AI的發展需要醫學、哲學、法律等多方面學者的參與,來審視我們實際上已經建立的東西以及為什麼要建立它。這樣才能夠讓法律制度、文化和科技相匹配。
延伸閱讀
- OpenAI 的創意寫作 AI 讓人想起高中文學社那個討人厭的孩子
- 亞馬遜成立新型代理 AI 團隊,將如何改變科技未來?
- 「搶先報名!TechCrunch Sessions: AI 演講者申請截止日期迫在眉睫!」
- MWC 最新報導:AI 影響力的兩極化觀點首次曝光!
- 亞馬遜新推出 Alexa+:為孩子們帶來 AI 驅動的「探索」與「故事」新功能!
- Bridgetown Research 載著 AI 助力,成功募資 1900 萬美元加速盡職調查!
- Nomagic 獲得 4400 萬美元資金,AI 驅動的機器手臂技術將改變未來!
- 全方位理解 Anthropic 的 AI:揭開 Claude 的神祕面紗!
- 微軟刪除 AI 資料中心租賃,背後原因何在?
- Perfect 獲得 2300 萬美元資金,運用 AI 革新招聘流程!