網路議題

觀點:理解 AI 的問題,看看它建立時所採取的捷徑

理解人工智慧問題,從捷徑著手引言在 19 世紀的計算機先驅艾達·拉夫莉斯(Ada Lovelace)的文章中,她提到機器“只能執行我們知道如何命令它執行的任務”。她的這句話是在描述第一個機械計算機的時候寫下的。然而現在的機器已經可以實現我們不知道如何命令它們完成的事情。例如,2016 年,一個名為 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

觀點:理解 AI 的問題,看看它建立時所採取的捷徑

理解人工智慧問題,從捷徑著手

引言

在 19 世紀的計算機先驅艾達·拉夫莉斯(Ada Lovelace)的文章中,她提到機器“只能執行我們知道如何命令它執行的任務”。她的這句話是在描述第一個機械計算機的時候寫下的。然而現在的機器已經可以實現我們不知道如何命令它們完成的事情。例如,2016 年,一個名為 AlphaGo 的程式成功擊敗了所有的創作者,並以無法解釋的方式完成這些成就。今天AI聊天機器人 ChatGPT 已經能夠用多種語言進行對話、解謎,甚至透過法律和醫學考試。這些新機器的成功和風險都來自於創造它們的特定方法。

機器學習的能力

機器可以透過學習經驗來進行智慧的行為,這也就是為什麼機器可以進行人類知識範圍之外的事情。比如 AlphaGo 就是透過比人類多學習更多的盤面來取得優勢。同樣地,沒有人能夠閱讀像 ChatGPT 一樣的多種語言。機器能夠實現人類無法完全理解的智慧,也意味著人們對人工智慧的表現是否可信和未來演變的不確保性產生了焦慮。人工智慧的智慧能力與人類能力並不完全相同,我們不能期望機器智慧會走向某種形式的意識。智慧是在陌生情況下做正確事情的能力,這在機器中也是可以發現的,例如那些會向使用者推薦新書的機器。

選擇捷徑的代價

人工智慧的發展面臨著諸多問題。當我們不能檢視機器內部執行時,又如何確保重要決定的公平性?當我們想阻止機器大量收集我們的個人資料時,又該如何讓它們持續執行呢?機器提供的是大量吸引使用者注意力的內容,而我們該如何期望它們阻止有害內容的繼續傳播呢?更重要的是,這些應用程式都佔據了我們數位基礎設施的中心地位,並且我們已經授權這些機器做出許多重要決定。例如,在社交媒體上,我們看到的內容編輯決定是由演算法而不是人類做出的。2022 年,英國豁免庭對 14 歲少女 Molly Russell 的悲劇死亡作出了裁決,將演算法列為推送有害內容的原因之一。而這些與人工智慧相關的問題正好來自建立它的捷徑

需要出臺適當法規掌握人工智慧

建立人工智慧的過程中,人們不斷地嘗試模仿人類思維的方法。例如,他們努力理解人類語言和人類的推理規則,希望將這些知識放入機器中。但是這些方法都沒有取得成功。於是他們開始其他途徑。第一個捷徑是使用基於資料統計的方法做出決策,以此來避免理解我們希望機器仿效的複雜現象,如語言。這意味著你的訊息應用程式中的自動完成功能可以猜測下一個單詞,而不必理解使用者的目標。第二個捷徑是機器可以直接從網路上蒐集資料來進行訓練。第三個捷徑是不斷觀察使用者的行為並從中推斷出它們可能會點選的東西,從而理解使用者的意圖。

現在這些捷徑成為所有網路翻譯、推薦和回答問題工具的基礎。儘管成功,在這種方法中卻存在著極大的問題。當我們不能檢視機器內部執行時,又如何確保重要決定的公平性?當我們想阻止機器大量收集我們的個人資料時,又該如何讓它們持續執行呢?更重要的是,機器提供的是大量吸引使用者注意力的內容,而我們該如何期望它們阻止有害內容的繼續傳播呢?更為重要的是,這些應用程式都佔據了我們數位基礎設施的中心地位,並且我們已經授權這些機器做出許多重要決定。

這也就是為什麼義大利隱私權保護機構對 ChatGPT 採取了約束措施。該機構指出該聊天機器人在未經法律授權的情況下從網路上蒐集了大量個人資料,並且所提供的訊息內容存在錯誤。這些問題可能對整個方法都構成了嚴重挑戰,而當代解決方案可能只涉及增加法律宣告、改變條款和條件等方式。對於嚴肅的問題,我們需要出臺適當法規並找到有效解決方案。未來,AI的發展需要醫學、哲學、法律等多方面學者的參與,來審視我們實際上已經建立的東西以及為什麼要建立它。這樣才能夠讓法律制度、文化和科技相匹配。

AI Shortcuts-AI,捷徑,問題,理解
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。