#道德

6 篇文章

人類學研究者透過反覆提問削弱人工智慧道德的抵抗力
658

人類學研究者透過反覆提問削弱人工智慧道德的抵抗力

# 新的 AI 倫理挑戰:反覆提問消耗了人類學研究者對 AI 倫理的抵抗力## 挑戰 AI 倫理一直是科技界和學術界關注的焦點之一。然而 Anthropic 的研究人員最近發現,藉由反覆提問的方式,他們可以誘使大型語言模型(LLM)回答不當的問題,甚至引導其提供危險訊息。這種「多次提問式越獄」方法使得

應該禁止贖金支付嗎?
608

應該禁止贖金支付嗎?

應該禁止支付贖金嗎? 最近,隨著網路罪犯繼續從他們的攻擊中獲取財務收益,有關禁止支付贖金的討論越來越多。美國官員長期以來一直敦促不要支付贖金。儘管包括北卡羅來納州和佛羅裏達州在內的幾個美國州已經將地方政府實體支付贖金的行為定為非法,拜登政府最近決定不對贖金支付進行全國性禁令。禁止支付贖金確實有其困

本週 AI 新聞:我們能相信 DeepMind 是個道德的嗎?
883

本週 AI 新聞:我們能相信 DeepMind 是個道德的嗎?

This week in AI: Can we trust DeepMind to be ethical?作者:背景本週,DeepMind,Google 旗下的人工智慧研究實驗室,發布了一份關於評估人工智慧系統的社會和倫理風險的框架的論文。該論文呼籲人工智慧開發者、應用開發者和“更廣泛的公衆利益相關

Sarah Silverman 對抗 AI:道德數位領域爆笑戰線的新梗頭
590

Sarah Silverman 對抗 AI:道德數位領域爆笑戰線的新梗頭

對於 Gen AI 的問題,保護消費者隱私是首要考量問題的核心:資料的使用權和同意問題對於 Gen AI 所帶來的困惑,問題的核心在於資料的使用權和同意問題。許多資料已經被用於現有的模型中,這些資料使得模型的執行超乎之前的想像。而且每天仍然有大量的資料被新增進來。這是一個問題,因為消費者並沒有意識到

3 個方式協助企業以道德有效的方式開發生成式人工智慧模型
868

3 個方式協助企業以道德有效的方式開發生成式人工智慧模型

生成式人工智慧模型:發現問題並解決偏見的三個關鍵步驟引言最近,人工智慧(AI)在商業和科技領域引起了廣泛的關注。企業高層們紛紛投資並致力於發展 AI 技術,以提高產能和效能。然而在激烈的競爭中,許多 AI 模型都存在一個重要的問題:偏見。由於 AI 模型是由人類構建並由人類訓練的,完全消除偏見是不可

在醫療保健領域中,兩位創辦人如何致力於建立道德人工智慧新創公司
902

在醫療保健領域中,兩位創辦人如何致力於建立道德人工智慧新創公司

建立道德人工智慧新創公司在健康保健領域的兩種方法引言近來,人工智慧(AI)公司的快速發展令許多人感到擔憂。這是因為快速的發展可能導致無法解決的潛在道德問題。建立道德演算法需要時間。草率建立的模型更有可能存在根深蒂固的偏見,同時缺乏必要的防範機制,從而導致不必要的傷害。如果處理不當或不良於行,AI 模

«1»