市場觀察

AI「滲透衆包工作」令人擔憂

應對人工智慧滲透衆包工作的擔憂背景近日瑞士洛桑聯邦理工學院(EPFL)的研究人員發表了一篇論文,指出亞馬遜的機械土耳其(Mechanical Turk)服務上約有 33%到 46%的分散式群體工作者在執行任務時“作弊”,使用了像是 ChatGPT 這樣的工具來完成工作。如果這種行為廣泛存在,這可能會 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI「滲透衆包工作」令人擔憂

應對人工智慧滲透衆包工作擔憂

背景

近日瑞士洛桑聯邦理工學院(EPFL)的研究人員發表了一篇論文,指出亞馬遜的機械土耳其(Mechanical Turk)服務上約有 33%到 46%的分散式群體工作者在執行任務時“作弊”,使用了像是 ChatGPT 這樣的工具來完成工作。如果這種行為廣泛存在,這可能會成為一個相當嚴重的問題。機械土耳其一直以來都是對於想要透過人類完成工作的開發者而言的樂土,它作為一個應用程式程式設計介面(API),將任務分配給人類進行執行,並返回結果。這些任務通常都是那些你希望計算機能夠更擅長的型別。根據亞馬遜的說法,這些任務的例子可能包括“為計算機視覺模型繪製邊界框,構建高質量資料集。在這種任務中,對於純機械解決方案可能存在太多的模糊性,而對於即使是大型專業團隊來說也太廣泛。”然而機械土耳其的問題比聽起來還要嚴重:如今人工智慧的價格已經便宜到相對於機器生成的解決方案,產品經理選擇使用機械土耳其時,他們正是在依賴人類在某些方面比機器更優秀。使這一資料池變得污染可能會帶來嚴重的後果。“區分大型語言模型(LLMs)生成的文字與人類生成的文字對於機器學習模型和人類來說都很困難,”研究人員表示。因此研究人員建立了一種取證文字是由人類還是機器建立的方法。該測試要求群體工作者將《新英格蘭醫學雜誌》的研究摘要縮寫成 100 字的摘要。值得注意的是,這正是 ChatGPT 等生成式人工智慧技術擅長的任務。

問題的嚴重性

這項研究揭示了一個嚴重的問題,即 AI 工具滲透衆包工作中可能是普遍存在的。機械土耳其是一個重要的衆包平臺,對於需要高質量且準確完成的任務至關重要。然而當人們使用 AI 工具作弊時,這些任務的質量可能會受到影響。這種作弊行為不僅損害了衆包的聲譽,也可能對相關產業產生負面影響。尤其是對那些依賴人工完成任務且依賴於衆包的公司和組織而言,這種作弊行為可能會給他們的業務和資料應用帶來不可估量的損失。

倫理觀點

這項研究還引發了一些關於倫理和道德的問題。隨著 AI 技術的不斷發展和普及,我們必須探討 AI 的使用是否符合道德標準。對於那些選擇使用 AI 工具作弊的人來說他們違反了原本設計衆包系統的初衷,並妨礙了合法和誠實的工作。另一方面,對於那些設計 AI 工具以模擬人類能力的人來說他們可能需要思考如何提供更好的技術監測和防範措施,以避免這種滲透和作弊行為。

建議

針對這個問題,我們可以提出一些建議以應對人工智慧滲透衆包工作擔憂
  1. 強化技術監測:衆包平臺應該投資開發更強大的技術來檢測和防止人工智慧工具的滲透,以確保任務的準確性和可靠性。
  2. 加固教育和宣傳:衆包平臺和相關組織應該加固對於倫理和道德問題的教育和宣傳,提高使用者對於正確使用衆包平臺和 AI 工具的意識。
  3. 建立信任機制:衆包平臺可以建立信任機制,例如評價系統和工作證書,以確保工作者的誠實和質量。
  4. 加固法律監管:政府和法律機構應該加固對於衆包平臺和人工智慧工具的監管,制定相應的法律和規章,以保障公平交易和避免不當行為。

結論

人工智慧滲透衆包工作中的問題需要引起我們的關注。在這個快速發展的 AI 時代,我們應該與時俱進,思考如何應對這些新興問題,並制定相應的策略和措施。只有透過共同努力,我們才能確保衆包工作的可靠性和價值,並建立一個公正、誠實和透明的工作環境。
Unsplash gallery keyword: Technology-人工智慧,滲透,衆包,工作,擔憂
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。