AI 滲透群眾外包工作令人擔憂
背景
最近,瑞士洲際大學(EPFL)的研究人員發表了一份新的論文,指出亞馬遜的機械土耳其(Mechanical Turk)服務中,33%至 46%的分散式群眾工作者似乎在執行特定任務時“作弊”,因為他們使用像 ChatGPT 這樣的工具來完成一部分工作。如果這種做法普遍存在,這可能會是一個相當嚴重的問題。 機械土耳其一直是一個庇護所,讓受挫的開發者可以透過人類完成工作。簡而言之,它是一個應用程式程式設計介面(API),向人類提供任務,人類完成後返回結果。這些任務通常是你希望計算機更擅長的型別。根據亞馬遜的說法,這些任務的一個例子是:“為計算機視覺模型繪製邊界框,以建立高質量的資料集,這個任務對於純機械解決方案來說可能太模糊,即使是大型專家團隊也不足夠。”資料科學家根據資料集的源頭(人工生成還是大型語言模型(LLM))來對待資料集。然而機械土耳其的問題比聽起來更嚴重:現在 AI 足夠便宜,使得那些選擇使用人工勞動力而不是機器生成解決方案的產品經理們,寄望於人類在某些方面比機器更優秀。破壞這個基礎資料可能會產生嚴重後果。研究人員表示:“對於機器學習模型和人類來說區分 LLM 和人工生成的文字是很困難的。”研究方法
為了弄清楚文字內容是由人還是機器生成的,研究人員提出了一種方法。測試方法是要求群眾外包工作者將《新英格蘭醫學雜誌》的研究摘要縮短為 100 字的摘要。值得注意的是,這正是 ChatGPT 等生成式 AI 技術擅長的任務型別。擔憂點
群眾外包是依賴人工勞動力的一個重要環節,因此如果讓 AI 技術滲透並影響這一過程,我們應該非常擔心。首先這種篡改資料的行為背離了外包工作的本質。當使用人工外包服務時,我們期望得到精確和可靠的結果,這樣我們才能正確地進行分析和決策。如果將機器代替人類來執行任務,群眾外包的價值將會大大降低。 其次如果 AI 在群眾外包工作中滲透並作弊,它可能會沖淡真正有價值的資料,這對於依賴這些資料進行決策的人們來說是相當危險的。尤其是在關乎醫療領域和其他對準確性要求高的行業中,精確且可靠的資料是至關重要的。如果我們無法信任群眾外包工作者提供的資料,我們的決策和分析將受到嚴重損害。建議
為理解決這個問題,我們需要採取一些措施。首先我們需要加固對群眾外包工作者的監督和審查機制。透過檢查工作報告和結果,檢測可能的作弊行為,我們可以減少滲透和篡改資料的風險。此外僱主應該提供一個鼓勵誠實和有品質工作的環境,並提供適當的獎勵制度來激勵群眾外包工作者遵守道德和準則。 另外技術的進步也可以幫助我們解決這個問題。繼續發展和改進 AI 技術,可以使機器更好地模擬人類行為和產生真實的結果。這樣一來,能夠從機器生成的內容和人工生成的內容中區分出來的技術也會更加成熟,從而提高整個群眾外包系統的可靠性和價值。社論與建議
在 AI 技術的快速發展和應用的時代,我們必須密切關注其在各個領域中的影響。群眾外包是一個重要的經濟活動和決策支援工具,因此需要特別保護和管理。避免 AI 滲透和作弊對於確保群眾外包工作的價值和信任至關重要。我們應該鼓勵相關的研究和技術發展,以解決這個問題,同時加固監督和措施,以減少作弊行為的風險。只有這樣,我們才能確保群眾外包工作的可靠性和價值,並為我們提供更準確的資料和意見來支援我們的決策和分析。AI 技術的發展和應用越來越廣泛,許多行業都開始採用 AI,包括群眾外包工作。-AI,群眾外包,滲透,擔心
延伸閱讀
- 照片分享社群 EyeEm 將許可使用者的照片以訓練 AI,如果使用者不刪除照片
- 英偉達收購 AI 工作負載管理新創公司 Run:ai
- 英國調查亞馬遜和微軟與 Mistral、Anthropic 和 Inflection 的 AI 合作關係
- 這款相機以 AI 詩詞交換照片
- Webflow 併購 Intellimize,加入 AI 動力頁面個性化
- 頭條新聞:頂級公司專頁功能即將上線,搭載 AI 及行銷工具助您擴充套件觀眾量
- Amazon Music 跟隨 Spotify 推出自己的 AI 播放清單生成器 Maestro
- 「Facebook 與 Instagram AI 生成的裸照遭調查」
- 新聞標題:Meta 在 Instagram 測試 AI 動力搜尋欄
- Google 計劃透過兩款新的 10 美元 Workspace 附加元件來實現 AI 的盈利化