法院裁定臉書的廣告演算法存在偏見
根據加州一家上訴法院的判決,臉書可能因其廣告演算法遭到指控存在偏見而面臨訴訟。該上訴法院裁定,第 230 條並不阻止起訴臉書,指控其擁有一個具有歧視性的廣告演算法。這個判決源於 2020 年對臉書提起的一項集體訴訟,該訴訟指控該公司違反民權法,對女性和年長者不顯示保險廣告。該案件以 48 歲的薩曼莎·利亞普斯為核心,她曾在臉書上尋找保險服務供應商。訴訟指稱,由於她的年齡和性別,臉書的廣告投送系統未向利亞普斯展示保險廣告。
法院的裁決與第 230 條的關係
在 9 月 21 日的判決中,上訴法院推翻了之前的一項決定,該決定認為第 230 條(該條保護線上平臺免於法律責任,如果使用者發布違法內容)使得臉書免於責任。上訴法院的裁決是,該案件「充分地」指控臉書「知道保險廣告商故意基於使用者的年齡和性別進行廣告定位」,這違反了不平等待遇民權法案。裁決還發現臉書的廣告平臺與 Roommates.com 存在顯著相似之處。Roommates.com 是一個服務,它透過包含下拉選單選項來進行歧視,從而超越了第 230 條的保護範圍。「臉書的廣告工具與 Roommates.com 的區別微乎其微」,法院得出結論。「臉書不僅僅是作為一個釋出和宣傳內容的出版商......而是透過這些工具創造、塑造或發展內容」。
臉書廣告演算法的持續爭議
多年來,臉書的廣告演算法一直受到關注。在 2018 年,一項聯邦訴訟指控該公司促成住房歧視,並有後續研究支援這些指控。臉書在 2022 年與美國政府和解,並在今年初推出了一個新的廣告分發系統,以解決住房歧視問題。
社會倫理與科技進步
這項法院判決引發了對於科技巨頭的廣告演算法和人工智慧背後的社會倫理問題的關注。無可否認,廣告演算法的使用使得廣告分發更精確,提高了廣告的效果。然而這種高度個人化的廣告系統也可能導致歧視性的結果,進一步加劇社會中的不平等現象。
科技應該成為推動社會公平和平等的力量,而不是加劇不公和歧視。廣告演算法應確保不歧視任何特定群體,並遵守各國的歧視待遇法律。這需要技術公司在開發和應用演算法時保持透明度和負責任。
建議和總結
以法院的裁決為契機,我們呼籲科技公司更加關注人工智慧系統的倫理問題,並採取積極的措施確保他們的系統不具有歧視性,不應顯示或過濾一些廣告以避免潛在的歧視行為。
同時立法者應該加固監管,確保科技公司遵守民權法和不歧視原則。這需要定期審查和監控廣告演算法的使用情況,並建立有效的檢測和追蹤機制,以確保廣告系統的公平性和透明度。
最後我們應該鼓勵公眾更加關注和理解廣告演算法的執行方式,並訴諸合法的渠道,當他們受到不公待遇時提出訴訟。僅僅依賴科技公司自我監管已經不足以解決這個問題,我們需要社會各界的共同努力,確保科技發展是公平和平等的。
延伸閱讀
- LockBit 的幕後主謀被起訴:我們從中學到了什麼?
- 抖音起訴美國政府 因應可能禁用該應用程式的新法律
- Meta 在歐盟調查 Facebook 和 Instagram 的背景下應對選舉安全
- Facebook CEO Mark Zuckerberg announced that Threads has attained 150 million monthly active users.
- 「Facebook 與 Instagram AI 生成的裸照遭調查」
- Facebook 旗下 Oculus 收購十周年
- Facebook 發布全新垂直影片播放器,挑戰 TikTok
- Facebook 竊聽醜聞再起:Meta 再度否認 Netflix 閱讀使用者私人訊息
- 科技巨頭聯手支援美國司法部起訴蘋果的宣告
- 社交巨頭大停擺!Facebook、Instagram 和 Threads 在超級星期二爆發大規模故障