#政治偏見

1 篇文章

評估語言模型中的政治偏見
1605

評估語言模型中的政治偏見

研究顯示語言模型存在政治偏見最新研究顯示 ChatGPT 和其他生成式人工智慧背後的語言模型存在政治偏見,並且可能與大眾的意見不一致。這些模型是基於從全球的書庫、網站和社交媒體上蒐集、新聞報導和演講文稿上提取的書面文字訓練出來的。現在斯坦福大學的新研究正好量化了這些模型在與美國不同族群意見匹配方面表

«1»