从预训练数据到语言模型再到下游任务:追踪导致不公平NLP模型的政治偏见的踪迹

研究着眼于大型语言模型(LMs)的预训练数据,探讨其在社交导向任务中的公平性问题。研究发现,预训练的LMs存在政治倾向,这会加剧预训练语料库中的极化现象,并将社交偏见传播到仇恨言论预测和媒体偏见检测中。研究讨论了这些发现对自然语言处理(NLP)研究的影响,并提出了减少...

用户分享观点: