研究人员开发出一种新的训练技术旨在减少人工智能系统的社会偏见

来源:
导读 俄勒冈州立大学的一名博士生和Adob​​e的研究人员为人工智能系统创建了一种新的、经济高效的训练技术,旨在减少人工智能系统的社会偏见。

俄勒冈州立大学的一名博士生和Adob​​e的研究人员为人工智能系统创建了一种新的、经济高效的训练技术,旨在减少人工智能系统的社会偏见。

俄勒冈州立大学工程学院的EricSlyman和Adob​​e研究人员将这种新方法称为FairDeDup,这是公平去重的缩写。去重意味着从用于训练AI系统的数据中删除冗余信息,从而降低训练的高计算成本。

研究人员表示,从互联网上收集的数据集通常包含社会中存在的偏见。当这些偏见被编入经过训练的人工智能模型中时,它们可能会助长不公平的思想和行为。

通过了解重复数据删除如何影响偏见的普遍性,可以减轻负面影响——例如,当人工智能系统被要求展示首席执行官、医生等的照片时,它会自动只提供白人男性的照片,而预期的用例是展示人们的多样化形象。

“我们将其命名为FairDeDup,是早期成本效益方法SemDeDup的文字游戏,我们通过纳入公平性考虑对其进行了改进,”Slyman说道。“虽然之前的研究表明,删除这些冗余数据可以用更少的资源实现准确的AI训练,但我们发现这一过程也会加剧AI经常学习到的有害社会偏见。”

斯莱曼上周在西雅图举行的IEEE/CVF计算机视觉和模式识别会议上介绍了FairDeDup算法。

FairDeDup的工作原理是通过一种称为修剪的过程来精简从网络收集的图像说明数据集。修剪是指选择代表整个数据集的数据子集,如果以内容感知的方式进行修剪,则可以做出明智的决定,确定哪些部分数据保留,哪些部分删除。

“FairDeDup删除了冗余数据,同时结合了可控的、人为定义的多样性维度来减轻偏见,”Slyman说道。“我们的方法使人工智能训练不仅具有成本效益和准确性,而且更加公平。”

除了职业、种族和性别之外,培训期间存在的其他偏见还可能包括与年龄、地理和文化相关的偏见。

“通过在数据集修剪过程中解决偏见问题,我们可以创建更加社会公正的人工智能系统,”Slyman说。“我们的工作并不是强迫人工智能遵循我们自己规定的公平观念,而是开辟一条途径,推动人工智能在部署的某些环境和用户群中公平行事。我们让人们定义什么是公平的,而不是由互联网或其他大型数据集来决定。”

与斯莱曼合作的还有俄勒冈州立大学工程学院助理教授斯蒂芬·李(StefanLee)以及Adob​​e的斯科特·科恩(ScottCohen)和库沙尔·卡夫勒(KushalKafle)。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!