根据最近的一项研究,研究人员发现了一种更好的方法,可以减少自然语言处理模型中的性别偏见,同时保留有关单词含义的重要信息,这可能是解决人类偏见潜入人工智能问题的关键一步。
虽然计算机本身是一台无偏见的机器,但通过计算机的大部分数据和程序都是由人类生成的。当有意识或无意识的人类偏见最终反映在人工智能模型用来分析和“理解”语言的文本样本中时,这可能是一个问题。
该研究的第一作者、数学和统计科学系研究生雷丁解释说,计算机不能立即理解文本。他们需要将单词转换成一组数字来理解它们鈥攁 这个过程称为单词嵌入。
“自然语言处理基本上是教计算机理解文本和语言,”数学和统计科学系副教授北江说。
一旦研究人员采取了这一步骤,他们就能够在二维图形上将单词绘制为数字,并可视化单词之间的关系。这使他们能够更好地了解性别偏见的程度,然后确定偏见是否得到有效消除。
所有的意思,没有偏见
尽管其他减少或消除文本中性别偏见的尝试在某种程度上取得了成功,但这些方法的问题在于,性别偏见并不是从文本中消除的唯一东西。
蒋解释说:“在许多消除性别差异的方法中,当它们减少了词向量中的偏差时,它们也减少或消除了关于词的重要信息。”。这种类型的信息被称为语义信息,它提供了重要的上下文数据,在涉及这些词嵌入的未来任务中可能需要这些数据。
例如,当考虑像“护士”这样的词时,研究人员希望系统删除与该词相关的任何性别信息,同时仍保留与相关词(如医生、医院和医学)相关的信息。
“我们需要保留语义信息,”丁说。“如果没有它,嵌入将有非常糟糕的性能(在自然语言处理任务和系统中)。”
快速、准确鈥攁第二届博览会
在基于词嵌入评估的各种任务中,新方法也优于领先的去平衡方法。
随着它的完善,该方法可以提供一个灵活的框架,其他研究人员可以将其应用于自己的词嵌入。只要研究人员对正确使用的词组有指导,该方法就可以用来减少与任何特定组相关的偏见。
虽然在现阶段,该方法仍需要研究人员的投入,但丁解释说,未来可能会有某种内置系统或过滤器,可以在各种情况下自动消除性别偏见。
这一新方法发表在美国人工智能学会人工智能会议记录上,是一个更大项目的一部分,该项目名为“偏见:负责性别和种族劳动力市场平等的人工智能”,旨在解决现实世界的问题。
例如,阅读同一份招聘广告的人可能对描述中的特定词语做出不同的反应,这些词语通常具有性别关联。使用丁和他的合作者创建的方法的系统将能够标记可能会改变潜在求职者对工作的看法或由于性别偏见而决定申请的词语,并建议其他词语来减少这种偏见。
尽管许多人工智能模型和系统都专注于寻找以更高速度和准确性执行任务的方法,但丁指出,该团队的工作是一个不断发展的领域的一部分,该领域寻求在这些模型和系统的另一个重要方面取得进展。
“人们更加关注人工智能系统中的责任和公平。”