返回顶部
返回首页
返回首页
今天是    | 政策法规 | 行业应用 |
home 您现在的位置: 首页 >配件与设备 > 详细信息
人工智能研究人员改进了消除机器中性别偏见的方法,这些机器用于理解和响应文本或语音数据
2022年09月11日    阅读量:250     新闻来源:深圳资讯网    |  投稿

根据最近的一项研究,研究人员发现了一种更好的方法,可以减少自然语言处理模型中的性别偏见,同时保留有关单词含义的重要信息,这可能是解决人类偏见潜入人工智能问题的关键一步。

虽然计算机本身是一台无偏见的机器,但通过计算机的大部分数据和程序都是由人类生成的。当有意识或无意识的人类偏见最终反映在人工智能模型用来分析和“理解”语言的文本样本中时,这可能是一个问题。

该研究的第一作者、数学和统计科学系研究生雷丁解释说,计算机不能立即理解文本。他们需要将单词转换成一组数字来理解它们鈥攁 这个过程称为单词嵌入。

“自然语言处理基本上是教计算机理解文本和语言,”数学和统计科学系副教授北江说。

一旦研究人员采取了这一步骤,他们就能够在二维图形上将单词绘制为数字,并可视化单词之间的关系。这使他们能够更好地了解性别偏见的程度,然后确定偏见是否得到有效消除。

所有的意思,没有偏见

尽管其他减少或消除文本中性别偏见的尝试在某种程度上取得了成功,但这些方法的问题在于,性别偏见并不是从文本中消除的唯一东西。

蒋解释说:“在许多消除性别差异的方法中,当它们减少了词向量中的偏差时,它们也减少或消除了关于词的重要信息。”。这种类型的信息被称为语义信息,它提供了重要的上下文数据,在涉及这些词嵌入的未来任务中可能需要这些数据。

例如,当考虑像“护士”这样的词时,研究人员希望系统删除与该词相关的任何性别信息,同时仍保留与相关词(如医生、医院和医学)相关的信息。

“我们需要保留语义信息,”丁说。“如果没有它,嵌入将有非常糟糕的性能(在自然语言处理任务和系统中)。”

快速、准确鈥攁第二届博览会

在基于词嵌入评估的各种任务中,新方法也优于领先的去平衡方法。

随着它的完善,该方法可以提供一个灵活的框架,其他研究人员可以将其应用于自己的词嵌入。只要研究人员对正确使用的词组有指导,该方法就可以用来减少与任何特定组相关的偏见。

虽然在现阶段,该方法仍需要研究人员的投入,但丁解释说,未来可能会有某种内置系统或过滤器,可以在各种情况下自动消除性别偏见。

这一新方法发表在美国人工智能学会人工智能会议记录上,是一个更大项目的一部分,该项目名为“偏见:负责性别和种族劳动力市场平等的人工智能”,旨在解决现实世界的问题。

例如,阅读同一份招聘广告的人可能对描述中的特定词语做出不同的反应,这些词语通常具有性别关联。使用丁和他的合作者创建的方法的系统将能够标记可能会改变潜在求职者对工作的看法或由于性别偏见而决定申请的词语,并建议其他词语来减少这种偏见。

尽管许多人工智能模型和系统都专注于寻找以更高速度和准确性执行任务的方法,但丁指出,该团队的工作是一个不断发展的领域的一部分,该领域寻求在这些模型和系统的另一个重要方面取得进展。

“人们更加关注人工智能系统中的责任和公平。”

标签:行业资讯汽车及配件工程机械新能源汽车 配件与设备 医用机器人
免责声明: 本文仅代表作者本人观点,与本网无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:service@cnso360.com | 客服QQ:23341571

全站地图

深圳网络警察报警平台 深圳网络警
察报警平台

公共信息安全网络监察 公共信息安
全网络监察

经营性网站备案信息 经营性网站
备案信息

中国互联网举报中心 中国互联网
举报中心

中国文明网传播文明 中国文明网
传播文明

深圳市市场监督管理局企业主体身份公示 工商网监
电子标识