索尼研究称人工智能偏见测试掩盖了肤色的一个关键方面

 2024-01-01  阅读 8  评论 0

摘要:虽然人工智能行业一直致力于减少其算法对人们肤色明暗程度的偏见,但索尼的新研究呼吁也将红色和黄色肤色考虑在内。在上个月发表的一篇论文中,来自索尼AI的作者WilliamThong和AliceXian,以及来自东京大学的PrzemyslawJoniak,提出了一种更加“多维”的肤色测量方法,希望它能够带来更加多样化和多样化的肤色测量。具有代表性的人工智能系统。多年来,研究人员一

虽然人工智能行业一直致力于减少其算法对人们肤色明暗程度的偏见,但索尼的新研究呼吁也将红色和黄色肤色考虑在内。在上个月发表的一篇论文中,来自索尼AI的作者WilliamThong和AliceXian,以及来自东京大学的PrzemyslawJoniak,提出了一种更加“多维”的肤色测量方法,希望它能够带来更加多样化和多样化的肤色测量。具有代表性的人工智能系统。

多年来,研究人员一直在关注人工智能系统中的肤色偏差,包括JoyBuolamwini和TimnitGebru在2018年进行的一项重要研究发现,人工智能在用于深色皮肤女性时更容易出现错误。作为回应,各公司已加紧努力测试其系统在各种肤色下的准确度。

例如,谷歌去年推出了Monk肤色等级,该等级采用10级等级来测量从深色到浅色的各种肤色。另一种常用的衡量标准是菲茨帕特里克量表,它由六个类别组成,Meta表示在之前的研究中也使用过该量表。

根据索尼的研究,问题在于这两个等级主要关注肤色的明暗度。“如果只是以这种非常一维的方式评估产品,那么就会存在大量偏见无法被发现和消除,”索尼人工智能道德全球主管Alice向《连线》杂志表示。“我们希望我们在这里所做的工作能够帮助取代一些现有的肤色等级,这些等级实际上只关注浅色与深色。”在一篇博文中,索尼的研究人员特别指出,当前的量表没有考虑到对“东亚人、南亚人、西班牙裔人、中东人以及其他可能不完全符合从明到暗光谱的人”的偏见。

作为这种测量可能产生的影响的一个例子,索尼的研究发现,常见的图像数据集过多地代表了肤色较浅和较红的人,而低估了肤色较深、较黄的人。这可能会降低人工智能系统的准确性。《连线》杂志指出,索尼发现Twitter的图像裁剪器和另外两种图像生成算法更喜欢偏红的皮肤,而其他人工智能系统会错误地将偏红皮肤的人归类为“笑脸更大”。

索尼提出的解决方案是采用基于现有CIELAB颜色标准的自动化方法,这也将避免使用Monk等级的手动分类方法。

尽管索尼的方法更加多元化,但蒙克肤色等级(以创始人埃利斯·蒙克的名字命名)的部分要点在于它的简单性。该系统有意将肤色限制为10种,以提供多样性,而不会冒因拥有更多类别而导致不一致的风险。Monk说:“通常,如果你在这些类型的量表上得分超过10或12分,[并且]要求同一个人重复选择相同的音调,那么你的量表增加得越多,能够做到这一点的人就越少。”在去年的一次采访中。“从认知角度来说,准确可靠地区分变得非常困难。”

蒙克还反驳了他的音阶没有考虑低音和色调的观点,“研究致力于决定在音阶上优先考虑哪些低音以及在哪些点上,”他告诉《连线》杂志。

尽管如此,《连线》报道称,一些主要的人工智能公司对索尼的研究表示欢迎,谷歌和亚马逊都表示他们正在审查该论文。

免责声明:本文由用户上传,如有侵权请联系删除!

版权声明:本站所有资料均为网友推荐收集整理而来,仅供学习和研究交流使用。

原文链接:https://www.sast-sy.com/eab24AT0CBgJVWwAE.html

发表评论:

管理员

  • 内容1434378
  • 积分0
  • 金币0

Copyright © 2022 四叶百科网 Inc. 保留所有权利。 Powered by ZFCMS 1.1.2

页面耗时0.0766秒, 内存占用1.72 MB, 访问数据库18次

粤ICP备21035477号