索尼发布新AI基准数据集 助力计算机视觉模型削减成见

时间: 2025-11-10 08:10:00 |   作者: 照明非球面


  • 产品介绍

  针对当时人工智能视觉模型都会存在的成见问题,索尼AI团队近来发布了名为“Fair Human-Centric Image Benchmark(FHIBE)”的全新数据集,旨在推进公正性测验和道德数据搜集的规范化。

  该数据集的一切图画均通过自己赞同搜集,掩盖全球81个国家和地区,共包含10318张图片和1981个独立受试者,每张图片都配有具体标示,包含边框框定、切割蒙版以及相机参数等专业信息,便于开发者对模型进行详尽评价。

  索尼AI全球AI管理负责人Alice Xiang标明,计算机视觉范畴的一个误区是以为模型因为依托数据和算法能够客观地反映实践,而事实上模型练习过程中的数据成见会直接影响实践体现。例如,在我国,部分手机面部辨认系统曾因练习数据中亚洲人脸占比缺乏,导致共同生活的亲属意外解锁设备并完结付出,然后引发安全危险危险。此外,现有视觉模型还曾出现将女人医师过错分类为护理,或无意中强化工作与种族、性别刻板形象等问题。

  此前,大都用于评价公正性的计算机视觉数据集均未征得被拍照者赞同,乃至直接从网络站点渠道爬取图画,这引发了许多版权及隐私争议。比照之下,FHIBE的一切数据搜集均有充沛的赞同和补偿流程揭露记载,被以为为工作树立了新的道德规范。

  索尼AI团队根据FHIBE测验发现,部分模型因发型多样性而在处理指定性别代词(如“She/Her/Hers”)时准确率下降,模型也可能在工作辨认使命中对某些族群不合理地相关犯罪活动。团队着重,FHIBE能够协助开发者及时有效地发现和纠正这些误差,推进工作在数据搜集环节愈加注重道德和公正,鼓励研制人员投入更多资源完善数据层立异。

  现在,虽然美国联邦层面没有出台专门支撑AI道德和公正的方针,但包含欧盟AI法案以及美国部分州份相关法规,已开端要求在高危险范畴对算法成见进行审阅。索尼集团已经在AI道德评价流程中采用了FHIBE数据集,并遵从AI道德规范自动检查事务模型的公正性。

  Alice Xiang以为,“数据虚无主义”在工作中日益盛行,而FHIBE的实践则标明,AI技能可彻底依托取得赞同及补偿的数据来进行开发。虽然当时FHIBE规划尚小,缺乏以支撑大数据练习,但其含义在于为工作供给办法演示,并引发对数据层立异的更多重视,这仍是当时AI范畴亟待解决的重要课题。



上一篇:中科院自动化地点世界计算机视觉算法比赛中获优异成果