新的欧盟内容审查法,数字服务法案包括对主要和即将到来的欧盟技术平台使用的数据和算法的年度审计要求。AI法案还允许当局测试AI系统。美国国家标准与技术协会也建议将人工智能测试作为黄金标准。在布鲁金斯学会(Brookings Institution)智库研究人工智能治理的亚历克斯·恩格勒(Alex Engler)表示,其想法是,这些审计应该像我们在其他高风险领域(如化工厂)看到的那种检查一样。

专门研究人工智能问责的研究员黛博拉·拉吉和她的同事从去年6月开始在一篇论文中写道。

这就是这些比赛想要培养的。人工智能社区希望他们能引导更多的工程师、研究人员和专业人士开发实施这些审计的技能和经验。

迄今为止,人工智能领域有限的审查大多来自学术界或科技公司本身。这样的比赛的目的是创造一个专门从事人工智能审计的专家的新领域。

“我们正试图为对这类工作感兴趣的人、想要开始工作的人或非工作专业人士创造第三个空间,”推特集团道德总监鲁曼·乔杜里(Rumman Chowdhury)说。在科技公司。机器学习中的透明度和问责制,Bias Buccaneers的领导者。她说,这些人可能包括想要学习一项新技能的黑客和数据科学家。

拜厄斯海盗赏金大赛的幕后团队希望这将是众多赏金大赛的第一个。

像这样的竞赛不仅为机器学习社区进行审计创造了动力,而且还增强了对“最好的审计方法以及我们应该投资于什么类型的审计”的普遍理解。Sara Hooker, Cohere的人工智能负责人,这是一家非营利性人工智能研究实验室。

蒙特利尔人工智能伦理研究所(Montreal Institute of AI Ethics)创始人阿比谢克?古普塔(Abhishek Gupta)曾担任斯坦福人工智能审计挑战的评委,他表示,这项努力“很棒,而且绝对有必要”。

古普塔说:“你观察的系统越多,我们就越有可能发现缺陷。”