在精彩的全球峰会、Openai的董事会闹剧和传闻中的技术突破之间,世界最近一直在密切关注人工智能研究的前沿。但上个月,美国白宫管理和预算办公室(OMB)发布了一份关于在政府中使用更普通的人工智能系统的备忘录,至少在短期内,这可能会产生同样重要的影响。

从追踪无证移民的用途,到警察部门用来监控人口和分配资源的预测算法,人工智能现在是美国政府削减成本的常用工具——但代价是让社会上最脆弱的群体在没有正当程序的情况下受到武断的统治,并带来可预见的歧视性结果。多年来,研究人员、记者和活动人士一直在呼吁关注这一问题。这一呼吁终于得到了回应。

OMB是美国总统行政办公室中最大的部门。虽然很少讨论,但它非常强大。它监督其他政府机构,确保它们的行动与总统的计划保持一致。上个月,行政管理和预算办公室主任沙兰达?杨(Shalanda Young)发布了一份备忘录,可能会彻底改变美国政府对人工智能的使用。

拟议中的政策——目前仍处于草案阶段,可能会被淡化——将要求每个部门任命一名首席人工智能官,并让他们提供现有人工智能用例的登记册。这本身就是透明度的重大胜利。但除此之外,该官员还必须识别可能影响人们安全或权利的系统,这些系统受到进一步有意义的限制。

新的要求是权衡人工智能系统对权利和安全的风险,以及它们所声称的好处。各机构还必须核实它们使用的数据的质量,并在系统部署后更密切地监测它们。至关重要的是,那些受人工智能系统影响的人将获得关于人工智能如何使用的简单语言解释,以及对人工智能决策提出质疑的机会。

Members of the European parliament take part in a voting session as they co<em></em>nsider the EU’s Artificial Intelligence Act, Strasbourg, France, 14 June 2024.

这些似乎都是显而易见的步骤,但它们目前并没有被采取,其结果是对社会中最弱势群体的伤害更大。

该政策还将迫使各部门积极确保人工智能系统在部署方式上促进公平、尊严和公平,呼吁人们关注模型中固有的不公正偏见,以及模型经常训练时使用的不具代表性的数据。政府部门在部署此类系统之前也必须征求受影响群体的意见,并提供供人类考虑和补救的选择,允许人们对对他们有不利影响的决定提出异议,而不是受制于卡夫卡式的“算法盲点”。

令人印象深刻的是,这份备忘录甚至谈到了政府采购人工智能这个非常不引人注目但很重要的问题。人工智能的许多社会问题始于缺乏经验的政府机构采用他们不充分了解的新软件,这些软件被供应商过度推销,最终以最严重影响最糟糕的方式失败。描述和要求人工智能系统采购的最佳实践是政府部门目前可以做的最重要的事情之一。

行政管理和预算办公室的备忘录是一个研究和公民社会主导的政策制定的案例研究。目前监管前沿人工智能模型(可以执行广泛的任务,包括语言和图像处理)的尝试,尤其是在欧盟,可以从这里学到一些东西。2024年初,欧盟议会对ChatGPT的受欢迎程度感到惊讶,试图将前沿人工智能系统的监管捆绑到其(已经存在缺陷的)人工智能法案中。在目前正在进行的三方谈判中——议会、欧盟委员会和欧洲理事会试图调和他们对该法案的不同提议——法国和德国最近推迟了谈判,因为他们意识到这些提议可能对他们快速崛起的国内人工智能公司(分别是Mistral和Aleph Alpha)产生影响。

这种混乱是可以预见的。GPT-4是最强大的前沿人工智能模型,当第一个监管建议被提出时,它刚刚发布。监管一个研究突破频繁的领域是很困难的。部署这些系统的生态系统也在快速变化;人工智能公司是否会像平台一样运作,倾向于垄断或双头垄断?或者前沿人工智能模型是否会有一个强大的竞争市场?我们还不知道。公共利益研究没有时间提供平衡的政策建议,也没有时间进行有充分基础的、强有力的公民社会辩论。

监管前沿系统的一些想法是不需要动脑的——欧盟和其他国家应该明确要求领先的人工智能实验室提高透明度,尤其是在下一代人工智能系统揭示的任何危险能力方面。但除此之外,最明智的做法可能是不要操之过急,而是促进公民社会的辩论和深入研究,为更成熟的政策奠定基础,比如OMB的备忘录。

  • Seth Lazar是澳大利亚国立大学哲学教授,也是牛津人工智能伦理研究所的杰出研究员