即将离任的美国国防部首席数字和人工智能官员周五警告立法者,要使生成式人工智能系统安全用于军事行动,将需要大量工作来标准化输入数据和验证输出。

他在众议院军事委员会网络、信息技术和创新小组委员会作证时说:“我们一直在努力弄清楚,生成式人工智能何时何地会有用,何时何地会危险。”“危险在于……验证这个模型的输出需要非常高的认知负荷。”

马泰尔说,要防止如此庞大的语言模型犯错误,就需要验证它们的输出——也就是说,要控制幻觉和错误的反应。能够轻松验证给定模型的输出是否准确也是人工智能软件的一个关键特征,它将安全用于商业用途。

“幻觉还没有消失。幻觉很有可能会消失。有一些研究表明它永远不会消失,”他说。“但最重要的是,如果很难验证输出,那么我就会感到非常不舒服。”

根据Martell的说法,高质量的数据是负责任地、有效地利用生成法学硕士的关键第一步,他表示,数据标签和数据转换是帮助美国军队利用人工智能解决方案和进一步扩展机构运营技术的基础。这是马泰尔所说的“人工智能脚手架”的两个组成部分,这是一种更大的战略,可以有效地扩展人工智能用于国防用例。

“知道你想检测什么意味着人类必须给这些数据贴上标签。这非常困难,”他说。“进入你的问题的数据将以一千种不同的格式出现,将PDF, Word文档等转换为结构化数据的工作量相当大,这将占用人们的所有时间。”

即使在建立和训练了给定的人工智能模型之后,Martell表示,随着场景的变化,操作的人工智能解决方案也需要不断进行测试和再培训。这可能是他即将上任的继任者普拉姆(Radha Plumb)面临的最大挑战。

他说:“我希望在我在这里的两年里,我们在这方面取得了进一步的进展,但这将是我对普拉姆博士最大的负责:真正关注的是我们如何建立模型,并随着时间的推移衡量模型的价值。”