一家智库警告称,世界可能面临有史以来“最致命”的流行病——由人工智能(AI)制造。

在一群学者研究了包括“生物恐怖分子”在内的恶意行为者如何劫持当前的人工智能系统,并造成灾难性后果之后,这一令人不寒而栗的前景得以曝光。

卡内基梅隆大学(Carnegie Mellon University)学者、该研究的作者之一Andy Zou告诉《每日快报》(Express.co.uk),目前“尚不清楚如何解决这一威胁”。

总部位于旧金山的智库人工智能安全中心(CAS)警告称,公开的人工智能聊天机器人已经有可能为合成致命病原体提供分步指导。

人工智能专家还表示,随着人工智能开始能够在现实世界中采取行动,恐怖分子或流氓国家未来可能会制造新的病毒。

为纪念戴安娜王妃逝世纪念日,人工智能拍摄了一张62岁的照片

邹警告称:“目前正在部署这类系统,人们在没有进行全面安全评估的情况下就匆忙进行部署。”

中科院在其网站上表示:“有了人工智能,能够开发生物制剂的人数将会增加,从而增加了爆发工程化大流行的风险。”

“这可能比历史上任何其他大流行都更致命、更具传染性、更耐药。”

去年,一项研究显示,用于医学研究的人工智能软件如何被劫持来生产有毒分子,在几个小时内产生4万种潜在的化学战剂。

不要错过……美国宇航局:数百次UFO目击事件,但没有证据表明外星生命存在。机器人不是来抢你的工作的——今年的人工智能狂潮都是炒作[评论]NHS面临恐怖分子使用“终极武器”进行“灾难性”袭击的风险[INSIGHT]

然而,“生物恐怖主义”的威胁也可能来自ChatGPT等常见的人工智能程序。

当用户向ChatGPT提出问题或提示时,它会根据处理过的大量互联网数据,尝试提供一个独特的结果。

人工智能安全中心的王子凡和邹市明在接受《快报》采访时解释说,像ChatGPT这样的程序可能会打开一个充满邪恶信息的世界。

王先生解释说,尽管ChatGPT有“护栏”——几行代码用来检测并阻止看似恶意的提示——但它们可以被绕过。

    • 价值1万亿美元的“对人类文明最重要的公司”即将崩溃

    他说,研究发现,如果你在提示中添加特定的“胡言乱语”文本行——被称为“对抗性后缀”——它可能会破解人工智能。从某种意义上说,这意味着混淆程序以返回邪恶的答案。

    邹先生表示,学术界并不确定人工智能程序为什么会这样做,并表示它们以人类无法理解的方式解释信息。

    作为研究的一部分,他们开发了一个自动程序,可以大规模地测试不同的“对抗性后缀”。

    他说,与能够“在现实世界中采取行动”的“更自主的代理”所带来的“更长期的风险”相比,基于文本的人工智能的威胁“还不是很大”。

    他补充说:“发表这类研究的目的是为那些部署这些系统的公司、政策制定者和公众敲响警钟,我们应该更认真地对待安全问题,尤其是在为时已晚之前。”

    当被问及流氓国家是否会利用这类越狱来推进其地缘政治目标时,学者们警告称,他们将拥有自己的国家资助的人工智能项目,这些项目“不需要被越狱”。