图丨Pexels
据AXIOS网站6月16日消息,生物攻击一直被认为是政府的权限,但现在面临着流氓的个人和组织获得这种能力的可能性。以前,将病原体转化为恐怖袭击需要许多博士才能完成,然而,最近的基因工程进展与人工智能相结合,已经大大减少了设计灾难所需的技能、资金和时间。
不过,人工智能也可以帮助生物防御。Axios采访的生物技术研究人员表示,在2025年左右可能会从头开始创造病毒的抗体,以削弱流氓行为者可能造成的死亡和伤害。
麻省理工学院的研究人员要求本科生测试聊天机器人是否“可以通过被提示协助非专家造成大流行”,并发现聊天机器人在一小时内提出了四个潜在的大流行病原体。聊天机器人帮助学生确定哪些病原体可以造成最大的损害,甚至提供了专家们不常知道的信息。学生们得到了可能协助进行DNA合成的公司名单,以及关于如何欺骗他们提供服务的建议。
生物战可以追溯到几个世纪前,但生成式人工智能改变了发展动态。人工智能可能在以前的“生物灾难X”场景中发挥作用。但在生成式人工智能出现之前,它被认为是快速疫苗或24/7全天候监测的促成者,而不是灾难的加速器。
生产传染性病毒的分步组装协议现在已广泛使用。虽然这种信息还不能用于具有大流行能力的病毒,但潜在的病毒制造者仍然可以求助于商业化的聊天机器人获得指导步骤。开源大型语言模型的传播也意味着该技术可以在没有监督的情况下被使用。
下一个层次的危险来自于旨在推进生物技术的人工智能系统的潜在滥用。在这种环境下,开放的数据系统(比如来自谷歌DeepMind的Alphafold),可以预测蛋白质的三维结构,可能成为一个漏洞。
在屏幕上识别或设计一种合成病毒,与在实验室里设计它然后成功发布它是不一样的。
一些专家认为,人工智能辅助的生物恐怖的风险比核武器的风险更大。麻省理工学院的Kevin Esvelt写道:“即使是相对温和的大流行性病毒也能比任何核装置杀死更多的人。”而且,现在获取生物攻击所需的材料比获取核武器要容易得多,因为获取核材料受到严格管制。
然而,许多生命科学领域的领导者认为,人工智能威胁分散了人们的注意力,使得无法解决COVID期间大流行病处理过程中出现的问题,从医疗保健服务的不均衡到全球疫苗分配的失败以及政策和数据的政治化。
Esvelt告诉Axios说:“在任何地方合成的大流行病病毒都会到处传播。”Esvelt表示,他反对分享新病毒的完整基因组序列,以避免将“蓝图交给流氓国家、极端分子和狂热分子”,并希望看到仿照《禁止核试验条约》制定的大流行病禁止试验条约。
麻省理工学院的研究人员建议“由第三方对LLM进行发布前的评估,策划培训数据集以消除有害的概念,并可核查地筛选由合成供应商产生的或由合同研究组织使用的所有DNA。”
前谷歌首席执行官Eric Schmid称人工智能在生物学中的滥用是“一个非常近期的问题”。
一个欧盟智囊团网络建议对“双重用途的生命科学技术”(那些既可用于帮助人也可用于伤害人的技术)进行出口控制。
而另一方面,生物技术研究人员也在使用人工智能来预防大流行病。人类免疫组计划正在开发人类免疫系统的模拟,希望通过在疫情暴发的几周内开发疫苗,“在大流行病蔓延之前预防它们”。
资料来源丨AXIOS
评论列表 (0条)