首页 热点资讯文章正文

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

热点资讯 2025年10月06日 16:58 1 cc

从设计救命药物的蛋白质,到预测病毒结构加速疫苗研发,人工智能正在生命科学领域展现出前所未有的能力。

这把双刃剑的另一面同样锋利——2025年7月,预测研究所发布的最新研究显示,

随着大语言模型获得更强的生物学能力,人为引发的大规模流行病风险可能在未来数年内扩大五倍。

当AI能够帮助设计新药的同时,它是否也在降低制造生物武器的门槛?

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

AI生物能力正在快速提升

2025年4月,OpenAI发布的o3模型在生物学测试中的表现让很多人开始警觉。

在解决湿实验室问题方面,人类病毒学专家在针对其专业领域定制的问题子集上平均答对率为22.1%,但o3却实现了43.8%的准确率,胜过了94%的病毒学家。

这种能力提升速度远超很多人的预期。

华盛顿大学的David Baker实验室用AI设计出了自然界从未存在过的全新蛋白质。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

谷歌DeepMind的AlphaFold系列能够预测几乎所有已知蛋白质的三维结构,最新的AlphaProteo则可以设计与特定靶标结合的蛋白质。

这些技术在医药领域的应用前景广阔,但同样的技术也可能被用于其他目的。

2024年12月,约翰·霍普金斯大学和兰德公司的联合研究团队在Nature期刊上发表文章,警告AI可能带来大规模生物风险问题。

他们指出,从GPT-4利用Rosetta设计抗体,到AlphaFold成功预测蛋白质结构助力药物研发加速,AI在生物医学研究方面的作用愈发凸显,

这项技术也可能带来重大的生物安全和生物安保风险。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

门槛正在降低

以前,制造生物武器需要高度专业的知识和昂贵的实验室设备,这在一定程度上限制了扩散。

2023年,麻省理工学院的一项研究显示,AI系统可能帮助非专业人员设计生物武器。

这个发现当时引发了科学界的广泛关注。

到了2025年,这种担忧已经从理论变成了更加现实的威胁。

同一个能够设计救命药物的算法,理论上也能被用于设计致命的毒素。比如,AI可以帮助优化蓖麻毒素等已知毒素的结构,使其更加致命或更难检测。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

虽然蓖麻毒素可以从常见的蓖麻籽中提取,但AI设计的变体可能具备传统检测方法无法识别的特征。

理论上,足够先进的AI系统可能设计出具有特定传播特性或致病机制的病毒或细菌。

这些人工病原体可能绕过现有的疫苗和治疗手段。

2025年10月,硅谷部分研究者透露,他们认为AI有50%可能性在十年内威胁人类生存,

为此他们建造了生物避难所储备食物,甚至研发专业级空气过滤系统应对可能出现的AI生物武器威胁。

企业开始采取防范措施

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

面对这些风险,AI公司也在采取行动。

OpenAI在最新发布的o3和o4-mini模型中部署了一套全新的系统,专门监控与生物及化学威胁相关的输入提示。

根据OpenAI的安全报告,该系统旨在防止模型提供可能指导他人实施潜在有害攻击的建议。

OpenAI内部的基准测试显示,o3在回答有关制造特定类型生物威胁的问题上展现出更高技能。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

正因如此,OpenAI创建了这个被称为"安全聚焦推理监控器"的新系统。

美国商务部国家标准与技术研究院下属的美国人工智能安全研究所也在2024年与Anthropic和OpenAI达成协议,就AI安全研究、测试和评估方面进行正式合作。

这些措施能起到多大作用还很难说。

一方面,大型AI公司确实在努力防范风险;另一方面,AI技术的开源特性意味着,即使主流公司采取了防范措施,恶意行为者仍可能通过其他渠道获取相关能力。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

监管面临的困境

现有的监管框架明显跟不上技术发展的速度。

《生物武器公约》制定于1975年,远早于现代生物技术的兴起,更不用说AI的应用。

该公约禁止开发、生产和储存生物武器,但对于AI设计的生物制剂,特别是那些仅存在于数字形式的设计,如何监管仍存在法律空白。

传统的生物安全监管依赖于对物理实验室和材料的控制,AI生物设计主要在数字环境中进行。

如何识别和监控潜在的恶意AI生物研究,如何区分合法研究和武器开发,这些都是全新的挑战。

2025年1月,国际人工智能安全报告正式发布。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

该报告发起于2023年在英国举行的人工智能安全峰会,由英国人工智能安全研究所主导,包含中国在内的30个国家的学者和机构参加。

报告试图在全球范围内建立AI安全的共识,但具体的监管措施仍需要各国进一步落实。

不同国家对AI和生物技术的监管标准差异巨大,一些国家可能成为监管洼地,

技术的快速发展使得国际协调变得困难,当各国还在讨论监管框架时,技术可能已经发生了质的飞跃。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

科学界内部对于监管程度也存在分歧。

一些科学家认为,蛋白质设计的潜在好处远远超过了危险,过度监管可能阻碍医学进步。

也有专家警告说,在建立有效监管机制之前,某些高风险研究应该暂停或限制。

不只是生物武器的问题

AI生物技术的风险不仅限于武器制造。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

数字生物信息的安全也成为新的关注点,随着基因组数据的数字化和AI分析的普及,这些数据本身可能成为网络攻击的目标。

2025年5月,卡巴斯基披露,自2023年11月以来,攻击者持续针对Python包索引发起供应链攻击,

通过伪装成OpenAI的GPT-4 Turbo和Anthropic的Claude AI的相关项目,向代码仓库注入恶意软件包。

该木马已波及30余国1700余名开发者。

这虽然不是直接的生物武器威胁,但说明了AI技术被恶意利用的现实风险。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

供应链风险同样不容忽视。生物技术产业的全球化,也就是说,即使在严格监管的国家,恶意行为者也可能通过合法渠道获取必要的材料和设备。

DNA合成服务的普及使得将AI设计转化为实际生物制剂变得更加容易。

有专家指出,恶意行为者可能利用合成生物学技术,有针对性地编辑肠道菌群中影响免疫功能的微生物,通过空气、水或者食物传播,削弱人体免疫力。

一旦这样的做法被工程化改造,可能引发大规模的病毒感染风险。

药神还是灾星?AI能设计新药,也能造病毒,专家警告风险扩大五倍

总结

AI在生物科学领域的应用是一把双刃剑。它能帮助人类攻克疾病、延长寿命,同样的技术也可能被用于制造威胁。

目前看来,技术进步的速度远快于监管体系的建立,这确实值得担心,

担心不等于放弃,关键是在推动技术进步的同时,建立有效的防范机制,让AI的力量用在正确的方向上。

这需要科学界、企业、政府和国际社会的共同努力,时间窗口正在缩小,行动必须尽快跟上。

发表评论

vv号 网站地图 Copyright © 2013-2024 vv号. All Rights Reserved.