《2026年国际AI安全报告》揭示快速变化与新兴风险

财商 2026-02-04 20:26:00 来源:Office of the Chair of the International AI Safety Report

摘要:蒙特利尔2026年2月4日 美通社 --
《2026年国际AI安全报告》今日发布,为通用型AI能力、新兴风险以及风险管理与安全防护的现状提供了最新的、国际共享的科学评估。

由图灵奖得主Yoshua
Bengio主持编纂的本次《国际...

蒙特利尔2026年2月4日 美通社 -- 《2026年国际AI安全报告》今日发布,为通用型AI能力、新兴风险以及风险管理与安全防护的现状提供了最新的、国际共享的科学评估。

由图灵奖得主Yoshua Bengio主持编纂的本次《国际AI安全报告》(第二版)汇集了100多位国际专家,并得到专家咨询委员会的支持。该委员会成员来自30多个国家及国际组织,包括欧盟、经合组织及联合国。 报告的研究结论将为本月晚些时候由印度主办的AI Impact Summit相关讨论提供参考。

报告的主要亮点包括:

  • 通用型AI能力持续快速提升,尤其在数学、编程和自主运行方面表现突出。2025年,领先的AI系统在国际数学奥林匹克题目中取得“金牌级”表现,在科学基准测试中超过博士级专家水平,并能够自主完成一些本需人类程序员耗费数小时的软件工程任务。 尽管如此,整体表现仍显“参差不齐”,在某些看似简单的任务上仍会出现失败。
  • AI的普及速度迅猛,但全球分布不均。 AI的普及速度已超过个人电脑等以往技术,目前每周使用领先AI系统的人数至少达到7亿。 在部分国家,超过一半的人口已在使用AI;但在非洲、亚洲和拉丁美洲的许多地区,预计采用率仍低于10%。
  • 与深度伪造(deepfake)相关的事件正在上升。AI生成的深度伪造内容越来越多地被用于欺诈和诈骗。 AI生成的非自愿亲密影像也日益普遍,这类内容对女性和女孩的影响尤为严重。 例如,一项研究发现,在20款流行的“nudify”应用中,有19款专门用于模拟女性脱衣。
  • 对生物滥用的担忧促使部分领先模型加强了安全防护。2025年,多家AI公司在部署前测试发现,系统仍可能在实质上帮助新手开发生物武器,因此推出了具备更高安全防护的新模型。
  • 包括犯罪分子在内的恶意行为者正积极将通用型AI用于网络攻击。AI系统能够生成有害代码,并发现可被犯罪分子利用的软件漏洞。 2025年,一个AI智能体在一项大型网络安全竞赛中跻身参赛团队前5%。 地下市场如今出售预打包的AI工具,大幅降低了发动攻击所需的技术门槛。
  • 多项安全防护正在改进,但当前风险管理手段仍存在失效可能。 尽管某些失败类型(如“幻觉”)已不那么常见,但部分模型如今能够区分评估环境与部署环境,并据此调整自身行为,这为评估与安全测试带来了新的挑战。

报告主编、蒙特利尔大学全职教授、LawZero科学主任兼Mila - Quebec AI Institute科学顾问Yoshua Bengio表示:

“自一年前首份《国际AI安全报告》发布以来,我们不仅见证了模型能力的显著跃升,也看到了其潜在风险的同步增加。技术进步的速度与我们实施有效安全防护的能力之间仍存在差距,这依然是一项关键挑战。 本报告旨在为决策者提供严谨证据,帮助引导AI迈向一个安全、可靠、惠及所有人的未来。 通过第二版报告,我们正在更新并深化对前沿AI在全球范围内快速发展的科学认知,并强化这一共同理解。 ”

英国AI大臣Kanishka Narayan表示:

“对AI的信任与信心,是释放其全部潜力的关键。 这是一项能够带来更优质公共服务、新就业机会及改变生活的创新技术。 同时,随着技术的发展,我们也将坚定致力于保障公众安全。 负责任的AI发展是全球共同关注的优先事项。唯有携手合作,我们才能塑造一个带来积极变革的未来。 这份报告正是为此而编撰汇聚全球专家,确保我们拥有坚实的科学证据基础,从而在当下做出明智决策,为更加光明、安全的未来奠定基石。”