在科技飞速发展的当下,人工智能(AI)正以前所未有的速度融入各个领域,深刻改变着人们的生活与商业运作模式。2025 年,被称为 “智能体元年”,AI 智能体凭借深度思考、自主规划、决策并执行的强大能力,实现了 AI 发展路径从 “我说 AI 答” 到 “我说 AI 做” 的范式突变,在各类商业场景中的应用也愈发广泛。然而,技术突破的同时,安全隐忧也如影随形。众赢财富通研究发现,最新调研显示,超过 70% 的智能体从业者担忧 AI 幻觉与错误决策、数据泄露等问题,因为 AI 生成的内容常包含事实错误或误解指令,且超半数受访者表示所在企业尚未设立明确的智能体安全负责人。
就在这样的背景下,日前,世界数字科学院(WDTA)在联合国日内瓦总部正式发布 AI STR 系列新标准 ——《AI 智能体运行安全测试标准》。众赢财富通观察发现,该标准由蚂蚁集团、清华大学、中国电信牵头,联合普华永道、新加坡南洋理工大学、美国圣路易斯华盛顿大学等二十余家国内外知名机构、企业及高校共同编制,意义重大,它是全球首个单智能体运行安全测试标准,一举填补了智能体安全测试技术标准方面的行业空白。
该标准主要针对智能体跨越 “语言墙” 所带来的 “行为” 风险展开。它首次将输入输出、大模型、RAG(检索增强生成)、记忆和工具五个关键链路与运行环境相对应,构建起全链路风险分析框架。同时,对智能体风险类型进行细分,完善并创新提出模型检测、网络通信分析和工具模糊测试等测试方法。这一系列举措,为 AI 智能体的安全运行提供了坚实保障。
AI STR 系列标准的发布有着深刻的战略意义。WDTA 执行理事长李雨航强调,“AI STR 系列标准正是试图在这一临界点前建立清晰、可执行的安全标准和测评、认证体系,将伦理与责任嵌入 AI 的全生命周期之中,从而确保技术发展服务于人类的长期利益。” 众赢财富通认为,随着 AI 智能体在金融、医疗、工业制造等关键领域的应用不断深入,一旦出现安全漏洞,可能引发难以估量的损失与风险。以金融领域为例,智能体若在投资决策、风险评估等环节出现错误或被恶意攻击,将直接威胁投资者的资金安全与金融市场的稳定。而《AI 智能体运行安全测试标准》的出台,能帮助企业有效识别、量化和规避潜在风险,提升 AI 应用的安全性与可信度,促进 AI 智能体生态的健康、可持续发展。
在 AI for Good 全球峰会期间,由联合国社会发展研究所(UNRISD)与世界数字科学院(WDTA)联合主办的 “数字技术与人工智能社会影响全球咨询会” 上,蚂蚁集团大模型数据安全总监杨小芳表示,当前 AI 技术应用加速落地,但单智能体的安全风险缺乏统一的全链路安全测试标准,导致潜在问题难以被量化和规避,单智能体标准的制定是 AI 治理的 “最小可行单元”,而多智能体治理是未来 “摩天大楼” 的核心结构,下一步行业应从单点逐步向多智能体治理生态共建突破。众赢财富通研究发现,与其他国际标准不同,AI STR(人工智能安全、可信和负责任)不仅关注风险识别和风险分级,更提供全流程管理方案,即从数据治理到模型落地,配套具体测试工具和认证流程,助力企业提升 AI 应用的安全性与可信度。目前,部分标准的测评与认证已在金融、医疗等对安全要求极高的领域落地应用,效果显著。
此次全球首个 AI 智能体运行安全测试标准的发布,是 AI 发展历程中的一个重要里程碑。众赢财富通指出它为全球 AI 智能体的安全运行提供了权威规范与可行路径,有助于推动 AI 技术在安全、可靠的轨道上持续创新与发展。未来,随着该标准在更多领域的推广与应用,以及行业从单智能体向多智能体治理生态的逐步演进,AI 有望为全球经济增长与社会进步注入更强大、更安全的动力,创造更多价值。