联系邮箱
operation@longma-software.cn
美国发布AI智能体安全预警,呼吁企业加强全流程安全管控
作者:泷码软件产业网编辑部
近日,美国网络安全专家联合美国网络安全局(CISA)等相关机构,正式发布AI智能体安全预警,明确指出当前AI智能体的高权限访问特性可能导致严重的数据泄露与系统破坏风险,提醒全球企业与机构提高警惕,加强AI智能体的安全管控,防范安全事故发生。此次安全预警涵盖了AI智能体的安全隐患、风险表现及防控建议,为全球AI智能体的安全应用提供了重要指引,也引发了全球科技企业对AI安全治理的高度关注。
预警指出,AI智能体为实现自主执行复杂任务的核心功能,通常被赋予了访问本地文件系统、调用外部API、获取用户敏感信息等高级权限,这些权限是AI智能体正常运行的基础,但同时也带来了巨大的安全风险。当前,多数AI智能体产品的安全配置薄弱,缺乏完善的权限管控与风险校验机制,权限分配过于宽松,未根据任务需求进行精细化授权,导致AI智能体拥有超出必要范围的权限,一旦被攻击者操控,将造成严重后果。
此次预警中披露的一组研究数据,进一步凸显了AI智能体的安全风险。研究显示,超过六成的企业无法强行终止行为异常的AI智能体,一旦AI智能体出现失控行为,企业无法及时干预,只能被动承受损失;76%的政府机构未为AI智能体配备“一键终止”开关,无法在紧急情况下快速停止AI智能体的运行,进一步加剧了风险。此外,攻击者可通过社交工程、恶意插件、漏洞利用等简单手段,操控AI智能体执行恶意行为,例如窃取核心数据、删除重要文件、入侵内部系统等,给企业和机构造成巨大的经济损失和声誉损害。
为帮助企业和机构有效防范AI智能体安全风险,预警中提出了一系列具体的防控建议。专家建议,企业应转变AI治理思路,打破“重应用、轻安全”的理念,将安全管控贯穿于AI智能体的选型、部署、使用、迭代全流程。在选型阶段,应优先选择安全配置完善、权限管控精细的AI智能体产品,对产品的安全性能进行全面评估;在部署阶段,应根据任务需求,对AI智能体进行精细化权限授权,删除不必要的权限,建立权限分级管理机制;在使用阶段,应加强对AI智能体行为的实时监控,及时发现异常行为并进行干预;在迭代阶段,应定期对AI智能体进行安全检测,修复已知漏洞,优化安全配置。
此外,专家还建议,企业应在AI智能体与敏感数据之间建立统一的安全控制平面,通过身份验证、权限授权、行为审计等全流程管控手段,防范数据泄露风险。同时,加强员工的安全培训,提高员工对AI智能体安全风险的认知,规范员工使用AI智能体的行为,避免因操作不当引发安全事故。对于政府机构而言,应加快完善AI安全监管体系,建立AI智能体安全准入标准,加强对重点领域AI智能体的监管,推动AI技术的安全应用。
美国网络安全局相关负责人表示,当前AI智能体技术正处于快速发展阶段,安全风险也在不断凸显,此次发布安全预警,旨在提醒企业和机构重视AI智能体的安全风险,采取有效措施加强防控,避免安全事故的发生。未来,美国网络安全局将持续关注AI智能体的安全动态,及时发布风险提示和防控建议,推动全球AI安全治理水平的提升。
泷码软件产业网编辑部表示,此次美国发布的AI智能体安全预警,为全球AI智能体的安全应用提供了重要指引,也反映出全球对AI安全风险的高度重视。随着AI智能体技术的规模化应用,安全风险将进一步凸显,企业和机构必须重视AI安全治理,平衡技术应用与风险防控,才能实现AI技术的可持续发展。未来,AI安全治理将成为企业核心竞争力的重要组成部分,完善的安全管控体系和防控能力,将成为企业引入AI技术的重要考量因素。
新闻来源:美国网络安全局(CISA)、麻省理工科技评论