7月23日,在第24届中国互联网大会上,360集团创始人周鸿祎围绕大模型安全、AI治理、智能体变革,提出一系列系统性且带有预警性质的判断,并明确指出,“未来的对抗将是人和算力、人和算法、人和机器之间的对抗”。
周鸿祎表示,AI带来了很多传统的安全问题,它带来了两个新的挑战。其中第一个核心问题,是大模型的随机性与幻觉问题。
与传统软件“一次编程、重复执行”的确定性不同,AI尤其是Agent类智能体,存在天然的随机性。“你设计得再好,它执行一百遍也不一定一样。”周鸿祎指出,这种“像人一样容易犯错”的特性,意味着它本身无法被彻底规范。他进一步提到,攻击者通过自然语言与AI互动、利用提示词(Prompt)攻击、进行“PUA式”引导,诱使模型泄露信息,正在成为新的安全漏洞。这类攻击方式“传统的防火墙、杀毒软件肯定是不管作用的”。
面对大模型时代的新安全问题,周鸿祎提出了“以模制模”的解决之道。即利用一个安全大模型来监测另一个通用大模型的行为,理解人们在向模型输入什么、模型输出了什么,是否存在数据泄露、恶意引导等风险。
“我们这两年做了一个产品,叫‘大模型卫士’,就是专门解决大模型新出的这种高智商问题。”这款产品,正是“以模制模”的具体体现,结合知识库、Web搜索、数据库能力,来弥补幻觉、偏差等风险。
大模型对安全的第二个重大挑战,是攻击能力的智能体化。周鸿祎指出,“以后希望每个人都有三五十个智能体做助理,我们就变成了超级个体。你可以这么干,对方黑客也可以这么干。”
过去,一个顶尖黑客需要多年训练、极高天赋。但现在,只要有一个成功的攻击样本,就可以训练成一个“黑客智能体”。这个智能体可以自动规划攻击路径、寻找漏洞、调用工具,一气呵成。“这一下子就把过去人跟人的对抗,变成了人和算法、人和机器的对抗。”
同时比较出名的配资平台,对抗方式也必须升级。他再次强调“以模制模”,并指出360正在用过去十多年攻防经验训练安全智能体,作为“智能体安全专家”,“用智能体来对抗智能体”。这种应对逻辑,摆脱了传统安全“系统+人工响应”的滞后模式,转而走向“算法+算法”的实战模拟。换句话说,安全边界正从“外围防御”扩展到模型内部,从“系统漏洞”扩展到“行为理解”。
倍悦网提示:文章来自网络,不代表本站观点。