大模型时代安全如何破局?腾讯云TVP高峰论坛深度探讨

   发布时间:2025-04-10 11:34 作者:冯璃月

在北京成功举办的“大模型时代:安全如何洗牌”TVP AI与安全高峰论坛,汇聚了安全领域的顶尖专家和行业领袖,共同探讨人工智能(AI)在大模型时代的安全挑战与机遇。随着DeepSeek等AI技术的兴起,中国在AI领域的重大突破引起了全球关注,同时也为安全行业带来了新的思考。

论坛由赛博英杰科技创始人兼CEO谭晓生主持。谭晓生在开场时指出,随着ChatGPT的推出,AI技术在过去两年取得了显著进展,并广泛应用于各行各业。然而,大模型在部署过程中,其自身的安全问题也逐渐显现。这与十年前大数据概念兴起时的经历相似,开发者和企业首先思考如何利用新技术提升安全能力,然后再解决新技术本身的安全问题。

腾讯安全副总裁董志强在开场致辞中强调,以GPT为代表的大模型技术为安全领域带来了革命性的影响。攻击者利用大模型技术,使得攻击手段更加工业化且成本降低,但防御方相对滞后,可能加剧攻防不对称,增加防御难度。在训练大模型时,数据脱敏等安全性问题也不容忽视。董志强建议使用小模型或专用安全模型,并加强合规管理措施。

深信服科技AI安全业务总经理张振礼在主题演讲中分享了AI赋能安全的创新趋势和实践探索。他指出,安全本身是碎片化的,不能每个安全GPT场景单独部署模型,需要统一规划,实现大模型算力的统一调度和适配。安全团队在AI时代需要具备RAG、微调等技能,以适应不同行业的具体场景需求。

安恒信息高级副总裁王欣在演讲中讨论了AI智能体从思考规划到落地执行的安全赋能之旅。他指出,2025年被视为智能体元年,DeepSeek的兴起极大地推动了公众对AI智能体的认知。通过引入智能中台,将数据、知识、情报及安全产品整合为Agent的一部分,可以应对各类安全场景,提升整体安全效能和响应速度。

360集团首席科学家潘剑锋则分享了安全大模型的发展路径洞察与实践。他讨论了大模型的理解能力,并引入“快慢思考”概念来评估当前大模型的能力。潘剑锋指出,国内大模型赋能安全产品主要采用两种不同层次的方式:直接使用通用大模型的能力,或应用安全垂直大模型。他分享了360在安全语料生产、模型分区训练和慢思考实现方面的实践经验。

腾讯安全副总裁吴石在演讲中介绍了安全领域大模型的构建范式与实践。自2018年起,科恩实验室就开始研究AI+安全,探索如何提升安全产品的智能化水平。吴石分享了腾讯内部如何落地大模型+安全,包括优化prompt、利用外挂的知识库和数据库增强大模型能力,以及开发Agent提升处理复杂任务的能力。

北京大学人工智能研究院助理教授杨耀东在下午的论坛中讨论了大模型的安全价值对齐问题。他指出,当前大模型对齐工作主要以强化学习为主,但大模型有非常强的抗拒对齐的表现。杨耀东团队尝试通过数据标记有害内容、采用MAX MIN方法优化奖励与有害性平衡,以及引入后置对齐器修正答案等方法,提升模型的安全性。

Certik首席安全官李康在演讲中谈到了AI系统的安全风险和挑战。他指出,当前AI安全讨论通常集中在抽象层面和算法层面,但忽略了系统安全层面的重要性和紧迫性。李康举例说明了如何利用传统安全手段攻击AI智能体,并提醒未来需关注具体事件的爆发以应对这些潜在威胁。

中国科学院信息工程研究所主任陈恺在报告中展示了AI模型安全性方面的多项研究成果。他强调,提升AI模型安全性是必要的,并介绍了团队在模型对抗攻击和防御方法方面的研究。

火山引擎大模型应用防火墙产品负责人郑炎亭分享了大模型应用落地的安全风险与防护实践。他观察到,随着AI技术的普及,越来越多的企业开始重视AI应用的安全性。郑炎亭提出了一些实践思路,包括对提示词过滤与监控、对运行环境做安全保障,以及对模型安全性进行测评。

中国科学院计算技术研究所实验室主任曹娟在演讲中讨论了AIGC内容安全治理的趋势与实践。她指出,随着AI生成的数据越来越多,鉴伪工作变得尤为重要。曹娟团队聚焦核心技术攻关,针对云端和终端打造前沿鉴伪产品,以提升数字内容的安全性和可信度。

论坛还设置了分组讨论和观点PK环节,促进专家们的思想交流。数十位专家分为不同小组,围绕大模型时代安全行业的发展方向等热点问题展开讨论,激发了更多的深刻思考与全新见解。

 
 
更多>同类内容
全站最新
热门内容
本栏最新