2025年03月06日 星期四
齐向东委员:
平衡AI技术创新与安全风险

  【代表委员连线】

  本报记者 崔 爽

  “未来随着人工智能大模型日益成为关键基础设施,对其恶意攻击手段和新型风险场景也将激增,由此衍生的数据隐私泄露、认知操控、基础设施瘫痪等安全风险必须警惕。”全国政协委员、奇安信科技集团股份有限公司董事长齐向东日前接受科技日报记者采访时说,对整个AI行业来说,平衡技术创新与安全风险是重要课题。

  “AI也有‘成长的烦恼’。”齐向东坦言,随着AI技术的深度应用,大模型自身面临和随之带来的安全挑战也日益严峻。

  在他看来,相关挑战大致可以分为三类。

  第一类是人工智能大模型自身的安全问题。其中,开发风险、数据风险、应用风险和基础环境风险等四种安全风险比较突出。开发方面,开源大模型要重点防范代码缺陷和预留后门等问题;应用方面,要防范对训练数据“投毒”,警惕篡改模型、篡改配置;数据方面,要小心内部配置错误和弱口令等造成的数据库暴露;基础环境方面,要重点关注云、传统设备漏洞等。

  第二类是利用AI开展网络攻击的问题。AI促进了网络攻击手段的更新迭代,“饱和式”攻击成为可能,攻击者可以瞬时发动海量攻击,打垮已有的网络安全体系。AI还提升了“以假乱真”的能力,深度伪造、认知战、钓鱼等威胁加剧。攻击者可利用AI“换脸变声”输出虚假信息,开展网络诈骗,或输出有悖主流价值观的内容以危害认知安全。

  第三类是通过攻击AI引发的网络攻击“大爆炸”。当大模型嵌入智慧城市、工控系统、智慧政务等关键领域时,会放大漏洞等安全威胁,一旦AI大模型遭到攻击,可能会牵一发而动全身,引发社会服务中断、生产停滞、隐私数据泄露等安全事件。

  谈及如何更好应对安全挑战,齐向东建议,应建立适配大模型的纵深防御体系,筑牢AI的安全根基;制定大模型安全强制合规要求,夯实AI安全发展的制度保障;拥抱先进的安全防护手段,用好“AI+安全”创新成果。

  他进一步阐释,要明确大模型安全的组织架构,界定安全主体责任,对基础安全、数据安全、应用系统开发安全、运行安全等方面提出清晰的技术保障要求;做好大模型运行安全监测和内容风控,定期开展安全评估测试,完善应急响应机制,一旦发现异常行为或潜在的安全事件,第一时间进行处置,将安全威胁消除在萌芽状态。“只有筑牢安全防线、守住合规底线,创新才有可能行稳致远。”齐向东说。

京ICP备06005116