齐向东委员:Sora加剧了网络和数据安全隐患 只能用AI来解决
齐向东委员认为,从正向角度来说,Sora的问世刷新了我们对人工智能大模型成长速度的认知,为千行百业提高生产力提供了一个更强大的工具。
同时,也加剧了我们对于网络和数据安全隐患的担忧。Sora是一个比ChatGPT更加强大的人工智能大模型。当前,利用人工智能技术进行网络攻击的事件已经不在少数。Sora的出现进一步加深了网络和数据安全威胁,未来利用人工智能发动网络攻击的活动会更频繁,“深伪”诈骗、换脸变声等引发的网络犯罪会更猖獗。
聚焦网络安全领域,他总结了人工智能的三大安全问题。
一是AI加剧安全威胁,如数据泄露、欺诈攻击、社会治理安全等。以 ChatGPT 、Sora为代表的生成式 AI 技术可以快速生成钓鱼邮件、编写恶意软件与代码,导致攻击数量爆发式增长,AI 欺诈事件频繁发生。如 ChatGPT 在对话交互过程中能获取用户数据或输出训练数据,可能涉及到个人隐私数据、业务数据等敏感信息,加剧数据泄露风险。此外,不法分子可以通过“深度伪造”技术换脸变声、伪造视频,“眼见未必为实”将成为常态,网络诈骗大增,甚至引发社会认知混乱。
二是AI加剧攻防失衡,利用和针对 AI的攻击层出不穷,网络安全“易攻难守”。在AI恶意利用方面,人工智能大幅降低了网络攻击门槛,不懂代码、不懂技术的普通人也能成为黑客,将扩大网络攻击数量,专业化的黑客组织可以利用人工智能工具对网络攻击进行改造和升级,比如,利用AI大模型制作恶意软件、生成用于规避杀毒软件检测的代码等等,网络攻击能力将出现跃升;在针对 AI 算法攻击方面,机器视觉攻击、数据源污染等攻击频发,攻击者通过对抗样本、数据投毒、模型窃取等多种方式对 AI 算法进行攻击,使其产生错误的判断,同时由于算法黑箱和算法漏洞的存在,这些攻击往往难以检测和防范。
三是AI加剧军事威胁,AI武器化趋势显现。一方面,人工智能可被用在“机器人杀手”等致命性自主武器(LAW)上,通过自主识别攻击目标、远程自动化操作等,隐藏攻击者来源、建立对抗优势;另一方面,人工智能可以将网络、决策者和操作者相连接,让军事行动针对性更强、目标更明确、打击范围更广,越来越多的国家开始探索人工智能在军事领域的应用。
齐向东委员直言:“要想解决AI带来的安全问题,只能用AI来解决。”
他建议,要大力推进AI+安全的科技创新能力,鼓励各个行业的龙头公司和网络安全公司合作,把AI安全技术融入到数字化场景当中,进行有效的安全防护。鼓励企业和高校把最新的AI科研成果和网络安全攻防技术相融合。借助AI能力,加速网络安全技术创新、安全防护体系创新,这样就能比AI技术跑得更快。只有对新科技产生的新场景进行有效的安全防护,科技推广应用才能进行下去,否则科技应用会死于诞生初期。
结合自身,他谈到,奇安信作为网络安全龙头企业,在解决AI的安全问题上有着不可推卸的使命担当。未来他们会和更多应用场景相结合,确保AI技术快速发展。