央广网北京9月15日消息(记者吕红桥 高静)据中央广播电视总台经济之声《天下财经》报道,以“网络安全为人民,网络安全靠人民”为主题的2024年国家网络安全宣传周15日将落下帷幕。本届活动举办期间,业内人士和专家披露了一些与当前技术发展密切相关的新型网络风险,并给出了具体的防范举措。系列报道《防范新型风险,守好网络空间》推出:AI换脸拟声,“熟人”“家人”让转账也要留心。
前不久,深圳市民吴先生突然接到一个陌生手机号码发来的彩信。点开一看,竟然是他和一名陌生女子在酒店房间内的不雅照片。吴先生说,发信人以这张照片为把柄,向他发出了威胁。
吴先生说:“他当时就是威胁我,几点之前要跟他联系,然后给他转钱。我当时一想不对劲,就报警了。 ”
警方接到报案后,立即对吴先生提供的线索进行侦查,通过梳理报案记录,发现全市有同样遭遇的不止吴先生一人。经过深入调查和收网,警方抓获了这个涉嫌敲诈勒索犯罪的团伙。那么,这个团伙手中的不雅照片是怎么来的?原来,这是他们通过智能技术合成的换脸照片。在嫌疑人的电脑里,警方发现了大量这样的照片。
实际上,这种移花接木的手法目前已经比较老套。最新的生成式人工智能技术不光能给照片换脸,还能用照片生成视频,并且模仿当事人的声音。在2024年国家网络安全宣传周上,技术人员展示了这项技术。
技术人员说:“本身最右边是一张不会动的静态图片,那么通过演示者视频人脸做一些动作之后,AI应用采集到了面部动起来的特征,把这些特征融合到这张静态图片当中,就让这个图片照着我们的动作动了起来,也可以形成一个视频。”
恒安嘉新CEO陈晓光介绍,人工智能换脸拟声的过程应用了深度学习算法,生成的音视频内容几乎可以以假乱真,普通人仅仅通过看和听很难鉴别真假。在不法分子眼中,这显然是敲诈勒索最好用的工具,通过AI换脸拟声,就可以以“熟人”“家人”的身份,让他人转账。
陈晓光说:“一种方式是使用AI换脸拟声,也就是所谓的‘deep fake’深度伪造,伪造音频、视频图像进行诈骗。另一种是用AI自动生成内容,也就是用AIGC进行诈骗。”
如何防范应对这种新型网络风险?中国移动很早之前就开始研究防范此类风险,并形成了技术储备。在本届网络安全宣传周活动现场,中国移动专门展示了这项技术。工作人员输入一段AI换脸视频后,只用了5秒,这个视频就被鉴定为伪造。中国移动信息安全与管理运行中心副经理王晓晴说,这项技术主要是“用人工智能反制人工智能”。
王晓晴说:“我们是反向学习这种AI换脸拟声,包括证件伪造场景,然后通过AI反制AI这样的总体思路,对网络当中出现的比如语音通话中的AI换声、实名入网的AI换脸、视频通话的AI换脸、视频会议当中的AI换脸进行不同场景、不同的策略的技术研究,然后提出相关方案。帮助老百姓提高技术防范能力,同时赋能行业,开展多业务多场景的反制。 ”
恒安嘉新开发了专业检测引擎,能同时检测鉴别深度伪造和自动生成这两方面的内容。
陈晓光说:“我们也采用了用技术对抗技术,用魔法打败魔法的方法,目前我们有基于AI的深度伪造和AIGC的检测引擎,能够支持群众进行相关检测,同时能够支持公安进行涉诈案件的治理。 ”
不少人想知道,在身边没有专业检测工具的情况下,遇到“熟人”“家人”“领导”发视频让转账汇款的情况时怎么办。对此,王晓晴表示,通过互动,也可以让对方露出马脚。
王晓晴说:“比如我们可以让对方在他自己的脸部挥手,或者让他去做捏捏鼻子、嘴巴、耳朵这些动作。因为这个过程会造成面部数据干扰,如果是伪造的话,人脸会产生抖动、闪现,或者一些跟正常人不太一样的情况,就能用肉眼发现真假。同时也可以做一些比如点对点的问答,问一些知识,或者跟熟人朋友之间比较密切的话题,如果他回答不出的话,这个人大概率也是有问题的。”
针对AI换脸拟声技术在灰色领域甚至违法犯罪领域被滥用的现象,网络安全专家建议加快制定相关法律法规和监管措施,为人工智能生成的图文和音视频内容强制添加身份认证、数字水印等,并规范生成式人工智能的使用方式和应用场景。王晓晴表示,在人工智能时代,还要从自身做起,保护好个人信息,从源头筑牢网络安全屏障。
王晓晴说:“比如我们的人脸、声音这些生物特征是我们的隐私,是每个人的隐私。我们日常在发朋友圈公开一些信息的时候,大家还是要有潜在的风险意识,保护相关个人信息。”
转载申请事宜以及报告非法侵权行为,请联系我们:010-56807194