AI诈骗要这样防范……

2024-03-19 14:54
来源:国家反诈中心、央视网

今年的3·15晚会上


关于利用人工智能


(AI技术)实施诈骗的曝光


引起社会各界的广泛关注


公安机关提醒广大群众


在具体案例中


无论是AI拟声还是AI视频通话


持续的时间都很短暂


仅有几秒钟就被骗子要求结束


因为这些视频通话


往往是骗子提前制作的仿冒视频


在目前的技术条件下


想在点对点的实时通话过程中


实现仿真程度极高的AI换脸较难


大家掌握以下方法


可以进行有效防范


据中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍,“AI换脸”过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤,其背后最核心的包括三个部分:


首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。


其次,将这些特征与目标人脸图像进行匹配、替换、融合。


最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。


如何识别AI“换脸换声”


中国计算机学会安全专业委员会数字经济与安全工作组成员表示,可以要求对方视频对话的时候,在脸部的前面通过挥手的方式进行识别。因为在挥手的过程中,会造成面部数据的干扰。骗子伪造的人脸会产生一定抖动、闪现,或者其它异常情况。



在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。



中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。如果是真人的鼻子,按下去会变形,但AI生成的鼻子不会。同样,脸部也一样,真人脸部按下去会变形。


提高防范意识


避免个人生物信息泄露


除了知晓一些辨别AI换脸诈骗的小诀窍,我们每个人都应该提高防范意识,养成良好的上网习惯。


首先,做好日常信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护;做好个人的手机、电脑等终端设备的软硬件安全管理。


第二,不登录来路不明的网站,以免被病毒侵入。


第三,对可能进行声音、图像甚至视频和定位等信息采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上防范AI换脸诈骗。


AI技术“换脸换声”


可能存在法律风险


法律专家表示,用AI技术为他人“换脸换声”甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面:


一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。


二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。


三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。



“眼见不一定为实”


“有图有视频也不一定是真相”


的时代已经来临


提前了解才能有心防范

Baidu
sogou