AI诈骗要这样防范……
今年的3·15晚会上
关于利用人工智能
(AI技术)实施诈骗的曝光
引起社会各界的广泛关注
公安机关提醒广大群众
在具体案例中
无论是AI拟声还是AI视频通话
持续的时间都很短暂
仅有几秒钟就被骗子要求结束
因为这些视频通话
往往是骗子提前制作的仿冒视频
在目前的技术条件下
想在点对点的实时通话过程中
实现仿真程度极高的AI换脸较难
大家掌握以下方法
可以进行有效防范
据中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍,“AI换脸”过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤,其背后最核心的包括三个部分:
首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。
其次,将这些特征与目标人脸图像进行匹配、替换、融合。
最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。
如何识别AI“换脸换声”
中国计算机学会安全专业委员会数字经济与安全工作组成员表示,可以要求对方视频对话的时候,在脸部的前面通过挥手的方式进行识别。因为在挥手的过程中,会造成面部数据的干扰。骗子伪造的人脸会产生一定抖动、闪现,或者其它异常情况。
在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。
中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。如果是真人的鼻子,按下去会变形,但AI生成的鼻子不会。同样,脸部也一样,真人脸部按下去会变形。
提高防范意识
避免个人生物信息泄露
除了知晓一些辨别AI换脸诈骗的小诀窍,我们每个人都应该提高防范意识,养成良好的上网习惯。
首先,做好日常信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护;做好个人的手机、电脑等终端设备的软硬件安全管理。
第二,不登录来路不明的网站,以免被病毒侵入。
第三,对可能进行声音、图像甚至视频和定位等信息采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上防范AI换脸诈骗。
AI技术“换脸换声”
可能存在法律风险
法律专家表示,用AI技术为他人“换脸换声”甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面:
一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。
二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。
三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。
“眼见不一定为实”
“有图有视频也不一定是真相”
的时代已经来临
提前了解才能有心防范
- 下一篇:下载量过亿!小心这类App