一段视频、一段语音未必是真人拍摄或者录制,在你不知道的手机App后台、支付界面、门禁闸机,或许有人正在盗刷你的脸……随着深度合成技术迅猛发展、落地场景激增,一些不法分子趁机牟利。去年以来,多地发生“变脸”诈骗案,音频、视频等合成技术滥用,对人脸、声纹、指纹等个人敏感信息保护形成挑战。
以前我们常说“有图有真相”,然而随着智能科技的发展进步,如今即便有视频、有声音,都不一定是“真相”。通过深度合成技术,用静态照片、音频可制作为人脸动态视频,可完成丰富表情,模拟效果极为逼真,已经能够骗过支付识别系统,人工审核亦难辨真假。更值得关注的是,相关技术应用的门槛也在不断降低,通过一些短视频平台提供的道具,就能轻松实现“改头换面”。
近年来频频发生的“变脸”诈骗案,凸显出深度合成技术正在遭到非法滥用,已成为犯罪分子作恶的工具,不仅损害人民群众的切身利益,甚至危害公共安全和社会稳定。
科技的发展本质是服务百姓的工作生活,不能让其沦为犯罪行为的“帮凶”。面对诈骗手段的“智能化”,有关方面必须以“魔高一尺,道高一丈”的决心,不断提升发现、打击违法活动的能力,以更强大的科技力量、更快速高效的反应能力,对抗、震慑、打击不法分子,切实守护好百姓财产安全。
值得一提的是,今年年初,《互联网信息服务深度合成管理规定(征求意见稿)》公开面向社会征求意见,其中就对人脸生成、人脸替换等深度合成技术的应用场景、应用规范、技术提供者的主体责任及违规惩戒办法等内容做出了明确规范。我们期待该规定能及早出台、落地,为深度合成技术应用的规范和管理,提供有力的法治保障。
|