前些日子我们聊过 deepfake 技术可以通过数据来对已有的视频进行加工,最后的可以得到一份惟妙惟肖的假视频。
在微信、QQ、微博多种社交软件已经普及开的今天,如果有人从社交平台上抓取了你的一张照明,他能用这张照片做什么?相信大多数人稍加思索便能的出最坏的结论,骗一个不认识你的人。
近日,有人通过AI技术直接用一张照片合成了一段假视频,让你的朋友误以为是你。没错这就是AI技术一次新的尝试,来自俄罗斯三星实验室的研究员新开发的一项 AI 技术,只需要某人的一张照片,就能带来一段活灵活现的视频内容。这种技术甚至能让蒙娜丽莎开口说话。
在以前,想做出真假难辨的“换脸”视频,需要积累大量的数据,曾经有人利用深度学习技术才为色情演员加上了好莱坞明星的脸,盖尔·加朵、艾玛·沃森被“移花接木”到了色情视频当中。
这样的换脸技术本身是通过机器学习来对大量素材训练,通过生成式对抗网络(GAN)将目标对象替换成自己需要的对象图像,甚至如果数据资料够多,它还能将图像、声音等完全伪造。但如今,新的 deepfake 技术不再需要大量数据,甚至一张普通照片就能伪造一段视频。
研究人员先是从 YouTube 上搜集的 7000 多张名人照片进行进行面部特征提取,包括脸型、眼睛、嘴型等特征点,通过这些特征点进行的训练去比对拍摄的照片,并让这些拍摄的照片动态头部模型,通过一系列卷积运算让比对效果不断提升,最终在进行前期大量学习训练之后,新的神经网络只需要少量数据和就能生成新的人脸信息甚至是视频。
听起来有些复杂,但实际效果却是肉眼可见的明显,不仅仅是《蒙娜丽莎的微笑》中角色可以开口出现表情动作,就连阿尔伯特·爱因斯坦、萨尔瓦多·达利等也都可以从静态肖像活灵活现出现在你的眼前。
所幸的是,和大多数换脸视频一样,这次研究人员做出的视频依然有种种瑕疵,例如缝隙、古怪的面部表情等等 。但是这次的视频仅仅由照片合成,而随着照片的增多这些缺点是可弥补的。
当随着人脸识别技术的大规模应用,“刷脸”的场合也将越来越多,结合当下的环境,绝大多数人的照片在社交软件上都可以轻易获取。
“个人生物信息直接采集于人体、且是个人生理特性的直接体现并唯一对应……”今年两会期间,全国人大代表、北京科学学研究中心副主任伊彤提交了一份《关于开展公民个人生物信息保护立法的建议》,伊彤认为,个人生物信息与我们平时设定的密码不同,如果密码泄露,我们可以随即换一个密码;而个人生物信息一旦泄露,就是终身泄露,会将用户个人信息安全置于更大的不确定性中,进而引发一系列风险。
中消协曾表示,个人财产信息、个人生物识别信息属于个人敏感信息。个人敏感信息一旦泄露,将导致个人信息主体及收集、使用个人信息的组织和机构丧失对个人信息的控制能力,造成个人信息扩散范围和用途的不可控,可能对个人信息主体人身和财产带来重大风险。
据了解,当前个人生物信息保护的相关法律法规,散见于民法总则、网络安全法、消费者权益保护法以及最高法、最高检和国务院颁布的相关司法解释和规定中,远未形成完整体系。
现如今,面对AI技术越来越强横的挑战,我们只能期待国家立法的发力。我国个人生物信息的法律保护面临着以下三个问题,一是个人生物信息权作为具有人格权属性的私权,尚未明确纳入私法保护范围;二是针对个人生物信息在刑事侦查、治安管理、人口治理、医疗卫生等领域的非商业应用,以及政府和相关机构的责权利,特别是个人生物信息权保护边界等急需明确;三是针对个人生物信息商业应用和相关产业侵权风险及不正当竞争,目前缺乏相应的特殊规制,法律救济、行政处罚也无法律依据。在个人生物信息被滥用环节中,我国立法大部分都是空白的,或是缺乏一些可操作性的条款。
可以预见的是,一旦带有唯一性的生物特征数据被他人盗取利用,会造成个人信息安全、生命财产安全等相关问题,而且会导致大量深层信息被挖掘、曝光,给公民造成物质和精神上的极大损害。