随着人工智能和大模型技术的迅猛发展,它们为人们的生活带来了前所未有的便利与变革。从DeepSeek等应用的爆火,到AI PC等端侧AI设备的加速普及,AI 的身影无处不在。然而,AI 技术的滥用也带来了新的安全威胁。其中,AI 换脸诈骗作为一种新兴的、极具隐蔽性和危害性的手段,正逐渐成为网络安全领域的一大挑战。
日前,联想集团通过宣传片《用AI守护AI》展示了AI反诈技术,能够精准识别各种 Deepfake 换脸伪造,有效遏制 AI 欺诈行为的蔓延,据了解,该检测器的准确率高达 96%。

在众多 AI 换脸技术中,Deepfake 无疑是发展最为成熟的代表项目之一。Deepfake,由 “deep learning”(深度学习)和 “fake”(伪造)组合而成,精准地概括了这项技术的本质特征。它作为人工智能深度学习领域的一个重要分支,自诞生以来便备受关注。然而,Deepfake 技术迅速从实验室走向大众视野,在各类应用场景中频繁出现,也引发了广泛的社会关注和担忧。
联想 “Deepfake 深度伪造技术检测器” 基于 DeepSeek 开源大模型构建,体现了其对前沿技术的精准把握和有效利用,并可部署在AI PC本地运行,也进一步强化了联想AI PC个人数据和隐私安全保护的特性。DeepSeek 大模型以其卓越的性能和广泛的适用性,为检测器提供了坚实的技术支撑。在此基础上,联想的研发团队持续深入探索 AI 生成内容的识别与防范技术,不断优化算法和模型,致力于打造出一款高效、可靠的 AI 反诈工具。同时,四川省反诈中心、腾讯云、奇安信等政府机构、云计算服务及网络安全厂商已经加入联想的AI反诈倡议。
联想提出的 Deepfake 深度伪造技术检测方法具有诸多先进性。从技术原理上看,它运用了先进的深度学习算法,对图像和视频中的细微特征进行深入分析。通过构建复杂的神经网络模型,该检测器能够学习到真实人脸和 Deepfake 伪造人脸之间的微妙差异,从而准确判断出视频或图像是否经过 AI 换脸处理。这种基于数据驱动的检测方式,相较于传统的基于规则的检测方法,具有更高的准确性和适应性,能够更好地应对不断变化的 AI 换脸技术。

在功能实现方面,这项技术已经取得了显著成果。例如,在在线视频会议场景中,当用户接入会议时,系统能够实时对参会人员的视频进行检测。一旦发现对方视频可能是 AI 伪造,会立即向用户发出提示,有效增强了会议的安全性。这一功能对于企业而言尤为重要,因为在商务洽谈、机密信息交流等场景下,确保参会人员身份的真实性至关重要。而在社交媒体浏览过程中,该技术可以自动对视频内容进行扫描,标记出疑似 AI 换脸的视频。这不仅帮助普通用户轻松辨识视频的真伪,避免受到虚假信息的误导,同时也有助于维护社交媒体平台的健康生态,减少虚假信息的传播。当用户使用 AI PC时,系统能够实时感知 AI 换脸安全风险,并及时向用户发出预警。无论是在日常办公、娱乐还是其他使用场景下,用户都能得到全方位的安全保护。
该技术目前已实现了广泛的应用适配,可在笔记本电脑、台式机、平板电脑和手机等多种设备中运行。这意味着,无论用户身处何地,使用何种智能设备,都能享受到联想 AI 反诈技术带来的安全保障。这种跨平台的兼容性,充分体现了联想以用户为中心的设计理念,致力于为广大用户提供便捷、高效的安全服务。
除了高准确率和广泛的应用场景外,联想 “Deepfake 深度伪造技术检测器” 中的 Deepfake 检测算法还具有高效性。它能够在短短 5 秒内对图像或视频进行快速检测,实现自动化的分析和实时反馈。在信息爆炸的时代,时间就是金钱,对于可能遭受 AI 欺诈的用户来说,快速的检测结果能够为他们争取宝贵的应对时间,有效避免损失的发生。
同时,该技术还支持迭代升级,具备强大的防御能力。随着 AI 伪造攻击技术的不断发展,如 Faceswap、Face2face、Neuraltextures 等新型技术层出不穷,联想的检测器通过持续收集 AI 换脸样本,对深度学习模型进行持续训练和优化,保持不断的系统升级,以适应新出现的 AI 换脸技术和攻击手段。这种动态的、持续进化的防御机制,确保了检测器始终能够保持在行业领先水平,为用户提供长期有效的安全防护。
联想集团高级副总裁,智能设备业务集团全球创新中心总经理贾朝晖表示,“反诈行动的本质是场攻防拉锯战,伪造技术每天在升级,工程师们也在日夜兼程。想赢,就不能单打独斗。期待与更多技术合作伙伴一起,给数字世界筑起安全防线。” (鸣耒)
来源: 光明网