>>您当前位置:首页 -> 专题 -> 2022 -> 网络普法 与宁同行 -> 以案释法
网信说法以案释法 | AI造谣诈骗频发,网警教你守护真实信息边界
2025-12-02 21:39:14   
2025-12-02 21:39:14    来源:公安部网安局

  当下,网络安全与日常生活紧密相连,从智能助手、精准医疗到自动驾驶,AI的进步让社会运转更高效、生活更便捷。然而,技术利弊共生,AI快速发展也暗藏风险,AI造谣、AI诈骗正成为亟待应对的严峻挑战。我们在享受AI便利的同时,必须高度警惕这些潜在危害。

  今年3月初,一则“华山医院前院长张明远因病客死他乡”的消息在互联网广泛传播,引发众多网友关注。但经上海警方核查,华山医院既无名为“张明远”的前院长,也无同名员工。上海公安网安部门迅速展开调查,成功侦破这起利用AI造谣案,将犯罪嫌疑人王某某、郭某某、石某某抓获归案。令人吃惊的是,犯罪嫌疑人在发布假消息前,甚至不知道有华山医院和“张明远”这个人。经查,王某某、郭某某、石某某等3人控制500余个自媒体账号,设置社会热点、明星绯闻、爆款推荐等关键词策略,利用AI工具自动生成并发布不实帖文30余万条,造成了恶劣的社会影响。

  近年来,随着AI技术快速发展,尤其是自然语言处理和深度伪造技术成熟,AI造谣呈现出更隐蔽、难辨别的特点。利用AI工具合成技术编造谣言,甚至生成逼近真实的图片、音视频,颠覆了“有图就有真相”的常规认知,让人难辨真假。AI造谣主要有生成逼真的假新闻、伪造的社交媒体帖子或恶意评论;通过Deepfake技术合成名人、政客的虚假影像或语音;结合社交机器人和AI,在社交媒体上大规模扩散谣言、制造虚假舆论等形式。

  面对AI造谣,我们应该如何辨别呢?首先,要保持怀疑态度,对于任何看起来过于完美或者与常识相悖的信息,都应持谨慎态度,不轻易相信未经核实的消息来源。其次,要查证信息真伪,当遇到疑似使用AI技术修改过的内容时,可通过搜索引擎查找原始资料进行对比验证,也可利用专门检测图像编辑痕迹的工具辅助判断。再者,要增强个人隐私保护意识,防止个人信息泄露,因为诈骗者常利用受害者私人数据进行精准攻击,定期更换强密码、谨慎分享位置信息等措施有助于降低被恶意利用的风险。同时,要关注官方渠道,权威机构发布的信息通常更可靠,接收到不确定消息后,优先参考政府机关、知名媒体等正规途径发布的声明或报道。最后,要积极参与网络环境净化,若发现自己成为某条虚假消息的传播者,应立即停止转发并向相关平台举报该内容,共同维护健康的网络空间。

  除了AI造谣,AI诈骗也令人防不胜防。2024年8月,市民刘先生报案称,2个月前他通过一则短视频结交网友“焦女士”,两人十分投缘,不久便发展为恋人关系。随后,“焦女士”以服装店已开业、家属生病、进货需要资金等理由,陆续向刘先生索要近20万元。接报后,上海警方逐步明确了一个以杨某为首的交友诈骗团伙。该团伙组织严密、分工明确,有在短视频平台上架视频的引流人员、与潜在被害人聊天的业务员,以及伪造相关聊天内容的“修图”人员,采取“流水化”诈骗作业。“AI诈骗”成功率极高,骗子利用人类对亲友的信任和对权威的畏惧,不再靠“话术”,而是靠“技术”,让欺骗性呈指数级上升。

  AI诈骗常见套路有声音合成,骗子通过骚扰电话录音等提取某人声音素材后进行合成,用伪造声音骗过对方;AI换脸,骗子分析公众网上信息,筛选目标人群,在视频通话中利用AI换脸骗取信任实施诈骗;转发语音,骗子盗取社交账号后向好友“借钱”,转发之前语音骗取钱款;AI程序筛选受害人,骗子利用AI分析公众网上信息,根据骗术筛选人群,短时间内生产定制化诈骗脚本实施精准诈骗。

  【网信说法】

  AI技术让违法犯罪分子能轻松“换脸变声”,“眼见”未必为实。面对AI诈骗,我们可采用动作验证法,当视频中对方有敏感要求且显得“怪”时,请对方做连贯转头动作或用手掌遮脸再快速移开,目前AI技术在模拟这些复杂面部遮挡和光影变化时易出现卡顿、模糊或扭曲;要注意声音细节辨真伪,AI生成语音有时缺乏自然呼吸停顿、情感起伏,或带有轻微机械感、背景杂音异常,若对方声音“不像平常”,务必提高警惕;要多渠道核实身份,这是最核心的一招,无论视频、语音多么逼真,涉及金钱交易或敏感信息时,务必通过其他可靠途径二次确认,比如挂断后直接拨打对方常用且熟悉的电话号码,或通过共同认识的第三人侧面核实。核心口诀是“视频语音莫轻信,动作验证多核实”。

  在此,网信部门提醒广大民众,面对纷繁复杂的网络信息,须持续提升辨别意识,涉及金钱往来的各类交易应始终保持高度警惕,不向陌生账户转账,不被“高收益”“急用钱”等说辞迷惑,守好信息安全与财产安全,共同防范网络风险,营造一个真实可信的信息环境。

【编辑】:张海莹
【责任编辑】:张海莹