在人工智能时代,技术不仅以其高效与便利塑造着人类社会的方方面面,更深刻影响着我们认知世界、判断真伪的方式。
AI生成图片
有人打开手机看到一则猴子做饭的短视频,他吃惊地说:“妈哟,猴子成精了!”
我说:“不是猴子成精了,是AI技术成精了。”
《西游记》中,花果山的猴子通过菩提祖师的教导,学会了七十二般变化。如今的AI术可是千变万化。随着AI技术的迭代升级,也给虚假信息披上了高科技的外衣,现在“耳听未必为真,眼见也未必为实”。
此前,就有AI生成的“顶流男星澳门赌博输掉10亿”“地震婴儿被埋”“银行被抢劫”“工厂被大风夷为平地”等假新闻让不少网友信以为真。最近,关于释永信的各种AI视频也是四处传播。释永信固然已接受调查,下一步他可能面临法律审判,但是,他的肖像权依然应该得到尊重和保护。
对于这些不良传播,应该对发布者予以严惩。
入夏以来,各地因暴雨造成的山洪多发。于是,有的视频制作者便借助AI制作,传播诸如冲毁桥梁、楼房垮塌等令人目瞪口呆的灾难视频。
这种视频一方面给人们带来恐慌,同时也对有关部门预警和防范自然灾害的能力产生怀疑,甚至滋生不满情绪。
还有的AI故意制造某邻国发生地震、海啸等令人惊悚的画面。无聊的跟风者还发出幸灾乐祸的留言。美国加州森林大火发生后,我们看到有很多视频也是运用了AI制作,它给我们带来了错误信息和对他国突发事件的误读。
伊朗和以色列发生冲突期间,人们对中东局势特别关注。但是,关于冲突的许多报道中混杂了AI制作,不仅影响了许多人对战争的态度,甚至影响到对双方军事实力及战争走势的误判。
其实,猴子当大厨、普京打老特,不过是娱乐视频,而且轻松辨识。即使你当真了,似乎没有多大现实危害。而发生在我们身边的AI换声、换脸式诈骗更是令人防不胜防。骗子只需你3秒语音,就能克隆出以假乱真的声音,诈骗成功率高达85%。
“女神”主动视频聊天?可能是AI换脸+变声套餐。上海一男子被“AI女友”骗走20万,对方实为诈骗团伙用网红照片生成的虚拟形象。
银川市某公司张先生接到“老板”视频电话,对方称因情况紧急,急需转账汇款。他十几分钟内将20万元转入指定账户。
总之,AI深度伪造欺诈行为近年来暴增,给许多人带来了不同程度的财产损失。
一般来说,负责的视频制作者会注明作品是AI制作,有的仅仅是娱乐搞笑。但是,有的视频制作者,不明示AI作,以至于让观者真假难辨。
据说从9月1日起,AI生成合成的内容必须添加标识了。否则,它将为网络虚假消息的传播提供了新的制作手段。
自2025年4月以来,中央网信办开展“清朗·整治AI技术滥用”专项行动,聚焦AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等AI技术滥用乱象,累计处置一大批违规信息和账号。
从本质上说,AI技术是为人类服务的,不是为世界添乱的。网络世界海量的信息无处不在,想尽办法将这些内容过滤掉,还网民一方晴朗的网络天空,任重道远。
针对人工智能生成的虚假内容泛滥的现象,下游的传播平台应当主动采取措施减少违法信息的流通,例如建立辟谣机制和举报机制,针对在平台中传播的虚假内容及时停止传输,并对相关主体加以限制和处罚。
从一定程度上来说,让广大网民增加辨别意识和防范意识可能是当务之急。正确引导他们识别AI谣言,自觉抵制AI乱象,至少做到不点赞不转发。
关于识别AI视频网络诈骗,公安部门给出了两条防骗建议:
视频通话时,让对方做出指定动作,比如眨眼3次、摸摸鼻子,或者让对方用手指或其他遮挡物在脸前晃动,如画面出现延迟或者异常扭曲等不自然的微小变化,那对方很可能正在使用“AI换脸”技术。
在与对方的沟通中,也可以问一些只有对方知道的问题,比如生日、电话号码、喜好等,来验证对方身份的真实性。只有这样,才能有效避免AI技术对您身边人生活的影响以及对人身安全和财产安全的危害。(宁夏新闻网特约网评员 闵生裕)