举报查询 登录 | 注册
  1. 首页
  2. 曝光台
  3. 当你遇到AI整蛊,是哭还是笑?

当你遇到AI整蛊,是哭还是笑?

发布时间:2025-11-27 15:26 分享到:

流浪汉闯入家中、女儿被人抱走……这些令人触目惊心的事情,竟然只是个玩笑。

近日,安徽铜陵的张先生在外地酒局上收到妻子李女士发来的图片,画面中流浪汉闯入家中,吓得他立刻报警。民警迅速出警,却发现家里只有李女士和两个孩子,没有所谓的流浪汉。原来是李女士用AI合成了流浪汉坐在自家餐厅的图片,试图“教训”丈夫喝酒,没想到丈夫信以为真。经民警批评教育,李女士认错并公开道歉。

但是,闹剧并未收场,反而掀起模仿狂潮。有网友用AI制作“流浪汉闯入餐厅后厨”,老板吓到喊来保安;有人合成“同事电脑被流浪汉占用”视频,把当事人急哭;还有人为博取关注使用AI生成了“女儿被人抱走”的“寻人启事”并发布到社交平台,最终被行政拘留……

如今,AI换脸、语音合成等技术触手可及,也让制造虚假信息变得轻而易举。试想,若下一次真有危险发生,人们是否会因“狼来了”而迟疑?

所以,AI整蛊的边界在哪里?

某社交平台上,网友发布的“流浪汉”相关AI指令和教程。图片来源于网络

10秒就能无中生有

记者经过搜索发现,在各大社交平台,依然还能搜出“流浪汉”相关AI指令和教程。在这些帖中,满屏都是网友们诉说如何用AI跟家人、朋友开玩笑的过程,并得意地附上聊天记录。看到对方焦急而紧张地回复,还会沾沾自喜,认为自己“幽默”“有梗”,还非常受人重视。

记者尝试用某知名AI软件进行实测。先拍摄一张自家客厅沙发的照片,将照片上传到该软件中,随后输入一段指令性提示词:把一名流浪汉P到沙发上坐着。随后AI自动补充了画幅比例、高品质等常见指令。点击生成按钮,经过10秒,流浪汉坐在记者家沙发上的照片便出现在眼前。AI还给出了两种不同选择:一张是一名流浪汉单脚踩在沙发上,目光盯着镜头;另一张,有两名流浪汉坐在沙发上看电视。

记者尝试用AI生成“流浪汉闯入家里”图片。图片由AI生成

若想升级成可信度更高的视频,只需稍等片刻。记者试着对两名流浪汉的那张照片,再次输入指令:把这张照片做成视频,让流浪汉动起来。AI立马回复,本次使用高品质模型生成,预计等待1-3分钟。大约1分钟,AI提醒记者:你的视频生成好啦。记者点开视频,看到两名流浪汉立马动起来了,一人左顾右盼,另一人抠手挠头,背景还营造出了手持相机的抖动感,甚至玻璃窗上也有倒影。这段视频时长5秒,不仅画面高清,还十分逼真。

在提前告知家人,图片和视频是AI生成的情况下,家庭群里个个看了都觉得不可思议,也有急得立马打来电话,再三确认没事后才放心。若不是因为有右下角有“AI生成”的标识,别说家中老人,许多年轻人也“真假难辨”。

在李女士的事件发生后,有人说妻子“不懂事”,也有人怪丈夫“太冲动”。可细细想来,相信妻子的初衷并非主动浪费公共资源,只是没料到AI能如此逼真;丈夫也并非“太冲动”,而是看到家人可能有危险,第一反应只想保护家人的安全。这也证明,一方面当下的AI已经足够强大,另一方面AI的使用门槛在变低。

无论是否是“玩笑”,这些行为都让AI的工具属性从“服务人”变成了“戏弄人”,不禁令人担忧一些别有用心的人,会借此骗取他人信任并以此牟利。

AI标识并非万能

用AI管AI,或许是当下最好的办法。

今年9月1日起,由国家互联网信息办公室等发布的《人工智能生成合成内容标识办法》开始施行,要求所有AI生成的文字、图片、视频等内容,都要“亮明身份”,即添加标识以明确其来源和真实性。

“疑似包含AI创作信息,请谨慎识别。”记者在浏览某短视频平台时,一些AI生成的短视频文案下方,被平台标注了这样的提示,确保用户与监管方能够清晰识别AI属性。

“除了这种显式标识,隐式标识更重要。”杭州电子科技大学网络空间安全学院、浙江-法国数字媒体取证联合实验室主任乔通告诉记者,以图像为例,像素之间存在大量肉眼无法察觉的信息,隐式标识可以通过微调部分像素值,将标识信息偷偷嵌入其中,“隐身”后的信息,不易让人察觉。“一旦有人利用AI生成伪造视频或者图像等内容,并在互联网进行不良传播,隐式标识就像一把‘定位钥匙’,帮助快速追溯内容来源。”乔通说。

此外,许多文档、图片、视频等内容本身都自带“元数据”,其中记录了创建时间、存储位置等基础信息,这些“元数据”也是“隐式标识”,等于“AI生成”的标识。

AI生成标识只是第一步。早在去年年底,许多知名平台就已开始布局,但现在,依然有很多小众平台成为“漏网之鱼”。AI生成标识并非“万能”,用户可以通过“P图”“转码”等办法进行一定程度的规避。

浙江-法国数字媒体取证联合实验室在线免费检测图片真伪。受访者供图

“即使没有标识,我们仍然可以通过一些特殊的技术手段完成鉴别。我们在研究过程中发现,AI生成的图片与真实图片的高频分量周期性存在差异,通过技术手段便可挑出关键特征,以此判定是否为AI生成。”乔通说。

眼见不一定为实,普通人该如何分辨?

乔通表示,AI生成的图片中,色彩、光线、人物、背景等会看起来非常完美,给人一种“P过头”的感觉;AI生成的高清视频,由于技术原因还不能达到非常高品质的程度,所以牙齿、脸部边缘等细节会有缺陷和不流畅。对于AI生成的音频,他认为,现在通过人耳是很难分辨是AI还是本人,尤其是简短的语音,只有通过技术手段可以识别。“总之,别转钱。”他提醒道。

如今,有许多AI产品通过真假参半来打“擦边球”。乔通举例,一些宠物博主通过实拍和AI结合,让自己的小猫咪一脚将球踢进球框,点赞人数上百万,收获一堆粉丝。虽然视频只为给大众图个乐子,但是此类视频往往没有AI标识,让人难以鉴别、浮想联翩。“若发现内容与日常认知存在偏差,逻辑或感官上‘别扭’,就需带着怀疑态度看待与核实。”他说。

今年上半年,杭州电子科技大学网络空间安全学院与杭州公安联合建立深度伪造检测服务机构,只要有质疑,需要科普的都可免费监测,希望这遏制更多AI伪造案件,提高群众的反诈意识。

2025年4月,杭州电子科技大学网络空间安全学院与杭州公安联合建立深度伪造检测服务机构。受访者供图

整蛊也要有底线

玩笑的本质是善意互动,而非肆意冒犯。如果用AI玩笑开大了,也暗藏着巨大风险。

金道律师事务所律师王杰认为,从法律层面看,行为人在被“整蛊”后陷入错误认知而报警,其本人不构成谎报假警,但整蛊者故意制作可能会引起他人误解的AI图片、视频,涉嫌扰乱公共秩序,根据《中华人民共和国治安管理处罚法》第二十九条,将面临5-10天拘留的处罚,最高可能需缴纳1000元罚款。如果视频被转发从而引发社会恐慌,可能触犯刑法的“编造虚假信息罪”,最高能判5年以上有期徒刑。

“AI属于新事物,通过AI生成的图片或视频,真假越来越难以辨别。”王杰指出,针对人工智能的相关法律法规在逐步出台和完善,目前已有《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等规范,对于AI生成物的用途、审核管理机制、数据和基础模型来源的合法性、知识产权及个人信息保护、显著标识添加等提出了具体化的要求。

图片来源:视觉中国

我国尚未形成专门针对人工智能侵权的系统性法律规定,在责任主体界定、过错认定等方面仍面临挑战。随着人工智能引发的致损事件不断增加,王杰认为,首先要让更多民众了解AI能做到什么样,就像人人都知道电信诈骗,便会时刻有警惕。他呼吁,市场需要一个像“反诈APP”的官方平台,用来识别AI图像、音频等真伪;人工智能服务提供者,也需要加强内容审核和审查工作,确保技术的合法合规使用。

今年上半年,最高法院刑事审判第三庭庭长陈鸿翔在接受媒体采访时表示,针对AI深度伪造带来的新情况新问题,最高法将加强研究,会同相关部门及时出台规范性法律文件或实施细则,完善法律适用。针对电信网络诈骗犯罪这一AI侵权的重要表现形式,他指出,诈骗分子利用AI深度伪造新技术不断翻新诈骗手法,防范打击难度越来越大。对此,人民法院将积极应对挑战,强化法律支撑,完善相关法律规范。

娱乐有尺度,玩笑有底线。AI整蛊的边界,从来不是技术能力的上限,而是法律与伦理的底线。在享受AI带来的便利与乐趣时,别让“玩梗”越过法律红线,别让技术凉了人心。

(来源:“网信浙江”微信公众号)

(链接:https://mp.weixin.qq.com/s/31nrSsNNpehJSbvtKcrgsw)