长城网·冀云客户端特约评论员 陈白
近日,用AI制作“流浪汉闯入家中”图片来整蛊家人的帖子,在社交平台走红。据媒体报道,10月17日晚,安徽一女子用AI工具生成了高度逼真的“流浪汉卧坐餐厅”等图片,发给在外聚餐的丈夫,想测试其反应,没想到丈夫信以为真,当即报警求助。
事实上,最近一段时间,多地已出现类似AI整蛊引起的闹剧,有的引发整栋楼逐层排查,有的导致亲属紧急奔袭。民警提醒,此类行为若造成严重后果,可能触犯法律红线,面临拘留罚款甚至刑事责任。
案件虽然暂时并未引发什么剧烈社会冲击,但这事实上触及的是一个核心的科技伦理问题:我们应该如何使用那些能够“以假乱真”的技术?
生成式AI的迅猛发展,为人类社会带来了前所未有的机遇。但AI的真正价值,应当是在于“辅助真实”:它可以帮助科学家加速药物研发、辅助医生进行精准诊断、帮助艺术家拓展创意边界、辅助教育者实现个性化教学。AI应当是放大人类智慧、善意和创造力的工具,是探索未知、追求真理的伙伴。
但AI整蛊造假,却走向了其使命的反面。它利用AI强大的图像生成能力,凭空捏造出一个令人不安的“虚假现实”,而这么做的唯一目的,就是引发受众的负面情绪——恐惧、焦虑和羞辱感。
当一项技术被有意识地用于欺骗、操纵和恐吓时,它就偏离了“科技向善”的轨道。如果放任这种“娱乐至死”的滥用,我们就是在默许AI成为一种“合法”的造假工具。今天它可以用来“整蛊”伴侣,明天它就可以被用来制造更严重的虚假信息。
而今天被我们看到的“AI流浪汉”整蛊,只是当下AI乱象的冰山一角。在技术狂飙突进的浪潮之下,一股“玩坏科技”的暗流正在涌动。在信息领域,AI深度伪造(Deepfake)技术正被用于制造虚假的政治演讲、色情报复和金融诈骗。AI语音合成技术,能轻易模拟亲人的声音,制造出以假乱真的“绑架”勒索电话。在内容领域,AI被用于批量生成同质化、低质量的“垃圾内容”,充斥网络空间,严重污染信息生态。一些人甚至利用AI生成虚假的悲惨故事,在社交媒体上博取同情、收割流量。在创意领域,关于AI“窃取”艺术家风格、版权归属不清的争议从未停止,技术在带来效率的同时,也在冲击着原创的价值和创作者的生计。
如果AI被反复用于造假、欺骗和恶作剧,公众对数字世界的信任将被迅速透支。第一次,我们或许会为“AI流浪汉”的逼真而惊奇;第二次,我们可能会对AI诈骗提高警惕;而第三次,当真实世界发生了事故、灾难时,我们的第一反应可能不再是“相信”,而是怀疑“这是不是AI生成的”。
这就是新技术“狼来了”的悲剧:当“假”的成本变得极低,“真”的价值就被无限稀释。最终,社会也将为这种信任的崩塌付出沉重代价,而技术本身所蕴含的巨大善意和潜能,也将被这种“玩坏了”的局面所吞噬。
技术本身是中立的,但使用技术的人心和随之形成的社会风气,却必须有明确的伦理导向。AI不应是释放人性之恶的“潘多拉”魔盒,面对“AI流浪汉”这样的低级趣味,我们不能止步于“不好笑”的道德评判。
我们更需要一场从个体到平台的集体反思。作为使用者,我们应建立起“数字同理心”和“技术敬畏心”,拒绝成为恶意和庸俗的传播者。作为平台,更应肩负起“守门人”的责任,对利用新技术传播有害信息、违背公序良俗的行为进行严格限制。唯有不断进行方向校准,AI技术革命才能发挥其最大的价值。