女子地铁内“裸照”被疯传?怒了!没人管得了这种恶行吗?!

147小编 77 2024-12-20

最近,#广州地铁#登上热搜

起因是一女子在地铁上的裸体照片被疯传

但事实上

这张裸体照并非真实照片

而是被AI技术“一键脱衣”生成的

照片的女主角是小红书的一名穿搭博主

而所谓的“裸照”

是她去年7月在平台分享的一张日常照片

原图中她衣着正常

没有任何不妥之处

甚至贴心地给路人打了码

没想到却被有心之人恶意P图

全网散播

耸人听闻的谣言顺着网络四散全国

跑得比癌细胞还快

值得欣慰的是

在这则图文分享的评论区

已经有众多正义网友提醒博主被造黄谣

催促其尽快报警

也有人热心地帮助其辟谣澄清

博主也已在评论区回复

称会进行相关的维权处理

死灰复燃的AI脱衣

伪造谣言百口莫辩

早在2019年,国外程序员就开发出了DeepNude这款使用AI技术“脱衣”的应用,通过使用类似deepfakes的深度学习技术,DeepNude使用女性裸照训练之后可将图像中女性身上的衣服替换掉,创造出几可乱真的合成裸照,也就是大家所说的“一键脱衣”。

后因广泛的舆论争议,开发团队选择将该项目关闭。

但通过网站搜索“AI脱衣软件”,仍然会出现众多“替代品”。

点开其中一个软件

甚至在产品说明页中

有着详细的说明和“优势”“亮点”

随着AI制图的迭代更新

技术进步已经让网友大呼

假新闻越来越难以分辨了

看看兵马俑玩电脑和

达斯维达访问中国农村的图片

大脑告诉你这不是真的

但眼睛又觉得是那么真实

换上一张公众人物的脸

分分钟就让人觉得“有图有真相”

以至于一些热门推文

被标上提示信息

“这是AI生成的假照片”

有博主发视频称

在现今AI强大的算法下

时间、地点都对得上的情况下

伪造谣言对普通人来说百口莫辩

而唾手可得的脱衣软件

更让造谣者有机可乘

AI换脸换装

或涉嫌刑事犯罪

近年来,“AI换脸”走红网络,一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。

这些“换脸”的受害人,不止素人,不止女性,男明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。

专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。

科学技术被发明出来

本意都是“为人”“向善”

如果只用来制造黄色垃圾

不单是对被造黄谣者和技术本身的侮辱

也是对造谣者的一种无声嘲讽

“别人越进化越高级

怎么就你

进化得这么Low?”

综合自新闻晨报、泾渭视频、央视网等

来源: 上海新闻广播

上一篇: 女子地铁内“裸照”被疯传?网友怒了!
下一篇: 被人冤枉时,如何一句话堵住对方的嘴?
最新文章