只要上传一张女性的照片,DeepNude就可以自动把女性的衣服扒光,伪造出超逼真裸照。(图撷取自推特 @verge)

AI换脸的技术越来越发达,近日有工程师开发出一个名叫DeepNude的APP,只要上传一张女性的照片,DeepNude就可以自动把女性的衣服扒光,伪造出超逼真裸照。由于争议太大,DeepNude上市不到几天就迅速下架,但仍在网络上引发热议。

综合媒体报导,DeepNude可以将穿着衣服的女性照片转换成裸照,照片中裸露越多肌肤,修改的效果越好。这个APP只能修改女生的照片,如果上传男性的照片,DeepNude会自动替换成女性性征。如果使用卡通人物照片,影像会完全扭曲。

DeepNude创建者,化名Alberto,一开始他是在一本旧漫画杂志上看到一个X光眼镜的广告,广告声称戴上眼镜可以让人看透衣服下的春光,2年前Alberto又发现GAN(Generative Adversarial Networks)能将白天的照片转换成黑夜,他想到自己可以透过技术让X光眼镜的构想成真,于是动手研发。

目前DeepNude只适用于女性的照片,原因是女性的裸照在网络上更容易找到,Alberto表示日后也希望创造一个男性版本的APP。Alberto强调:「我不是偷窥狂,我是技术爱好者。」

有人问他,担不担心这个APP会伤害到别人,Alberto表示,DeepNude能做到的,Photoshop使用者经过学习也能做到。他也指出,DeepNude不会自己传输图像,只是创造出照片,并提供给用户使用。Alberto说:「就算我不做,一年内也会有其他人研发出来。」

但对于这款应用,外界大多是震惊和批判。DeepNude和去年使用AI技术将色情影片主角换脸的「Deepfake」的算法相似,但DeepNude技术更先进、操作更简单、处理也更快。这种技术很容易就会成为伤害女性的工具,例如在未经女性同意的情况下,擅自使用她的照片合成,或在网络上恶意散布这些「假色情照片」,这些都会对女性造成伤害。

反报复色情活动组织(BADASS)创办人兼执行长鲍登(Katelyn Bowden)表示,即使是没有拍过裸照的人,现在都可能成为受害者。他直言:「这种技术根本不应该向公众开放。」

马里兰大学凯里法学院教授西龙(Danielle Citron)指出,DeepNude完全是在「侵犯性隐私」。她说:「是的,这不是你真正的私处,但其他人『认为』他们看见了你的裸体。」

由于招受许多批评,DeepNude很快就下架了,开发团队在推特发文表示他们「大大低估了」公众的兴趣,并表示因为人们滥用的可能性太高,DeepNude将不会再发布所有版本。他们表示:「世界还没有为DeepNude做好准备。」