首页 / 生活 / 正文

在Rashmika Mandanna之后,《老虎》中卡特里娜·凯夫的毛巾场景用Deepfake进行了变形

放大字体  缩小字体 2023-11-09 09:26  浏览次数:1 来源:大智报    

在拉什米卡·曼丹娜(Rashmika Mandanna)最近疯传的深度假视频之后,她即将上映的电影《老虎3》(Tiger 3)中的卡特里娜·凯夫(Katrina Kaif)的剪辑照片在社交媒体上疯传。在最初的照片中,卡特里娜被看到与一名好莱坞女特技演员裹着毛巾打架。然而,在修改后的照片中,卡特里娜穿了一件低胸白色上衣,而不是毛巾。这张照片是用Deepfake人工智能工具修改的。

卡特里娜从电影《老虎3》(Tiger 3)的场景中截取的篡改照片引发了人们的担忧,因为深度伪造技术可以很容易地拍摄真人的照片,并将其改变成完全不同的样子。在这个例子中,照片中她穿的衣服与她在电影中实际穿的衣服不同。

在拉什米卡·曼丹娜(Rashmika Mandanna)的案例中,一段深度造假的视频显示了她从未经历过的情况,这可能会损害她的声誉,并让人们分不清真假。这段视频展示了这位人气演员进入电梯的情景。记者兼研究员Abhishek Kumar引起了人们对这一问题的关注,他呼吁建立一个法律和监管框架来解决印度日益严重的深度造假问题。

对于那些不熟悉深度造假技术的人来说,它涉及使用先进的人工智能来创建高度逼真但往往具有欺骗性的数字内容。这项技术可以在视频或录音中操纵一个人的外表和声音,这使得区分真实和被操纵的内容变得很困难。

在拉什米卡·曼丹娜的视频中,最初的镜头是英裔印度网红扎拉·帕特尔(Zara Patel),但她的脸是用深度假技术用演员的脸进行数字替换的。这种深度虚假内容引发了人们对其可能被滥用以及需要采取法律措施打击其扩散的担忧。

Deepfake是一种利用人工智能将现有图像或视频中的人物替换为其他人的肖像的合成媒体。虽然伪造内容的行为已经过时,但深度伪造利用机器学习和人工智能的强大技术来操纵或生成具有高欺骗性的视觉和音频内容。

深度造假通常可以通过不自然的面部表情或动作来识别,比如眨眼太频繁或不够频繁,或者动作太僵硬或不稳定。眼睛是判断视频真假的一个很好的指示器。深度伪造者的眼睛通常模糊或没有聚焦,或者眼睛与人的头部运动不匹配。

声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱: