首页 / 科技讯 / 正文

麻省理工学院的新工具“PhotoGuard”帮助对抗人工智能操纵

放大字体  缩小字体 2023-07-31 15:47  浏览次数:14 来源:明日科学网    

美国麻省理工学院(MIT)的计算机科学与人工智能实验室(CSAIL)提出了一种方法,可以保护你的照片不被人工智能修改。

这款名为PhotoGuard的工具通过改变图像中的像素,使人工智能难以理解,从而防止你的照片被滥用。据Engadget报道,它们被称为“扰动”,人眼看不见,但人工智能仍然可以读取。

这是在生成式人工智能(AI)兴起之际出现的,它冒着我们的照片被操纵并被用来对付我们的风险。我们已经在实践中看到了这一点,从穿着羽绒服的教皇方济各到冒牌马克·扎克伯格滔滔不绝地谈论他如何控制世界。

实现这一点的一种方法是使用“编码器”方法,该方法在描述图像中像素的位置和颜色的信息中引入了复杂性。这种改变会阻碍AI理解它所看到的东西。

第二种方法被称为“扩散”攻击,将图像伪装成人工智能眼中的另一种图像。这是通过从另一个目标图像中获取信息,并改变源图像中的像素来实现的,这将掩盖人工智能眼中的图像。

该论文的第一作者、麻省理工学院的博士生海蒂·萨尔曼在接受Engadget采访时表示,“涉及模型开发者、社交媒体平台和政策制定者的合作方式,为防止未经授权的图像操纵提供了强有力的防御。”

虽然这些技巧很有效,但它们并不是万无一失的。恶意攻击者仍然可以通过裁剪、翻转或添加数字噪声来对图像进行反向工程。

萨勒曼承认,“要使这种保护切实可行,还需要做很多工作。开发这些模型的公司需要投资于设计强大的免疫系统,以应对这些人工智能工具可能带来的威胁。”

邀请你的朋友和家人注册MC Tech 3,我们的每日通讯,打破了当天最大的技术和创业故事

DAILY-EVENING

订阅你的收件箱里最热门的科技和创业故事,以此结束你的一天

DAILY-EVENING

订阅你的收件箱里最热门的科技和创业故事,以此结束你的一天

声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱: