美国麻省理工学院(MIT)的计算机科学与人工智能实验室(CSAIL)提出了一种方法,可以保护你的照片不被人工智能修改。
这款名为PhotoGuard的工具通过改变图像中的像素,使人工智能难以理解,从而防止你的照片被滥用。据Engadget报道,它们被称为“扰动”,人眼看不见,但人工智能仍然可以读取。
这是在生成式人工智能(AI)兴起之际出现的,它冒着我们的照片被操纵并被用来对付我们的风险。我们已经在实践中看到了这一点,从穿着羽绒服的教皇方济各到冒牌马克·扎克伯格滔滔不绝地谈论他如何控制世界。
实现这一点的一种方法是使用“编码器”方法,该方法在描述图像中像素的位置和颜色的信息中引入了复杂性。这种改变会阻碍AI理解它所看到的东西。
第二种方法被称为“扩散”攻击,将图像伪装成人工智能眼中的另一种图像。这是通过从另一个目标图像中获取信息,并改变源图像中的像素来实现的,这将掩盖人工智能眼中的图像。
该论文的第一作者、麻省理工学院的博士生海蒂·萨尔曼在接受Engadget采访时表示,“涉及模型开发者、社交媒体平台和政策制定者的合作方式,为防止未经授权的图像操纵提供了强有力的防御。”
虽然这些技巧很有效,但它们并不是万无一失的。恶意攻击者仍然可以通过裁剪、翻转或添加数字噪声来对图像进行反向工程。
萨勒曼承认,“要使这种保护切实可行,还需要做很多工作。开发这些模型的公司需要投资于设计强大的免疫系统,以应对这些人工智能工具可能带来的威胁。”








