通过
纽约(CNN)——上个月,一张据称显示五角大楼附近发生爆炸的图片在社交媒体上传播了一小段时间,引发了恐慌和市场抛售。这张照片具有人工智能生成的所有特征,后来被当局揭穿。
但Truepic的首席执行官杰弗里?麦格雷戈(Jeffrey McGregor)表示,这“确实只是未来趋势的冰山一角”。正如他所说,“我们将看到更多人工智能生成的内容开始出现在社交媒体上,而我们只是没有为此做好准备。”
麦格雷戈的公司正在努力解决这个问题。Truepic提供的技术声称可以通过其Truepic Lens在创作时对媒体进行认证。该应用程序捕获数据,包括日期、时间、地点和用于制作图像的设备,并应用数字签名来验证图像是有机的,还是由人工智能操纵或生成的。
微软支持的Truepic成立于2015年,比Dall-E和Midjourney等人工智能图像生成工具早了几年。现在,麦格雷戈说,公司看到了“任何根据照片做出决定的人”的兴趣,从非政府组织到媒体公司,再到想要确认索赔是否合法的保险公司。
麦格雷戈说:“当任何东西都可以伪造时,一切都可以伪造。”“知道生成式人工智能在质量和可访问性方面已经达到了临界点,当我们在线时,我们不再知道现实是什么。”
像Truepic这样的科技公司多年来一直在努力打击网上的错误信息,但一批新的人工智能工具的兴起,可以根据用户的提示快速生成引人注目的图像和书面作品,这给这些努力增加了新的紧迫性。最近几个月,一张由人工智能生成的教皇方济各身穿羽绒服的图片在网上疯传,前总统唐纳德·特朗普在被起诉前不久被捕的人工智能图像也被广泛分享。
一些议员现在呼吁科技公司解决这个问题。欧盟委员会副主席维拉·朱罗娃(Vera Jourova)周一呼吁《欧盟虚假信息行为准则》(European Code of Practice on Disinformation)的签署国——包括谷歌、meta、微软(Microsoft)和TikTok——“实施识别此类内容的技术,并向用户明确标明”。
越来越多的初创公司和大型科技公司,包括一些在其产品中部署生成式人工智能技术的公司,正试图实施标准和解决方案,以帮助人们确定图像或视频是否由人工智能制作。其中一些公司有“现实卫士”(Reality Defender)这样的名字,这说明了这项工作的潜在风险:保护我们对真实和不真实的感知。
但由于人工智能技术的发展速度超过了人类的能力,目前还不清楚这些技术解决方案是否能够完全解决这个问题。就连Dall-E和ChatGPT背后的OpenAI公司也在今年早些时候承认,他们自己帮助检测人工智能生成的文字(而不是图像)的努力“不完美”,并警告说,应该“持保留态度”。
“这是为了缓解,而不是消除,”加州大学伯克利分校的数字法医专家、教授哈尼·法里德告诉CNN。“我不认为这是一个失败的原因,但我确实认为有很多事情要做。”
“希望,”法里德说,是达到一个点,“一些青少年在他父母的地下室不能创造一个形象,影响选举或移动市场5000亿美元。”
“军备竞赛”
企业普遍采取两种方法来解决这个问题。
一种策略是开发程序,在图像被制作并在网上分享后,识别出它们是人工智能生成的;另一种方法是通过一种数字签名将图像标记为真实的或人工智能生成的。
Reality Defender和Hive Moderation正在开发前者。在他们的平台上,用户可以上传现有的图像进行扫描,然后立即收到一个分解的百分比,表明它是真实的还是基于大量数据的人工智能生成的可能性。
Reality Defender是在“生成式人工智能”成为热词之前推出的,是竞争激烈的硅谷科技加速器Y Combinator的一部分。该公司表示,它使用“专有的深度伪造和生成式内容指纹技术”来识别人工智能生成的视频、音频和图像。
在该公司提供的一个例子中,“现实卫士”(Reality Defender)将一张汤姆?克鲁斯(Tom Cruise)的深度造假照片突出显示为53%的“可疑”,并告诉用户它已经找到证据表明这张脸是扭曲的,“这是一种常见的图像操纵产物”。
如果这个问题成为企业和个人经常关注的问题,捍卫现实可能会成为一项有利可图的业务。这些服务提供有限的免费演示和付费等级。Hive Moderation表示,它每1000张照片收费1.5美元,并提供折扣的“年度合约交易”。Realty Defender表示,其定价可能会因各种因素而有所不同,包括客户是否需要“任何需要我们团队专业知识和协助的定制因素”。
“风险每个月都在翻倍,”现实卫士的首席执行官本·科尔曼告诉CNN。“任何人都能做到这一点。你不需要计算机科学博士学位。你不需要在亚马逊上启动服务器。你不需要知道如何编写勒索软件。任何人都可以通过谷歌搜索‘假脸生成器’来做到这一点。”
Hive Moderation的首席执行官Kevin Guo将其描述为“一场军备竞赛”。
“我们必须不断关注人们创造这些内容的所有新方式,我们必须理解它,并将其添加到我们的数据集中,然后对未来进行分类,”郭告诉CNN。“现在只有一小部分内容是由人工智能生成的,但我认为这种情况在未来几年将会改变。”
预防性方法
在另一种不同的预防方法中,一些大型科技公司正在努力将一种水印集成到图像中,以在媒体首次创建时证明它们是真实的还是人工智能生成的。到目前为止,这项工作主要是由内容来源和真实性联盟(简称C2PA)推动的。
C2PA成立于2021年,旨在制定证明数字媒体来源和历史的技术标准。它结合了adobe领导的内容真实性倡议(Content Authenticity Initiative, CAI)和Project Origin的努力,后者是微软和英国广播公司(bbc)牵头的一项旨在打击数字新闻中的虚假信息的倡议。其他参与C2PA的公司包括Truepic、英特尔和索尼。
基于C2PA的指导方针,CAI为公司创建内容凭证或包含图像信息的元数据提供了开源工具。根据CAI网站的说法,这“允许创作者透明地分享他们如何创建图像的细节”。“通过这种方式,最终用户可以了解照片被修改的内容、人物和方式,然后自己判断照片的真实性。”
“Adobe在这方面没有一个收入中心。我们这样做是因为我们认为这必须存在,”CAI高级总监安迪·帕森斯告诉CNN。“我们认为这是一个非常重要的基本对策,可以打击错误和虚假信息。”
许多公司已经将C2PA标准和CAI工具集成到他们的应用程序中。Adobe的Firefly,一个最近添加到Photoshop中的人工智能图像生成工具,通过内容凭证功能遵循标准。微软还宣布,由必应图像创作者和微软设计师创作的人工智能艺术将在未来几个月内携带加密签名。
谷歌(Google)等其他科技公司似乎正在寻求一种从这两种方法中汲取一些经验的策略。
今年5月,谷歌发布了一个名为about this image的工具,让用户能够看到在其网站上找到的图片最初是什么时候被谷歌索引的,这些图片可能首次出现在哪里,以及它们可以在哪里被在线找到。这家科技公司还宣布,谷歌创建的每张人工智能生成的图像,如果在其他网站或平台上找到,将在原始文件中带有标记,以“提供上下文”。
不仅仅是私营部门的解决方案
虽然科技公司正试图解决人们对人工智能生成图像和数字媒体完整性的担忧,但该领域的专家强调,这些企业最终需要相互合作,并与政府合作来解决这个问题。
法里德说:“我们需要全世界的推特和脸书的合作,让他们开始更认真地对待这些东西,停止推广虚假的东西,开始推广真实的东西。”“我们还没有谈到监管方面的问题。我们还没有谈到教育方面的问题。”
帕森斯同意了。他说:“这不是一家公司、一个政府或学术界的一个人能做到的。”“我们需要每个人都参与进来。”
然而,就目前而言,科技公司继续向前推进,将更多的人工智能工具推向世界。
The-CNN-Wire?&?2023有线新闻网,Inc.,华纳兄弟发现公司。版权所有。








