首页 / 生活 / 正文

人工智能安全峰会及其批评者

放大字体  缩小字体 2023-11-09 16:34  浏览次数:3 来源:大智报    

上周在英国举行的人工智能安全峰会(AI Safety Summit)——据与会者所说——取得了令人振奋的成功——但批评者指责这些领导人生活在幻想世界中。

这些批评是人工智能社区日益严重的分歧的一部分,这些分歧是关于应该在多大程度上关注可能……终结世界的“前沿”模型的“存在”风险。人工智能政策界正处于十字路口,这将决定该技术的未来是考虑到当下的社会风险,还是着眼于科幻未来,即关于治理的观念被有效颠覆,而双方都声称他们对该技术的看法包含了这两种风险。

“看到世界上一些最强大的国家优先考虑无法证明和无法证伪的风险,这令人失望,”数据与社会政策主管布莱恩·陈(Brian Chen)在一封电子邮件中说。“各国正在投入大量的制度资源来调查在实证调查的基本原则下站不住脚的存在主义主张。”

换句话说,关于人工智能的斗争不应该是防止天网杀死我们,而应该更多地保护消费者免受不透明算法的影响,这些算法会决定拒绝住房贷款或拒绝为医疗程序提供保险。陈和他的同事们确实认为政府在人工智能安全方面可以发挥作用。但在硅谷,哪怕是一点点“末日论”也会引发一种担忧,即最大的人工智能开发商正试图通过牺牲假设的威胁来掩盖当前的威胁,从而巩固自己在该领域的主导地位。

AI Now研究所(AI Now Institute)的安巴·卡克(Amba Kak)是上周峰会上为数不多的公民社会代表之一,他在会议结束时表示,“我们面临着进一步巩固少数私人行为体对我们的经济和社会机构的主导地位的风险。”Kak在讲话中承认拜登政府为鼓励公平竞争和纠正人工智能领域的偏见所做的努力,但她表示,未来的聚会应该包括全社会的声音,而不仅仅是最大的科技公司和政府领导人。

一些团体认为,当今的人工智能安全与向新玩家开放的竞争性行业是密不可分的。Mozilla基金会(Mozilla Foundation)主席马克•苏曼(Mark Surman)和研究员卡米尔•弗朗索瓦(Camille franois)昨日在一篇博客文章中表示,在他们看来,当前由行业巨头主导的人工智能政策辩论具有不民主的本质,“竞争是一剂解药”。

他们强调让每个人都能使用人工智能开发工具,指责OpenAI等主要参与者利用“对生存风险的恐惧,提出会关闭开源人工智能的方法”。(在万圣节发表的一份“联合声明”中,苏曼、弗朗索瓦和元人工智能首席执行官扬·勒昆都有签名,呼吁将开源人工智能开发作为“全球优先事项”。)

正如Kak所暗示的那样,美国的一些领导人已经公开谈论了这些问题。副总统卡玛拉·哈里斯在上周的峰会上直言不讳地敦促其他全球领导人和人工智能公司优先考虑此时此刻算法歧视的风险。美国联邦贸易委员会(Federal Trade Commission)主席莉娜·汗(Lina Khan)今年5月在《纽约时报》(New York Times)上撰文称,“人工智能的广泛应用可能会进一步锁定大型科技公司的市场主导地位”,并敦促政府效仿Mozilla所呼吁的反垄断政策。

拜登政府的行政命令确实解决了这些问题,具体指示汗领导的联邦贸易委员会调查人工智能领域的垄断行为,为政府使用人工智能建立隐私保护,并命令住房和城市发展部为停止贷款中的歧视性人工智能系统提供指导。《布莱切利宣言》本身详细阐述了人类面临的直接风险和边疆末日模型的末日预言。

尽管如此,对于一些行业和政府以外的人来说,他们研究了过去科技时代的政策斗争,他们会相信,人工智能巨头在看到自己产品的潜在危害时,会自愿接受问责。

“我们……需要一个更全面的、以人为本的人工智能系统的愿景——它们对工人的影响,它们对数据的提取,它们对能源和水的大量消耗,”陈说。“上周的峰会缺乏这一点。”

meta对如何监管其平台上的政治广告和内容进行了另一项调整。

该公司今天在一篇博客文章中宣布,当内容被生成式人工智能或其他数字工具创建或修改时,它将向用户披露。

从“新的一年”开始,广告商将被要求披露他们何时使用人工智能生成的内容来描述事件或演讲,而这些事件或演讲实际上并没有发生在现实生活中的政治辩论背景下。然后meta会通知观众,广告商自愿披露了其中一项信息,如果广告商没有这样做,meta将删除广告,并对多次未披露的广告进行“处罚”。

加州大学伯克利分校的研究人员今天发表了一份报告,为评估人工智能系统的风险设定了全面的标准。

这份长达118页的文件规定了最佳做法,旨在补充美国国家标准与技术研究所(National Institute for Standards and Technology)和国际标准化组织(International Organization for Standardization)制定的做法。

作者写道:“我们希望这份概要文件主要供大规模、最先进的GPAIS的开发人员使用,”并表示,它“旨在帮助关键参与者……实现对个人、社区、组织、社会和地球的利益最大化和负面影响最小化的结果”,包括“保护人权,将负面环境影响最小化,以及预防在社会规模上具有系统性或灾难性后果的不良事件。”

主要建议包括为人工智能的使用建立风险承受阈值,使用红队和对抗性测试,以及让系统的外部行为者和用户参与风险识别过程。

与整个团队保持联系:Ben Schreckinger ([email protected]);Derek Robertson ([email protected]);Mohar Chatterjee ([email protected]);Steve Heuser ([email protected]);Nate Robson ([email protected])和Daniella Cheslow ([email protected])。

如果你已经收到了这份时事通讯,你可以注册并阅读我们提供的链接。

声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱: