Select Language

AI社区

数据要素产业

欧盟公布人工智能规则以解决“老大哥”担忧

欧盟(EU)当地时间4月21日公布了一项计划,对人工智能这一庞大领域进行监管,目的是帮助欧洲在新技术革命中避免落后,同时遏制老大哥式滥用权力的威胁。欧盟的声明中称,面对人工智能技术的快速发展,以及越来越多的国家在人工智能领域投入巨资的全球政策背景,欧盟必须团结一致,以一种面向未来的方式利用人工智能带来的众多机遇和挑战。为了促进人工智能的发展,并平等地解决人工智能对安全和基本权利构成的潜在高风险,该委员会提出了人工智能监管框架的建议,并修订了人工智能协调计划。

这份108页的政策(欧洲议会和理事会关于制定人工智能协调规则(人工智能法案)和修订某些联盟立法的提案)试图在一项新兴技术成为主流之前对其进行监管。这些规定对亚马逊(Amazon)、谷歌、Facebook和微软(Microsoft)等大型科技公司有着深远的影响,这些公司已经投入大量资源开发人工智能,但也对其他数十家使用AI开发药物、承保保单和判断信用价值的公司产生了影响。政府已经在刑事司法和分配收入支持等公共服务中使用了这种技术。

新规引发各方强烈反应

违反新规定的公司可能需要数年时间才能通过欧盟的政策制定程序,它们可能面临高达全球销售额6%的罚款。

欧盟竞争委员会主席玛格丽特维斯特格说:“通过这些具有里程碑意义的规则,欧盟正在引领制定新的全球规范,以确保人工智能可以被信任。”

“通过制定标准,我们可以为世界范围内的伦理技术铺平道路,并确保欧盟在这一过程中保持竞争力。”

欧盟执行机构欧盟委员会(European Commission)已经为该提议准备了一年多的时间,在最终文本生效之前,一场由欧洲议会(European Parliament)和27个成员国参与的辩论还将持续数月。

欧盟(EU)正寻求在其首个有关人工智能的法律方案中设定条款,并在从语音识别到保险和执法的各个领域追赶美国和中国。

欧盟在很大程度上错过了互联网革命,也未能产生任何可以与硅谷巨头或中国同行匹敌的主要竞争对手,目前它正在努力吸取教训。

但大型科技公司和公民自由组织对这些计划都存在相互矛盾的担忧,他们认为欧盟要么做得过火,要么做得不够。

欧盟公布的这项法律草案引发了不同的反应。许多行业组织表示,对这些规定没有更严格感到松了口气,而民间社会组织则表示,它们本应更进一步。

“高风险”

为了促进创新,布鲁塞尔方面希望为欧盟27个成员国的企业提供一个清晰的法律框架。

欧盟内部市场专员蒂埃里布雷顿表示:“今天的提议旨在加强欧洲作为从实验室到市场的全球人工智能卓越中心的地位。”

该法规草案列出了一种“基于风险的方法”,将导致禁止数量非常有限的被视为对欧盟基本权利构成“不可接受风险”的用途。

这将使对民众的“普遍监视”以及“用于操纵公民行为、意见或决定”的任何技术成为禁区。

任何类似于基于个人行为或个性对其进行社会评级的行为也将被禁止。

在以下一级,监管规定要求企业对被视为“高风险”的申请在上市前获得特别授权。

这些系统将包括“公共场所人员的远程生物识别”(包括面部识别),以及“关键公共基础设施中的安全元素”。

在某些情况下,如寻找失踪儿童、避免恐怖威胁或追踪涉嫌严重犯罪的人,可以考虑使用大规模面部识别系统。

人工智能的军事应用将不受规则的限制。

其他未被列为“高风险”的用途,除了现有的用途外,将没有额外的监管限制。

侵权行为,视其严重性而定,可能会给公司带来巨额罚款。

难以平衡

谷歌和其他科技巨头正在非常认真地对待欧盟的人工智能战略,因为欧洲经常就如何监管世界各地的科技制定标准。

去年,谷歌警告称,欧盟对人工智能的定义过于宽泛,布鲁塞尔必须避免对一项关键技术进行过度监管。

智库欧洲监管中心(Centre on Regulation in Europe)联席主任亚历山大.德.斯特雷尔(Alexandre de Streel)表示,保护和创新之间很难达到平衡。

他对法新社表示,该文本“设定了一个相对开放的框架,一切都将取决于如何解读。”

来自计算机和通信行业协会的科技说客克里斯蒂安.博格格林欢迎欧盟以风险为基础的方法,但警告不要扼杀工业。

他在一份声明中表示:“我们希望该提议将进一步澄清和有针对性,以避免开发商和用户遇到不必要的繁文缛节。”

公民自由活动人士在公布前警告说,这些规定在遏制尖端技术可能出现的滥用方面做得还不够。

“它仍然允许一些有问题的用途,如大规模生物识别监视,”雨伞组织自由的Orsolya Reich说。

“欧盟必须采取更强硬的立场……禁止不分青红皂白地监视民众,不允许有任何例外。”

“已经有很多的讨论在过去的几年里什么调节我。这将意味着,和后备选项,日期是什么都不做,等待,看看会发生什么,”卡莉说,伦敦Ada Lovelace研究所所长,研究伦理使用人工智能。“这是第一次有国家或地区集团这样做。”

金德说,很多人担心这项政策过于宽泛,给公司和技术开发人员留下了太多的自由裁量权,让他们自己监管自己。

“如果不制定严格的红线和指导方针,以及关于什么是可接受的非常严格的界限,就会有很多解读的空间,”她说。

美国老大哥的做法

在美国,拜登总统让他的政府充满了行业批评人士。英国正在建立一个技术监管机构来监管该行业。印度正在加强对社交媒体的监管。中国已经把目标对准了阿里巴巴和等国内科技巨头。

在美国,政府当局也在考虑人工智能的风险。

本周,联邦贸易委员会(Federal Trade Commission)警告,不要销售使用带有种族偏见的算法,或可能“拒绝人们就业、住房、信贷、保险或其他福利”的人工智能系统。

在马萨诸塞州和加州奥克兰等城市;俄勒冈州波特兰。在旧金山,政府已经采取措施限制警察使用面部识别。

未来几年的结果可能会重塑全球互联网的运作方式和新技术的使用方式,人们将根据自己所处的位置获得不同的内容、数字服务或在线自由。

人工智能被技术专家、商业领袖和政府官员视为世界上最具革命性的技术之一,有望大幅提高生产率。人工智能是一种训练机器通过研究大量数据来完成工作和自主决策的技术。

但随着系统变得越来越复杂,理解软件为什么要做决定就变得越来越困难,而随着计算机变得越来越强大,这个问题可能会变得更糟。研究人员对它的使用提出了伦理问题,认为它可能会延续社会中现有的偏见,侵犯隐私,或导致更多的工作被自动化。

公平和合乎道德的人工智能的发展已成为硅谷最具争议的问题之一。去年12月,谷歌研究软件道德使用的一个团队的联合负责人表示,她被解雇的原因是批评该公司缺乏多样性,以及现代人工智能软件内置的偏见。在谷歌和其他公司内部,围绕向政府出售用于军事用途的尖端软件展开了激烈的辩论。

系列回顾

⊙中国军工四位最棒的女人

⊙秦安战略:德纳:特斯拉、“星链”如何成为未来武器?答案来了,事急矣

⊙秦安战略:俄封锁刻赤海峡,乌克兰军舰回不去了,中国封堵台湾海峡将如何?

END