不要对人工智能严防死守

在数据保护和人工智能技术监管方面,欧盟一直走在立法实践的最前端。当地时间4月21日,欧盟委员会公布了名为“Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts” 的草案,对人工智能技术应用进行了风险评定。


根据这份草案,欧盟将全面禁止大规模监控和利用人工智能技术的社会信用体系,同时对特定领域的 “高风险” 应用进行严格限制。


2020年2月19日,欧盟委员会曾发布了名为“White Paper on Artificial Intelligence - A European approach to excellence and trust”的白皮书,就如何促进人工智能发展及解决相关风险进行了讨论。而 21日发布的这项草案正是白皮书的法律延伸,目的在于为实现可信赖的人工智能生态系统提供牢固的法律框架。


一旦得到通过,这项法案将在很大程度上对其他地区的人工智能治理带来影响,就如 2018年 5月 25日生效的《欧盟一般数据保护条例》(GDPR)一样。


这一法案引发全球讨论,我们在几天前已经发布了一篇对相关法案的支持文章,今天的这篇文章将反思这一法案可能导致的科技倒退,讲述一些不同的声音。


这是文章的内容——


可怜的人工智能:科技的替罪羊。


它在无数的电影中扮演反派,是等待从人群中揪出你的脸,抢走你的工作,把你的脸放在别人的身上,以及不小心发动核打击的恶棍。


这些担忧是如此具体,以至于人工智能监管现在正远远领先于更普遍、可能更必要的科技行业监管(数据、竞争、内容控制和节制)。


本周早些时候,欧盟发布了一份108页的人工智能政策文件,提出了全面的人工智能法规,试图触及人工智能发展的几乎所有方面。正如数据创新中心人工智能政策高级分析师Ben Muller在他冗长的推特上指出的那样,这些政策的通过将给试图开发新人工智能的需要遵守一系列令人眼花缭乱的新规定公司(尤其是小公司)带来巨大的负担。


虽然这些法规可能需要几年时间才能成为法律,但可能世界各地的科技公司都在警惕地看着这份政策文件。就像之前的《通用数据保护条例》(GDPR)一样,这项由欧盟制定的法规将产生深远的影响。开发技术的公司,包括人工智能,都是着眼于全球的。始于一个地方的法规通常会迁移。欧洲严格的人工智能规则也可能会改变美国的人工智能格局。


我们有理由为欧盟的提议欢呼。这意味着人们正在考虑在执法、性别和种族偏见方面潜在的人工智能滥用的问题。


然而,该提案慷慨地将 “高风险”指向大多数人工智能系统,而且该提案所要求的完美似乎几乎不可能实现。


“高风险的人工智能系统应该在其整个生命周期中表现出稳定性,并根据公认的技术水平达到适当的准确性、稳健性和网络安全水平。准确度和准确度指标的水平应被传达给用户”。人类仍然对这些系统进行编程和训练。即使有所有必要的检查和平衡,也会有错误发生。


该提案在很大程度上倾向于对包括能力、限制、算法、数据、训练、测试和验证的文件以及记录的需求。我的猜测是,只有人工智能开发者,而并不是欧盟官员,能够有效地评估这一切。


不过,这些官员将有权对 “属于本条例范围内的欧盟机构、机关和团体 ”处以罚款。


提案中的许多语言让人们不禁要问,因为这些法案,初创型人工智能开发机构是否会甩手来走开,以避免处理繁琐的法规和可能因犯错而被巨额罚款。


我认为在这场讨论中,我们将会失去的是人工智能给当今社会带来的明显好处,以及它在未来几年的巨大潜力。


A.I.正被用来分析大量的空间数据,并对医疗保健产生了巨大的影响。例如,人工智能图像和扫描分析正在帮助医生识别乳腺癌和结肠癌。它还在疫苗创造方面显示出潜力。未来,人工智能会拯救生命。


而这些好处和潜力,因为alphago这类新闻以及世界上最知名的企业家对 “人工智能比人类聪明得多 ”这类警告类说辞,被人们逐渐忽略了。


这种恐惧的宣传导致消费者不理解扫描一万张脸的人群以寻找一个嫌疑人的人工智能,和能够创造食谱的人工智能之间的区别,所以他们选择不信任所有人工智能,并颁布出像欧盟颁布的的那种窒息性法规。


当然有人会认为人工智能弊大于利,但这也意味着,我们需要更好、更强大的人工智能来管理和筛选我们每天产生的如山的数据。否认人工智能在其中的作用,就像说我们不需要垃圾收集服务,我们的垃圾可以无限期地堆积在街头巷尾一样。


(来源:onezero)