首页 > 工业4.0

工业机器人的进击浪潮将卷向何方?

作者:www.cechina.cn2023.06.02阅读 4189

  近期,来自不同政治派别的11位欧洲议会议员发出一封公开信,呼吁行业、研究人员和决策者更加关注“非常强大的人工智能”的潜在危险。鉴于当前人工智能技术的快速发展,欧洲有不少人担心欧盟的监管政策跟不上技术发展的步伐,希望欧盟更加关注不断变化的人工智能技术格局。
 
  1.政策监管出台即过时
 
  欧盟在尝试推动出台人工智能监管政策方面是先行者。2021年,欧盟委员会推出了全球第一个关于人工智能的法律框架——欧盟人工智能法案,希望通过该框架来应对人工智能技术可能带来的风险与挑战。在欧委会设计的框架中,根据应用场景、使用技术等多个方面,人工智能技术被划分为四个不同的风险等级,配有不同的监管要求。
 
  当时的框架设计者们相信,尽管人工智能是一项快速发展的技术,但是欧洲的制度设计足以适应技术变化。但事实似乎并不尽然。仅仅几年间,人工智能技术的发展就让那些规则设计者们感叹欧盟的设计似乎已经过时了。欧盟人工智能法案的主要起草人之一、来自德国的欧洲议会议员阿克塞尔·沃斯指出,人工智能技术在两年前还没有这么先进,而未来两年中还会进一步发展,“如此之快”的发展速度让当时的大部分法律设计在实际生效时可能已经不再适用了。
 
  此次,欧洲议会成员在公开信中要求,欧盟人工智能法案应保证未来人工智能发展本着“以人为本、安全、可信赖”的理念发展,甚至让涵盖整个欧盟市场的监管“可以成为全球不同监管传统和环境中其他监管举措的蓝图”。
 
  引人关注的是,公开信还呼吁欧盟委员会主席冯德莱恩和美国总统拜登举行一次高级别峰会,就“研发、控制和部署非常强大的人工智能的初步管理原则达成一致”。
 
  2.语言模型人工智能引发担忧
 
  欧洲议员们的呼声很大程度上受到时下火爆的语言模型人工智能应用的影响。大型语言模型让人工智能可以进行深度学习和训练,使其不仅可以模仿人类对话,甚至还可以编写和调试代码、创作诗歌和论文。不过,这样的人工智能应用自推出伊始,人们对其技术伦理就纷争不断,各方监管机构也十分关注。
 
  今年2月,参与欧洲人工智能法案讨论的欧洲议员曾提议,人工智能语言模型技术在没有人类监督的情况下生成复杂文本应该被列入“高风险”列表,以阻止这类应用大规模制造虚假信息。
 
  意大利数据保护机构认为,开发语言模型人工智能使用的数据,可能违反了欧洲的通用数据保护条例。意大利数据保护机构要求研发公司必须对用户更加透明地说明数据是如何处理的,如果要将用户的数据用于进一步的软件开发(即帮助人工智能学习),必须获得用户的许可,并且必须设置未成年人的访问权限。西班牙和法国也表示了类似的担忧。
 
  目前,欧洲议会仍在讨论欧盟委员会两年前提出的人工智能法案,尚未确定通过该法案。法案即使在欧洲议会获得批准,仍需欧盟成员国逐一审核通过。有分析认为,该法案可能要到2025年初才能生效。
 
  沃斯议员在接受欧洲媒体采访时表示:“出于竞争原因,也因为欧洲在技术上已经落后,欧洲实际上需要以更多的乐观态度来看待人工智能。但正在发生的情况是,欧洲议会中大多数人都被恐惧和担忧所引导,试图排斥一切。”他说,欧盟成员国有关方面希望设立一个独立机构来监控人工智能技术,并且修改现有的数据保护立法。
 
  3.英国与欧盟不同的监管思路
 
  今年3月,英国政府公布了人工智能监管拟定办法白皮书。英国政府表示,计划在相关部门和领域中迅速采用新的监管框架,未来数月将向金融、市场等行业领域的监管机构提供人工智能监管准则。
 
  英国采取的人工智能监管思路与欧盟提出的监管设计框架截然不同。欧盟试图推出高度规范性指令,针对高风险人工智能系统的研发者和使用者做出具体的技术和机构规定;而英国则有意对人工智能研发和使用采取宽泛的监管原则,实施更为灵活、平衡的监管办法。此外,英国政府希望,由行业监管机构在参考政府的一系列指导原则的基础上,制定具体的监管办法。
 
  未来一年里,英国政府监管机构将面向人工智能研发和应用企业推出更加具体的监管指南,引导后者对人工智能进行风险评估。在此基础上,英国议会再适时开启人工智能立法,以确保监管机构有法可依。
 
  英国政府希望在人工智能领域掌握更多的话语权。英国前财政大臣杰里米·亨特此前在一次演讲中表示,英国在培育人工智能技术方面必须“全速前进”,以保证“赢得这场竞赛”,为新兴技术制定全球标准。2022年亨特就表示要将英国变成“世界的下一个硅谷”,提出为量子计算技术投入数十亿美元,并承诺投资一台新的超级计算机来推动人工智能研究。
 
  4.政府与科技公司的博弈
 
  有业内分析认为,当前欧盟和英国加快对人工智能的监管规则设计,都是希望在规则制定上抢夺话语权,但它们的规则设计都难以在消费者保护、监管、经济和科研的自由发展之间取得平衡。
 
  很多欧盟官员认为,监管机构必须承担更多责任,仅用风险级别来管理人工智能应用程序是远远不够的。欧盟内部市场专员蒂埃里·布雷顿提出,研发人员和科技公司应该监控每个人工智能应用程序的风险,因为科技公司有时无法预测其人工智能产品在第二天可能会做什么,甚至对做了什么感到惊讶。
 
  但是,很多科技公司对部分欧盟监管规则并不满意。2022年欧盟曾推动出台人工智能责任规定,作为对欧盟人工智能法案的补充,以使消费者在因人工智能技术受到伤害时能够更容易起诉技术所属的科技公司。而很多科技公司坚称,这将给欧洲的技术创新带来“寒蝉效应”,科技公司的程序员不仅要为人工智能的程序错误负责,还要为人工智能技术对用户产生的潜在心理健康影响负责,这是一种苛责。
 
  欧洲监管困局的背后,还有欧洲各国在人工智能技术领域失去领先位置后的忧心忡忡。两年前欧盟提出人工智能立法时,布雷顿就表示,欧盟此举不是要赶走人工智能的研发者,而是要鼓励和说服他们留下来。欧盟不应依赖外国供应商,人工智能数据也应在欧盟存储和处理。
 
  沃斯议员的话更是充满焦虑:“如果欧盟规则过于复杂,科技公司就会去其他地方搞人工智能研发。欧盟还不迅速采取行动的话,将成为其他国家的‘数字殖民地’,并有可能最终失去政治和社会的稳定。”


继续阅读