彬彬有理
通过创建道德伦理上的标准,以及对人工智能算法进行监管,是否反而会阻碍欧洲人工智能的创新,是一个不得不考虑的问题。
4月8日,欧盟委员会发布了人工智能(AI)伦理准则,提出了实现可信赖人工智能的七个要素。具体来说,其涵盖了保证人类的自主性、人工智能技术的稳健性和安全性,保证隐私和数据管理,保证AI算法系统的透明性,要求AI提供多样性、无歧视、公平的服务等方面的内容。
与去年欧盟通过的《通用数据保护条例》一样,这些准则的出现,旨在树立起欧盟在道德伦理领域的领导者角色,确立其公民数据隐私与安全的守护者的形象。
当然,不仅于此,欧盟人工智能伦理准则的出台,也是为了提升欧盟在人工智能领域的竞争力,确保其能领导或是引导全球人工智能的发展。
在部分人士看来,欧盟试图扮演这种角色是源于客观环境,即当前人工智能领域无论是投资或是尖端研究应用上,欧盟无法与中美两国相竞争。因而,欧盟只能从道理伦理上着力,让其成为欧盟的竞争力与优势。
但这种观点可能高估了中美目前在人工智能领域的实力,同时也低估了人工智能的多样性和广阔程度。
首先当前中美在人工智能领域的优势,很大程度上源于对深度学习的掌握。深度学习依赖于海量数据以及计算能力,比如中国拥有14亿人口,其数据就远远比其他国家多,应用场景也更为丰富,因此也就更易获得优势。
但问题在于,人工智能并非仅仅如此,其未来具备无限可能。深度学习之父杰弗里·辛顿就曾公开号召摒弃现有深度学习范式,转向不过度依赖数据的无监督学习算法。
更何况,随着公众对数据隐私要求越来越高,过度依赖海量数据的算法,迟早会遭遇到瓶颈,发展陷入停滞。就此而言,欧盟未来未必不能在人工智能的其他赛道上形成优势和竞争力。
但欧盟出台这些指导准则,是否真能达成其促进欧洲人工智能发展的目的,却也是存疑的。因为仅仅通过创建道德伦理上的标准,以及对人工智能算法进行监管,是否反而阻碍欧洲人工智能的创新,却是一个不得不考虑的问题。
当前人工智能刚刚起步,在很多领域的应用并不成熟。在此过程中就引入监管机制是否恰当,值得讨论。尤其是人工智能技术与过往的经验并不相同。没有人知道,最终人工智能领域的监管体制会是怎样的。
在此种情况下,规则应该与技术一同成长。换句话说,有关的准则与监管方式,应该是基于现实的证据进行。
欧盟的这种态度事实上很好理解,这很大程度上与公众对人工智能过于恐惧的心理有关。但过度恐惧而采取的保护措施,却很可能对其自身造成不必要的伤害或威胁。运用更多更高质量的数据和密切的监测,以形成更多的实际案例和证据,是建立更为合理的监管体制与问责框架的关键。
欧盟为了促进人工智能发展而采取的措施,反而有可能限制了欧洲企业和机构这一领域自然的创新本能与发展机遇,最终无法打造出其期望的竞争力和领导力。
在这一点上,欧盟的行为虽然能被理解,却值得商榷。
□郑伟彬(新京报智慧城市研究院研究员)
更多详细新闻请浏览新京报网 www.bjnews.com.cn