针对欧盟拟议的开源人工智能监管新政,无党派智囊团 Brookings 已于近日表达了明确的反对意见。其在文章中指出 —— 新规强加给通用人工智能系统的法律责任,也将对该领域的技术发展造成严重的破坏。根据欧盟的“人工智能法案”草案,开源开发者也必须遵守风险管理、数据治理、技术文档和透明度、以及准确性和网络安全标准等方面的指导方针。 截图(来自:Brookings) 布鲁金斯学会分析师 Alex Engler 断言,若一家公司部署了一套导致某些灾难性后果的开源人工智能系统,那该公司将可通过起诉构建该产品的开源开发人员来试图转移责任,而这样的后果是不堪想象的。 这么做或进一步导致未来 AI 权利被集中到大型科技企业的手中,并对公众想要深入的至关重要的 AI 研究造成阻碍。 最终欧盟对开源领域的监管尝试,可能只会产生一系列危及开源 AI 贡献者的复杂要求、而无法改进通用 AI 的使用。 2021 年的时候,欧盟委员会公示了旨在促进可信赖人工智能的监管草案(AI Act),以期在今秋投票之前广泛征集各行业的意见。 尽管该机构原本想要尝试在技术创新与问责之间加以平衡,但据一些专家所述 —— 纸面上的规定,对 AI 系统的开发工作提出了相当繁重的要求。 据悉,该法案包含了对某些类别的开源 AI 的例外情况,比如专用于研究和控制以防止滥用的那些。 但正如 Alex Engler 所指出的那样,想要无死角封堵这些项目进入商业系统是相当困难的,因为它们很可能被恶意行为者滥用。 以“Stable Diffusion”这款开源文本转图像 AI 系统为例,尽管其在发布许可中禁止了某些类型的内容,但社区中还是很快冒出了利用此类工具来实施“深度色情伪造”的案例。 艾伦人工智能研究所(Allen Institute for AI)创始人兼首席执行官 Oren Etzioni 也赞同了这一观点,即当前人工智能监管草案存在多方面的问题。 规则带来的沉重负担,或对开源文本生成系统等开发等领域产生寒蝉效应。毕竟单打独斗的开发人员,很难赶上 Google 和 Meta 之类科技巨头的水平。 欧盟不曾想到这一点 —— 通向监管地狱的道路,竟是该机构在善意驱使下铺就的。尽管对于开源开发者来说,他们本不该承受与商业软件开发商同等的负担。 以学生开发者为例,他们可能出于无力遵守欧盟 AI Act 的考虑,而被迫选择不分发其辛苦打造的软件,结果对科研成果和学术进步都造成了可重复性的寒蝉效应。 有鉴于此,Etzioni 认为欧盟监管机构不应寻求广泛监管的人工智能技术、而应专注于 AI 的特定应用。 理由是 AI 存在快速变化和太多的不确定性,以至于迟缓的监管过程无法发挥作用。 相比之下,自动驾驶汽车、机器人或玩具等 AI 应用,更应成为被监管的对象。