欧盟最终批准全球首部人工智能法律
欧盟成员国周二批准了世界上第一部监管人工智能的主要法律。目前世界各地的监管机构都在竞相对这项技术进行限制。欧盟理事会表示,它最终批准了《人工智能法案》。这是一项开创性的法规,它为人工智能监管引入第一套全面的规则。比利时数字化国务秘书马蒂厄-米歇尔(Mathieu Michel)在周二的一份声明中表示,人工智能法案的通过,对欧盟来说是一个重要的里程碑。
他表示,通过人工智能法案,欧洲强调了在处理新技术时信任、透明度和问责制的重要性,同时确保这种快速变化的技术能够蓬勃发展并促进欧洲创新。《人工智能法案》对人工智能采用了基于风险的方法,这意味着根据它们对社会构成的威胁,对技术的不同应用有不同的处理方式。
该法律禁止在风险水平方面被认为“不可接受”的人工智能应用。不可接受的人工智能应用形式具有所谓的“社会评分”系统,该系统根据对公民数据的汇总和分析、预测性警务以及工作场所和学校的情感识别对公民进行排序。高风险人工智能系统涵盖自动驾驶汽车或医疗设备,根据它们对公民的健康、安全和基本权利构成的风险进行评估。它们还包括人工智能在金融服务和教育中的应用,在这些领域,人工智能算法存在偏见的风险。
欲了解更多, 请参阅 《创投时代》(VCNews)
电子报 www.vc-news.com.cn
另一方面,专家认为,对于AI企业和具备AI发展战略的欧盟成员国而言,尤其是法国、德国和意大利来说,他们对《AI法案》过度、提前监管的态势颇有微词。在2023年底,法国、德国和意大利曾对《AI法案》提出明确的反对意见,包括反对并提出对于通用模型的两层风险分级方法,即以是否为具备“系统性风险”的通用模型来设定合规义务的方法的替代方案。
他们说,由此可以看到,这一管理思路的弊病也许就在于“两头不讨好”。这种具体立法的功能性危机,可能不仅是《AI法案》,而是人工智能时代乃至技术时代立法需要不断直面的“技术局限”。值得注意的是,这种局限性是所有对于新技术监管的局限性,在AI领域尤其明显,因为它应用过于广泛,且对于对齐等问题还未有更深入研究,但部分风险已经发生,必须边管理边观察补充。所以风险分类分级是在当前局限性中既能管理风险又避免“一刀切”的领先思路。