就公开分享的内容而言,三方会谈中争论激烈的话题之一是对生物特征识别技术的监管,其中最臭名昭著的用途是人脸识别(FRT):一种能够实时和事后自动识别和辨认个人的技术。在Clearview 人工智能丑闻 爆发后,这种人工智能的应用开始被公众所熟知,并因其在执法方面的潜力而引起了欧盟立法者的担忧。
由此,人脸识别技术的监管发生了具体而重大的变化。 《人工智能法案》制定了有关 FRT 的专门规则,这不仅可以补充之前规则的适用性,而且可以凌驾于之前规则之上。因此,虽然规定相关规则必须“继续遵守 (EU) 2016/679 条例第 9(1) 条、(EU) 2018/1725 条例第 10(1) 条和 (EU) 2016/680 指令 –执法指令(LED) – 第 10 条规定的所有要求”(第 24 条),但 AI 法案严格规定了 FRT 投放市场和投入使用的条件。
考虑到对该技术基本权利保护可能遭遇的强烈反对——主要是 比利时号码数据 但不限于CFEU保护的隐私权和数据保护权——FRT被列为最高风险级别。正如上述以及学者们的观察,欧盟在针对数字生态系统的各项政策中都采取了这种方法,根据具体的风险评分来调整规则的执行。与 GDPR 不同的是,它不会将具体的风险评估留给给定系统的程序员或部署人员。 《人工智能法案》要求进行事前风险评估,正如预期的那样,这让人怀疑它能否成为一个既不会给人工智能程序员带来过重负担,也不会过度损害创新的“合规框架”
。 说到面部识别技术,正如预期的那样,这属于“不可接受的风险”标签。除了 LED 和 GDPR 之外,该提案还以软法文件为基础,特别是人工智能白皮书、人工智能高级专家组的建议以及国际指南(例如欧洲委员会制定的 CAHAI 指南)。
因此,AI法案有望明确FRT在欧盟内部的适用范围。目的是创建一种平衡安全性和保护性的比例方法。的基本权利,但不加以阻止。因此,在等待最终文本的同时,最好重述一下欧盟迄今为止在FRT监管方面采取的方法,以便更好地理解谈判的结果。