从数据保护法的角度评估生成式人工智能解决方案的问责制、透明度和公平性
Posted: Thu Mar 20, 2025 8:02 am
2023 年 3 月底,意大利数据保护局对 OpenAI LLC 在意大利的 ChatGPT 服务实施了临时限制,包括根据欧盟 2016/679 号条例《通用数据保护条例》(以下简称 GDPR)第 58 条第 2 款 f) 项禁止处理,因为这涉及到其用户的几个关键方面,尤其是儿童的基本权利保护。
该决定考虑了以下评估理由。首先,缺乏隐私信息政策,向用户和数据主体解释 OpenAI LLC 如何在平台上收集和处理数据。二是缺乏为算法训练目的处理个人数据的法律基础。第三,缺乏评估用户年龄的保障措施,以避免13岁以下的未成年人按照所包含的条款和条件使用该软件,无论如何,这些条款和条件在与数据处理活动相关的某些部分被认为具有误导性。
该决定引发了有关 OpenAI 应用风险和机遇的国际辩论,并在其他欧盟体系中产生了多米诺骨牌效应:例如,4 月 13 日, EDPB 启动了 ChatGPT 工作组,而 4 月 23 日,法国CNIL发布了一份关于生成式人工智能的档案从伦理法律角度解释聊天机器人机制及其影响。
2023 年 4 月,由于这家美国公司实施了一系列技术和组织措施,可以减轻任何基本权利受损的风险,该限制被推翻。具体来说,该平台实施了一个更易于用户或非用户选择退出数据处理的程序,它在网页上发布了用于训练 喀麦隆 数字数据 算法的数据的详细隐私政策;它开发了机制来允许用户删除或纠正可能不准确的信息。这些保障措施被视为恢复聊天机器人服务的首要必要措施。
因此,从多个角度分析意大利的 ChatGPT事件
尤为有趣。 这应被视为与主管数据保护机构联合合作的一个值得借鉴的例子,以确定适当的组织和技术措施,以减轻特定数据处理活动对用户基本权利的影响,即使是受调查刺激而不是由设计推动的。事实上,GDPR 第 36 条规定了数据控制者和主管当局之间的互动,该条规定,如果“自我”数据保护评估的结果指出处理活动对数据主体的基本权利和自由具有高风险,或者实施的保障措施都无法确保适当的缓解程度,则应建立“事先协商”机制。
该决定考虑了以下评估理由。首先,缺乏隐私信息政策,向用户和数据主体解释 OpenAI LLC 如何在平台上收集和处理数据。二是缺乏为算法训练目的处理个人数据的法律基础。第三,缺乏评估用户年龄的保障措施,以避免13岁以下的未成年人按照所包含的条款和条件使用该软件,无论如何,这些条款和条件在与数据处理活动相关的某些部分被认为具有误导性。
该决定引发了有关 OpenAI 应用风险和机遇的国际辩论,并在其他欧盟体系中产生了多米诺骨牌效应:例如,4 月 13 日, EDPB 启动了 ChatGPT 工作组,而 4 月 23 日,法国CNIL发布了一份关于生成式人工智能的档案从伦理法律角度解释聊天机器人机制及其影响。
2023 年 4 月,由于这家美国公司实施了一系列技术和组织措施,可以减轻任何基本权利受损的风险,该限制被推翻。具体来说,该平台实施了一个更易于用户或非用户选择退出数据处理的程序,它在网页上发布了用于训练 喀麦隆 数字数据 算法的数据的详细隐私政策;它开发了机制来允许用户删除或纠正可能不准确的信息。这些保障措施被视为恢复聊天机器人服务的首要必要措施。
因此,从多个角度分析意大利的 ChatGPT事件
尤为有趣。 这应被视为与主管数据保护机构联合合作的一个值得借鉴的例子,以确定适当的组织和技术措施,以减轻特定数据处理活动对用户基本权利的影响,即使是受调查刺激而不是由设计推动的。事实上,GDPR 第 36 条规定了数据控制者和主管当局之间的互动,该条规定,如果“自我”数据保护评估的结果指出处理活动对数据主体的基本权利和自由具有高风险,或者实施的保障措施都无法确保适当的缓解程度,则应建立“事先协商”机制。