023 年 3 月底,意大利数据保护机构对 OpenAI LLC 在意大利的 ChatGPT 服务实施了临时限制,包括根据欧盟 2016/679 号条例《通用数据保护条例》(以下简称 GDPR)第 58 条第 2 款 f 项禁止处理,因为这会影响到其用户(尤其是儿童)的基本权利保护的几个关键方面。
该决定考虑了以下评估理由。首先,缺乏隐私
信息政策,向用户和数据主体解释 OpenAI LLC 将如何在平台上收集和处理数据。其次,缺乏为算法训练目的处理 厄瓜多尔电报数据 个人数据的法律依据。第三,缺乏评估用户年龄的保障措施,以避免 13 岁以下的未成年人按照所附条款和条件使用该软件,而这些条款和条件在数据处理活动方面的一些部分无论如何都被认为具有误导性。
该决定引发了有关 OpenAI 应用风险和机遇的国际辩论,并在其他欧盟体系中产生了多米诺骨牌效应:例如,4 月 13 日, EDPB 启动了 ChatGPT 工作组,而 4 月 23 日,法国 CNIL 发布了一份关于生成式人工智能的档案(https://linc.cnil.fr/dossier-ia-generative-chatgpt-un-beau-parleur-bien-entraine),从伦理法律角度 意大利宪法法院 2023 年第 177 号和第 178 号判决分 释聊天机器人的机制及其影响。2023
年 4 月,该限制被推翻,因为这家美国公司实施了一系列技术和组织措施,以减轻任何基本权利受损的风险。特别是,该平台实施了一个更容易访问的程序,供用户或非用户选择退出数据处理,它在网页上发布了详细的隐私政策,也针对用于训练算法的数据;它开发了机制,允许用户删除或更正可能的不准确之处。这些保 电报号码 障措施被认为是使聊天机器人服务再次可用的首要措施。
因此,意大利的ChatGPT事件特别值得从多个角度进行分析。
它应被视为与主管数据保护机构联合合作的一个值得借鉴的样本,以确定适当的组织和技术措施,以减轻特定数据处理活动对用户基本权利的影响,即使是受调查刺激而不是由设计推动的。事实上,GDPR 第 36 条规定了数据控制者和主管当局之间的互动,该条款规定了“事先协商”机制的条件,以防“自我”数据保护评估的结果指出处理活动对数据主体的基本权利和自由构成高风险,或者如果实施的任何保障措施都无法确保适当的缓解水平。
此外,ChatGPT 案凸显了数据保护法在解决
基于 AI 的解决方案问责标准方面的作用。事实上,由于 AI保护法的方案尚未获得批准,因此 GDPR 至少在个人数据方面涵盖了对 AI 开发人员缺乏具体义务规定的问题。因此,GDPR 只能保护给定基于 AI 的应用程序的直接或潜在用户,只要他们可以被视为给定数据处理的数据主体。但是,数据保护影响评估中未包括的任何对基本权利的进一步影响在现阶段仍无法由数据保护机构执行。因此,许多数据保护机构决定设立专门的部门和工作组,专门解决与基于人工智能的解决方案相关的数据保护问题。事实上,尽管决定恢复 ChatGPT 服务,但根据问责制、透明度和公平性原则,对生成人工智能的监测和风险评估活动才刚刚开始。
访问。