如此明确地诉诸人工智能系统并非没有法官的监管依据,在这方面,法官表示“适用 2022 年第 2213 号法律,该法律的目的是将信息技术纳入流程”。
然而,上述立法文本是在哥伦比亚颁布的,目的是明确在大流行期间通过的过渡规定,特别是关于在审判 拉脱维亚电报数据 过程中使用信息技术的规定:换句话说,这是一部有关意大利所谓的“远程审判”的法律。另一方面,相关法律没有在任何地方提及使用人工智能来开发动机并做出法官的决定(事实上,“人工智能”一词没有出现在立法文本的任何地方)。
在提到ChatGPT系统对上述法律问题提供的答案后,法官谨慎地做出了一些澄清。
因此,法官选择对法律进行特别广泛的解释,可以将其定义为对法律启发性原理的类比应用(具体来说:法律 即使他们在意大利领土上停留或居住 规定了审判中技术的使用,因此旨在鼓励这种使用,因此即使在法律规定的范围不同的情况下,也必须促进 IT 系统的使用)。
特别是,它明确指出,人工智能的使用是为了在已经开发的论据上“添加”论据,并且“主动”地 瑞典商业名录 进行,以促进保护决策的“速度”。为此,”,而只是在“核实人工智能系统提供的信息后” ,“优化”起草判决所需的时间。 显然,这些观察结果值得在裁决中给予更多关注——以及在未来进行调查,而且裁决的结构似乎反映了法官所宣称的方法(事实上,系统的回应是在推理结束时报告的,作为先前开发的辩论过程的证明和确认)。
可以肯定的是,很快就会有更深入、更科学的分析,同时也考虑
正如预期的那样,反应很快就出现了,而且几乎可以肯定的是,针对使用计算机系统和人工其目的“绝不智能的裁决的第一批评论是由数字空间和社交媒体发起的。
除了该判决在报纸、博客和信息网站上引起的反响之外,从更具体的法律角度来看,波哥大罗萨里奥大学副教授胡安·戴维·古铁雷斯·罗德里格斯 ( Juan David Gutiérrez Rodríguez)在 Twitter 上的帖子也得到了广泛阅读。他表示,他对这一判决感到“担忧”,认为 ChatGPT 倾向于返回“不正确、不准确和虚假”的结果,同时表示法官似乎在某种程度上修改了系统随后在裁决中报告的回应。我还发现格罗宁根大学的María Lorena Flórez Rojas 在 LinkedIn 上的帖子很有趣,尽管她在分析的最后警告了过度信任人工智能系统的风险。