观点法律

勿让AI加深法律信息获取方面的不平等

拜罗姆:对于ChatGPT提供瞎掰的法律建议,人们没看出问题的根源:这种生成式人工智能模型无法获取所有判决信息。

本文作者是民事司法委员会(Civil Justice Council)和英国司法部(Ministry of Justice)高级数据治理小组 成员

ChatGPT,这项带来无数困境的技术,现在引起了英国最资深法官的关注。本月,上议院(House of Lords)宪法委员会听取了最高法院院长的作证。他描述了曼彻斯特一名诉讼当事人的经历,此人依靠ChatGPT寻求法律建议,无意中向法庭提交了完全瞎掰的陈述。美国据报道也有类似的事例。

出于对生成式人工智能(generative AI)模型能否提供准确法律信息的担忧,即使是该技术的热心支持者也得出结论认为:它只应该用于补充——而不是取代——律师的建议。这是一种务实的姿态,尽管它削弱了该技术为越来越多无力承担法律咨询的人扩大获取法律建议渠道的潜力。然而,在急于寻求这方面解决方案的过程中,负责司法体系的人们错过了一个机会:拷问和解决该工具为什么会生成不准确的建议。

您已阅读30%(406字),剩余70%(926字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归manbetx20客户端下载 所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×