觀點法律

勿讓AI加深法律資訊獲取方面的不平等

拜羅姆:對於ChatGPT提供瞎掰的法律建議,人們沒看出問題的根源:這種生成式人工智慧模型無法獲取所有判決資訊。

本文作者是民事司法委員會(Civil Justice Council)和英國司法部(Ministry of Justice)高級數據治理小組 成員

ChatGPT,這項帶來無數困境的技術,現在引起了英國最資深法官的關注。本月,上議院(House of Lords)憲法委員會聽取了最高法院院長的作證。他描述了曼徹斯特一名訴訟當事人的經歷,此人依靠ChatGPT尋求法律建議,無意中向法庭提交了完全瞎掰的陳述。美國據報道也有類似的事例。

出於對生成式人工智慧(generative AI)模型能否提供準確法律資訊的擔憂,即使是該技術的熱心支持者也得出結論認爲:它只應該用於補充——而不是取代——律師的建議。這是一種務實的姿態,儘管它削弱了該技術爲越來越多無力承擔法律諮詢的人擴大獲取法律建議管道的潛力。然而,在急於尋求這方面解決方案的過程中,負責司法體系的人們錯過了一個機會:拷問和解決該工具爲什麼會生成不準確的建議。

您已閱讀30%(406字),剩餘70%(926字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。
版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。
設置字型大小×
最小
較小
默認
較大
最大
分享×