AI Crazy

New member
Các công cụ AI tạo nội dung hứa hẹn giúp luật sư soạn thảo và tóm tắt nhanh, nhưng đang gây hậu quả khi sinh ra những vụ án, trích dẫn và dẫn chiếu không có thật. Hai phán quyết lớn của Tòa án tối cao Anh nhấn mạnh luật sư vẫn phải chịu trách nhiệm hoàn toàn — vì thế đào tạo sử dụng AI là cấp thiết.

ai-in-the-courtroom.jpg


Công nghệ trí tuệ nhân tạo sinh tạo (generative AI) như ChatGPT hay các công cụ tương tự đã được ca ngợi là cách mạng cho nghề luật, từ soạn hợp đồng đến tổng hợp án lệ. Thực tế cho thấy mặt trái: các văn bản tòa án giờ đây xuất hiện những vụ án bịa, dẫn lời giả và trích dẫn gây nhầm lẫn.

Ngày 6 tháng 6 năm 2025, Tòa án tối cao Anh đưa ra phán quyết quan trọng trong hai vụ Frederick Ayinde kiện The London Borough of Haringey và Hamad Al-Haroun kiện Qatar National Bank QPSC và QNB Capital LLC. Tòa khiển trách một luật sinh và một luật sư vì nộp tài liệu chứa án lệ sai lệch và bịa đặt, đồng thời khẳng định: "các công cụ AI sinh tạo miễn phí… không có khả năng tiến hành nghiên cứu pháp lý đáng tin cậy."

Hiện tượng "hallucination" của AI — tức AI tự tin sinh ra thông tin không tồn tại hoặc gán sai nguồn — đã được ghi nhận rộng rãi. Các nghiên cứu gần đây cho thấy tỉ lệ xuất hiện thông tin bịa đặt trong câu trả lời pháp lý dao động từ 58% đến 88% tùy loại câu hỏi, đặc biệt trên những vấn đề mà luật sư thường cần giải quyết.

Trong vụ Ayinde, luật sinh trích dẫn một án lệ hoàn toàn không tồn tại, còn đúng số vụ án đó lại thuộc về một vụ việc khác. Trong Al-Haroun, một luật sư nộp danh sách 45 án lệ do khách cung cấp thì có tới 18 mục là bịa đặt và nhiều mục khác không liên quan; trợ lý tư pháp ghi nhận rằng "đa số các án lệ đều bịa đặt hoặc bị hiểu sai."

Những sự cố này phản ánh một cơn bão hoàn hảo: lực lượng làm việc quá tải, công cụ AI mạnh nhưng không đáng tin cậy, và tòa án không còn chấp nhận lỗi là sơ suất. Hệ quả với luật sư trẻ là rất nặng nề — nhiều người thử dùng AI vì thiếu thời gian hoặc tò mò, nhưng nếu không biết phát hiện ảo tưởng thì danh tiếng có thể bị tổn hại ngay từ đầu sự nghiệp.

Tòa án đã đặt trách nhiệm trực tiếp lên cá nhân và người giám sát, nhưng câu hỏi đặt ra là liệu các luật sư trẻ có đang bị trừng phạt quá nặng cho một lỗ hổng về đào tạo và giám sát? Trường luật vốn dạy phương pháp nghiên cứu, đạo đức và cách trích dẫn; giờ cần lồng ghép những kỹ năng đó quanh AI: hiểu vì sao AI sinh ảo tưởng, cách thiết kế lệnh (prompt) có trách nhiệm, cách kiểm chứng kết quả với cơ sở dữ liệu có thẩm quyền và khi nào không nên dùng công cụ này.

Vụ án ở Manchester cho thấy vấn đề không chỉ ở giới chuyên nghiệp: một người tự đại diện đã dùng ChatGPT để tạo dẫn chiếu pháp lý, nộp bốn trích dẫn thì một là hoàn toàn bịa và ba trích dẫn khác có tên vụ thật nhưng trích dẫn lại là giả. Khi bị đối chất, tòa nhận rằng người này vô tình bị AI đánh lừa và không phạt, nhưng đây vẫn là minh chứng cho rủi ro khi nội dung AI chưa được kiểm chứng lọt vào hồ sơ.

Thông điệp từ các vụ Ayinde và Al-Haroun rõ ràng: việc sử dụng AI không giảm nhẹ nghĩa vụ nghề nghiệp của luật sư, mà còn làm tăng yêu cầu đó. Nếu AI đã trở thành một phần của hành nghề, thì đào tạo về AI và năng lực số phải trở thành phần bắt buộc trong giáo dục pháp luật — từ các cơ quan quản lý, tổ chức nghề nghiệp đến trường đại học — nhằm ngăn chặn sai sót trong môi trường khắc nghiệt nhất là phòng xử án.

Nguồn: https://techxplore.com/news/2025-10-hallucinated-cases-affecting-lawyers-careers.html
 
Back
Top