Logo Zephyrnet

Mô hình ngôn ngữ lớn SauLM-7B hướng đến ứng dụng pháp lý

Ngày:

Các nhà nghiên cứu về máy học và chuyên gia pháp lý đã phát hành SauLM-7B mà họ tuyên bố là mô hình ngôn ngữ lớn nguồn mở tạo văn bản đầu tiên đặc biệt tập trung vào công việc và ứng dụng pháp lý.

Trước những sai lầm ngớ ngẩn gần đây, trong đó AI sáng tạo đã trích dẫn các trường hợp không tồn tại trong hồ sơ tòa án đã nộp – Mata v AviancaPark v Kim – điều đó có vẻ không được khuyến khích. Xu hướng gây ảo giác của các mô hình AI và nguồn gốc dữ liệu không chắc chắn của chúng dường như là những yếu tố phá vỡ thỏa thuận trong một ngành mà quyền lợi là đáng kể.

Nhưng những người tạo ra SauLM-7B, liên kết với công ty khởi nghiệp Equal.ai, Đại học Paris-Saclay và Đại học Sorbonne ở Pháp, và Đại học Lisboa và Trường Luật NOVA ở Bồ Đào Nha, cho rằng cần có sự trợ giúp của trí tuệ nhân tạo trong luật.

Người phát ngôn của Equall.ai cho biết trong một email gửi tới: “LLM và rộng hơn là các hệ thống AI sẽ có tác động mang tính biến đổi đối với việc thực hành luật, bao gồm nhưng vượt xa năng suất biên”. Đăng ký. “Trọng tâm của chúng tôi là tạo ra các hệ thống AI pháp lý toàn diện do luật sư hướng dẫn và kiểm soát.

Chúng tôi tin rằng các hệ thống chuyên biệt cho lĩnh vực pháp lý sẽ hoạt động tốt hơn các hệ thống tổng quát

“Niềm tin của chúng tôi - dựa trên dữ liệu và kinh nghiệm - là các hệ thống chuyên biệt cho lĩnh vực pháp lý sẽ hoạt động tốt hơn các hệ thống chung. Điều này bao gồm các công cụ có độ chính xác cao hơn và hữu ích hơn để giúp luật sư tập trung vào những gì họ thích nhất và làm tốt nhất, đó là đưa ra phán quyết pháp lý và giúp đỡ khách hàng của họ bằng lời khuyên.”

Các tổ chức khác cũng lạc quan tương tự về tiện ích hỗ trợ của AI. Goldman Sachs năm ngoái ước tính [PDF] rằng “46/44 nhiệm vụ công việc hiện tại có thể được tự động hóa bởi AI ở Hoa Kỳ, đặc biệt cao trong các ngành hành chính (XNUMX%) và pháp lý (XNUMX%)…” Và các công ty khởi nghiệp như IQ dự bị, Harvey.aiCông nghệ ký hiệu an toàn nhìn thấy cơ hội thị trường theo kiểu dự đoán đó.

Equal.ai, được thành lập bởi Jorge Mattamouros, cựu đối tác của White & Case LLP, lập luận rằng hầu hết tất cả các công việc pháp lý – nghiên cứu, đánh giá và phân tích tài liệu, tóm tắt và xác định các đoạn quan trọng trong tài liệu – đều có thể hưởng lợi từ AI.

Người phát ngôn của Equall.ai tiếp tục: “Chúng tôi tin rằng LLM sẽ mở ra rất nhiều con đường nữa, một số con đường mà chúng tôi thấy ngày nay, nhiều con đường vẫn đang khám phá”. “Ví dụ: chúng tôi tin rằng LLM sẽ thay đổi đáng kể cách chúng tôi tiếp cận cả quy trình xử lý dữ liệu và tạo dữ liệu, điều này sẽ rất quan trọng đối với các ứng dụng pháp lý khi việc thu thập dữ liệu chất lượng cao rất tốn kém và khó thực hiện.”

Quan điểm của Equal.ai là sự thiếu chính xác của các mô hình AI có thể được giảm thiểu.

“LLM vẫn là mô hình xác suất,” biz nói với chúng tôi. “Ảo giác nói chung là triệu chứng của LLM hoạt động không được phân phối. Nói cách khác, khi được nhắc tạo văn bản về các chủ đề và dữ liệu tương tự với dữ liệu mà LLM đã được đào tạo, LLM có xu hướng ít bị ảo giác hơn đáng kể so với khi được nhắc về những điều họ chưa biết nhiều.

“Ví dụ, trong quá trình đánh giá Saul với các luật sư thực tế, chúng tôi có thể xác nhận rằng Saul ít bị ảo giác hơn khi thảo luận về các khái niệm pháp lý cụ thể. Nói tóm lại, chúng tôi hy vọng các LLM được đào tạo đặc biệt về dữ liệu pháp lý sẽ ít gây ảo giác về các chủ đề pháp lý hơn so với các đối tác phổ thông của họ.”

Điều đó nói lên rằng, người mới nổi cảnh báo rằng không nên dựa vào các mô hình AI như thể chúng là cơ sở dữ liệu hợp pháp và nên kiểm tra kỹ đầu ra của LLM. Chúng tôi sẽ nói: Kiểm tra là bắt buộc.

Các nhà nghiên cứu đằng sau SauLM-7B – Pierre Colombo, Telmo Pessoa Pires, Malik Boudiaf, Dominic Culver, Rui Melo, Caio Corro, Andre FT Martins, Fabrizio Esposito, Vera Lúcia Raposo, Sofia Morgado và Michael Desa – mô tả công việc của họ trong một tờ giấy có tựa đề “SaulLM-7B: Mô hình ngôn ngữ lớn tiên phong cho luật.”

Có sẵn trên trang cộng đồng mô hình AI HuggingFace, SauLM-7B dựa trên mô hình Mistral 7B mã nguồn mở, cả hai đều có 7 tỷ tham số. Đó là ít hơn đáng kể so với các mô hình như LlaMA 2, có thể dựa trên tới 70 tỷ tham số. Nhưng những người tạo ra SauLM-7B lưu ý rằng đây chỉ là cột mốc quan trọng đầu tiên và công việc đang được thực hiện với các kích cỡ mô hình khác nhau.

Như bạn mong đợi từ LLM, SauLM-7B hoạt động bằng cách đặt câu hỏi hoặc đưa ra lời nhắc bằng ngôn ngữ tự nhiên và cố gắng trả lời hoặc phản hồi chúng; trong trường hợp này, nó tập trung vào luật pháp và các vấn đề pháp lý.

Jonathan Schwarz, đồng sáng lập và nhà khoa học trưởng của công ty khởi nghiệp AI hợp pháp Safe Sign Technologies có trụ sở tại Vương quốc Anh, cho biết Đăng ký rằng các nhà sản xuất SauLM-7B đã thực hiện một cách tiếp cận hợp lý đối với các LLM nói chung chuyên biệt.

“Đó là một đề nghị tuyệt vời như một sự thay thế nguồn mở cho các kỹ thuật độc quyền hơn,” ông nói. “Tuy nhiên, có việc cần phải làm.”

Đó là một sản phẩm tuyệt vời như một sự thay thế nguồn mở cho các kỹ thuật độc quyền hơn

Schwarz chỉ ra sự cần thiết của các mô hình đội đỏ, điều mà ông cho biết công ty của ông đang thực hiện trong nội bộ.

Chúng tôi được biết rằng Safe Sign Technologies đã tạo nguyên mẫu LLM hợp pháp và đặt mục tiêu có phiên bản thứ hai sẵn sàng để triển khai thông qua các đối tác vào cuối năm nay hoặc sau đó.

Schwarz cho biết công ty vẫn chưa sẵn sàng bình luận về mức độ mà sản phẩm của họ sẽ là nguồn mở hay độc quyền. Nhưng ông tuyên bố rằng trong khi SaulLM-7B-Instruct – một phiên bản được tinh chỉnh theo hướng dẫn chung và pháp lý – đã đạt được điểm trung bình 0.61 trên điểm chuẩn LegalBench-Instruct, thì “chúng tôi đang tiến gần đến 0.77”. Tỷ lệ phần trăm độ chính xác đó tương tự như GPT-4, mặc dù chúng tôi khuyên bạn nên coi trọng các điểm chuẩn của máy học.

Alexander (Sami) Kardos-Nyheim, đồng sáng lập và Giám đốc điều hành của Safe Sign Technologies, cho biết trong một cuộc phỏng vấn với: “Tham vọng của chúng tôi ở đây là tạo ra một giải pháp AI cung cấp cho mọi người lời khuyên pháp lý có chất lượng rất tốt ngay lập tức”. Đăng ký. “Không phải lời khuyên pháp lý không đáng tin cậy từ ChatGPT hay bất cứ thứ gì tương tự. Nhưng những lời khuyên pháp lý nghiêm túc mà bạn thực sự có thể sử dụng và tin cậy thông qua AI.”

Bạn có thể tránh được vấn đề phải học tất cả những hành vi độc hại mà sau này bạn đang cố gắng xóa bỏ

“Rất, rất đại khái, cách mà các kỹ thuật này hoặc các phương pháp này thường được đào tạo là bạn có một tập dữ liệu khổng lồ được đào tạo trên web và mỗi bước đào tạo trực tiếp mà bạn lấy mẫu hoặc bạn chỉ cần chọn một tập hợp con ngẫu nhiên trong số đó,” Schwarz giải thích. “Sau đó, bạn chỉ cần luyện tập trên tập hợp con đó và thực hiện việc đó hàng nghìn tỷ lần.

“Thay vì chỉ chọn một tập hợp con ngẫu nhiên, chúng tôi có các phương pháp mới mà tại mỗi thời điểm trong quá trình đào tạo, cố gắng xác định đâu là tập hợp con dữ liệu tối ưu để đào tạo tại thời điểm này, sao cho sự cải thiện của mô hình là tối đa. Đó là bước đầu tiên. Bằng cách này, bạn sẽ tránh được vấn đề phải học tất cả những hành vi độc hại mà sau này bạn đang cố gắng loại bỏ.”

Schwarz cho rằng cách tiếp cận của Safe Sign an toàn hơn. “Trong trường hợp có một câu hỏi pháp lý cụ thể mà mô hình đơn giản là không biết trả lời như thế nào, thay vì tự tin đưa ra câu trả lời sai, chúng tôi có thể chỉ cần nói rằng chúng tôi đang giữ lại câu trả lời đó.”

Ông tiếp tục bày tỏ sự hoài nghi về cách tiếp cận sôi sục của đại dương do OpenAI và Google thực hiện, bao gồm việc tập trung vào các tác hại lớn như thành kiến ​​​​về chủng tộc và giới tính, đồng thời trả tiền cho các nhà thầu rẻ tiền để xếp hạng các phản hồi của mô hình của họ để họ có thể đào tạo lại mạng lưới thần kinh theo tạo ra ít phản ứng có hại hơn.

Schwarz nói: “Nếu bạn muốn có thể làm được mọi thứ mà con người có thể làm, thì bạn phải kiểm tra mọi thứ mà con người có thể làm. “Tôi nghĩ đó chỉ là một chiến lược thất bại nếu bạn cố gắng thực hiện điều đó với tất cả các chủ đề có thể.”

Kardos-Nyheim nói thêm: “Không chỉ trong AI hợp pháp, mà nói chung hơn, trong AI, chúng tôi không thấy sự tập trung vào sự an toàn và mạnh mẽ cho phép tạo ra các hệ thống nghiêm túc, đáng tin cậy trong bối cảnh y tế hoặc pháp lý”. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img