제퍼넷 로고

대형 언어 모델 SauLM-7B는 법적 적용을 목표로 합니다.

시간

기계 학습 연구원과 법률 전문가는 특히 법률 업무 및 애플리케이션에 초점을 맞춘 최초의 텍스트 생성 오픈 소스 대규모 언어 모델인 SauLM-7B를 출시했습니다.

생성 AI가 제출된 법원 서류에서 존재하지 않는 사례를 인용한 최근 세간의 이목을 끄는 실수를 고려하여 – 마타 v 아비앙카박 vs 김 – 그건 현명하지 못한 것처럼 보일 수도 있습니다. 환각을 일으키는 AI 모델의 경향과 불확실한 데이터 출처는 이해 관계가 중요한 업계에서 거래를 중단시키는 것으로 보입니다.

하지만 SauLM-7B의 창작자들은 스타트업에 소속되어 있습니다. Equal.ai, 프랑스의 Université Paris-Saclay 및 Sorbonne Université, 포르투갈의 Universidade de Lisboa 및 NOVA School of Law는 법에 인공 지능 지원을 위한 여지가 있다고 주장합니다.

Equal.ai의 대변인은 이메일에서 "LLM과 보다 광범위하게 AI 시스템은 한계 생산성을 포함하지만 이를 넘어서는 법률 관행에 혁신적인 영향을 미칠 것입니다."라고 말했습니다. 등록. “우리의 초점은 변호사가 안내하고 제어하는 ​​엔드투엔드 법률 AI 시스템을 만드는 것입니다.

우리는 법률 영역에 특화된 시스템이 일반 시스템보다 더 나은 성능을 발휘할 것이라고 믿습니다.

“데이터와 경험을 기반으로 한 우리의 믿음은 법률 분야에 특화된 시스템이 일반 시스템보다 더 나은 성능을 발휘할 것이라는 것입니다. 여기에는 변호사가 가장 즐기고 가장 잘하는 일, 즉 법적 판단을 내리고 고객에게 조언을 제공하는 일에 집중할 수 있도록 더 정확하고 유용한 도구가 포함됩니다.”

다른 조직도 AI 지원의 유용성에 대해 비슷하게 낙관적입니다. 골드만삭스는 지난해 예상 [PDF] "현재 업무의 46분의 44은 미국에서 AI로 자동화될 수 있으며, 특히 행정(XNUMX%) 및 법률(XNUMX%) 직업에 노출이 높습니다…" 그리고 스타트업은 다음과 같습니다. 벤치 IQ, Harvey.ai안전 서명 기술 그런 종류의 예측에서 시장 기회를 확인하세요.

White & Case LLP의 전 파트너인 Jorge Mattamouros가 설립한 Equal.ai는 연구, 문서 검토 및 분석, 요약, 문서의 주요 구절 식별 등 거의 모든 법률 업무가 AI의 이점을 누릴 수 있다고 주장합니다.

Equall.ai의 대변인은 “우리는 LLM이 훨씬 더 많은 길을 열어준다고 믿습니다. 일부는 현재 볼 수 있고, 아직 발견할 수 없는 길이 많이 있습니다.”라고 말했습니다. "예를 들어, 우리는 LLM이 데이터 처리 파이프라인과 데이터 생성에 접근하는 방식을 대폭 변화시킬 것이라고 믿습니다. 이는 고품질 데이터를 얻는 데 비용이 많이 들고 어려운 법적 응용 프로그램에 매우 중요합니다."

Equal.ai의 견해는 AI 모델의 부정확성을 완화할 수 있다는 것입니다.

“LLM은 여전히 ​​확률 모델로 남아 있습니다.”라고 업계는 말했습니다. “환각은 일반적으로 유통이 중단된 LLM의 증상입니다. 즉, LLM이 훈련한 데이터와 유사한 주제 및 데이터에 대한 텍스트를 생성하라는 메시지가 표시될 때 LLM은 거의 배운 내용에 대한 메시지를 받을 때보다 환각을 훨씬 적게 느끼는 경향이 있습니다.

“예를 들어, 실제 변호사들과 함께 사울을 평가하는 과정에서, 구체적인 법적 개념을 논의할 때 환각 현상이 덜 발생한다는 것을 확인할 수 있었습니다. 간단히 말해서, 법률 데이터에 대해 특별히 교육을 받은 LLM은 일반 전문가보다 법적 주제에 대해 덜 환각할 것으로 기대합니다.”

즉, 이 스타트업은 AI 모델이 합법적인 데이터베이스인 것처럼 의존해서는 안 되며 LLM의 결과를 다시 확인하는 것이 좋습니다. 우리는 다음과 같이 말할 것입니다: 확인은 필수입니다.

SauLM-7B 뒤에 있는 사람들 – Pierre Colombo, Telmo Pessoa Pires, Malik Boudiaf, Dominic Culver, Rui Melo, Caio Corro, Andre FT Martins, Fabrizio Esposito, Vera Lúcia Raposo, Sofia Morgado 및 Michael Desa – 종이 "SaulLM-7B: 법률을 위한 선구적인 대형 언어 모델"이라는 제목으로 작성되었습니다.

AI 모델 커뮤니티 사이트 HuggingFace에서 확인 가능하며, SauLM-7B 오픈 소스 Mistral 7B 모델을 기반으로 하며 둘 다 7억 개의 매개변수를 가지고 있습니다. 같은 모델에 비해 훨씬 적습니다. 라마 2, 이는 최대 70억 개의 매개변수를 기반으로 할 수 있습니다. 그러나 SauLM-7B 제작자는 이것이 단지 첫 번째 이정표일 뿐이며 다양한 모델 크기로 작업이 진행되고 있다고 지적합니다.

LLM에서 기대할 수 있듯이 SauLM-7B는 질문을 받거나 자연어로 프롬프트를 제공하는 방식으로 작동하며, 질문에 대답하거나 응답하려고 시도합니다. 이 경우 법률 및 법적 문제에 중점을 둡니다.

영국에 본사를 둔 법률 AI 스타트업인 Safe Sign Technologies의 공동 창립자이자 수석 과학자인 Jonathan Schwarz는 다음과 같이 말했습니다. 등록 SauLM-7B 제조업체는 일반 LLM을 전문화하기 위해 합리적인 접근 방식을 취했습니다.

“이것은 보다 독점적인 기술에 대한 오픈 소스 대안으로서 훌륭한 제품입니다.”라고 그는 말했습니다. “하지만 해야 할 일이 있어요.”

보다 독점적인 기술에 대한 오픈 소스 대안으로 제공되는 훌륭한 제품입니다.

Schwarz는 자신의 회사가 내부적으로 수행하고 있는 레드팀 모델의 필요성을 지적했습니다.

Safe Sign Technologies는 합법적인 LLM의 프로토타입을 만들었으며 올해 말이나 그 이후에 파트너를 통해 배포할 수 있는 두 번째 반복을 준비하는 것을 목표로 하고 있습니다.

Schwarz는 회사가 자사 제품이 오픈 소스인지 아니면 독점인지에 대해 아직 논평할 준비가 되어 있지 않다고 말했습니다. 그러나 그는 일반 및 법적 지침을 세밀하게 조정한 버전인 SaulLM-7B-Instruct가 LegalBench-Instruct 벤치마크에서 평균 0.61점을 기록했지만 "0.77에 가까워지고 있습니다"라고 주장했습니다. 정확도 비율은 GPT-4와 유사하지만 기계 학습 벤치마크를 약간 고려하는 것이 좋습니다.

Safe Sign Technologies의 공동 창립자이자 CEO인 Alexander (Sami) Kardos-Nyheim은 ​​다음과의 인터뷰에서 "여기서 우리의 야망은 모든 사람에게 즉시 매우 우수한 품질의 법적 조언을 제공하는 AI 솔루션을 만드는 것이었습니다."라고 말했습니다. 등록. “ChatGPT 등의 신뢰할 수 없는 법적 조언은 아닙니다. 그러나 AI를 통해 실제로 사용하고 의지할 수 있는 진지한 법률 조언이 있습니다.”

나중에 취소하려고 하는 모든 해로운 행동을 학습하는 문제를 피할 수 있습니다.

"아주 대략적으로 이러한 기술 또는 이러한 방법이 일반적으로 훈련되는 방식은 웹에서 훈련된 거대한 데이터 세트가 있고 각 직접 훈련 단계를 샘플링하거나 그 중 임의의 하위 집합을 선택하는 것입니다." 슈바르츠는 설명했다. “그러면 그 부분 집합을 훈련하고 그 일을 수조 번 반복하게 됩니다.

“단순히 무작위 하위 집합을 선택하는 대신, 훈련의 각 지점에서 현재 시점에서 훈련할 최적의 데이터 하위 집합이 무엇인지 결정하여 모델 개선이 최대가 되도록 하는 새로운 방법이 있습니다. 그것이 첫 번째 단계입니다. 이렇게 하면 나중에 취소하려고 하는 모든 해로운 행동을 학습하는 문제를 피할 수 있습니다.”

Schwarz는 Safe Sign의 접근 방식이 더 안전하다고 제안했습니다. "모델이 대답하는 방법을 잘 모르는 특정 법적 질문이 있는 경우, 자신있게 잘못된 답변을 제공하기보다는 해당 질문에 대해 보류하고 있다고 간단히 말할 수 있습니다."

그는 계속해서 OpenAI와 Google이 취한 바다 끓이기 접근 방식에 대해 회의적인 목소리를 냈습니다. 여기에는 인종 및 성별 편견과 같은 광범위한 피해에 초점을 맞추고 저렴한 계약자에게 비용을 지불하여 모델 응답의 순위를 매겨 신경망을 재교육할 수 있습니다. 해로운 반응을 줄입니다.

Schwarz는 “인간이 할 수 있는 모든 것을 할 수 있으려면 인간이 할 수 있는 모든 것을 테스트해야 합니다.”라고 말했습니다. "가능한 모든 주제에 대해 그렇게 하려고 한다면 그것은 일종의 패배 전략이라고 생각합니다."

Kardos-Nyheim은 ​​"법적 AI뿐만 아니라 보다 일반적으로 AI에서는 의료 또는 법적 맥락에서 심각하고 신뢰할 수 있는 시스템을 허용하는 안전성과 견고성에 초점을 맞추지 못하고 있습니다."라고 덧붙였습니다. ®

spot_img

최신 인텔리전스

spot_img