شعار زيفيرنت

يهدف نموذج اللغة الكبير SauLM-7B إلى التطبيقات القانونية

التاريخ:

أصدر الباحثون في مجال التعلم الآلي والخبراء القانونيون SauLM-7B، الذي يزعمون أنه أول نموذج لغة كبير مفتوح المصدر لإنشاء نص يركز بشكل خاص على العمل القانوني والتطبيقات.

في ضوء الأخطاء الفادحة الأخيرة التي ذكر فيها الذكاء الاصطناعي حالات غير موجودة في ملفات المحكمة المقدمة - ماتا ضد أفيانكا و بارك ضد كيم - قد يبدو ذلك غير حكيم. قد يبدو أن ميل نماذج الذكاء الاصطناعي إلى الهلوسة ومصدر بياناتها غير المؤكد هو بمثابة كسر للصفقات في صناعة تكون فيها المخاطر كبيرة.

ولكن المبدعين SauLM-7B، التابعة لبدء التشغيل يساوي.aiوتقول جامعة باريس ساكلاي وجامعة السوربون في فرنسا، وجامعة لشبونة وكلية الحقوق في نوفا في البرتغال، إن هناك مكانًا لمساعدة الذكاء الاصطناعي في القانون.

قال متحدث باسم Equall.ai في رسالة بالبريد الإلكتروني إلى: "سيكون لـ LLMs وأنظمة الذكاء الاصطناعي على نطاق أوسع تأثير تحويلي على ممارسة القانون الذي يشمل الإنتاجية الهامشية ولكن يتجاوزها". السجل. "ينصب تركيزنا على إنشاء أنظمة ذكاء اصطناعي قانونية شاملة يوجهها ويتحكم فيها المحامون.

إيماننا هو أن الأنظمة المتخصصة في المجال القانوني سيكون أداؤها أفضل من الأنظمة العامة

"إيماننا - بناءً على البيانات والخبرة - هو أن الأنظمة المتخصصة في المجال القانوني ستحقق أداءً أفضل من الأنظمة العامة. ويتضمن ذلك دقة أكبر وأدوات أكثر فائدة لمساعدة المحامين على التركيز على ما يستمتعون به أكثر ويفعلونه بشكل أفضل، وهو ممارسة الحكم القانوني ومساعدة موكليهم بالمشورة.

المنظمات الأخرى متفائلة بالمثل بشأن فائدة المساعدة في مجال الذكاء الاصطناعي. جولدمان ساكس العام الماضي مقدر [PDF] أنه "يمكن أتمتة ربع مهام العمل الحالية بواسطة الذكاء الاصطناعي في الولايات المتحدة، مع التعرض العالي بشكل خاص في المهن الإدارية (46 بالمائة) والقانونية (44 بالمائة) ..." والشركات الناشئة مثل معدل الذكاء على مقاعد البدلاء, Harvey.aiو تقنيات الإشارة الآمنة نرى فرصة في السوق في هذا النوع من التنبؤ.

تزعم شركة Equall.ai، التي أسسها خورخي ماتاموروس، الشريك السابق في شركة White & Case LLP، أن كل الأعمال القانونية تقريبًا - البحث، ومراجعة المستندات وتحليلها، والتلخيص، وتحديد المقاطع الرئيسية في المستندات - يمكن أن تستفيد من الذكاء الاصطناعي.

وتابع المتحدث باسم Equall.ai: "نعتقد أن حاملي شهادات LLM يفتحون الكثير من السبل، بعضها نراه اليوم، والعديد منها لا يزال يتعين علينا اكتشافه". "على سبيل المثال، نعتقد أن حاملي شهادات LLM سيغيرون بشكل جذري الطريقة التي نتعامل بها مع كل من خطوط أنابيب معالجة البيانات وتوليد البيانات، الأمر الذي سيكون بالغ الأهمية للتطبيقات القانونية حيث يكون الحصول على بيانات عالية الجودة باهظ الثمن ويصعب القيام به."

وجهة النظر في Equall.ai هي أنه يمكن التخفيف من عدم دقة نماذج الذكاء الاصطناعي.

"تظل LLMs نماذج احتمالية" ، كما أخبرنا عالم المال. "الهلوسة هي بشكل عام أحد أعراض LLMs التي تعمل خارج نطاق التوزيع. بمعنى آخر، عندما يُطلب منك إنشاء نص حول موضوعات وبيانات مشابهة للبيانات التي تم تدريب ماجستير إدارة الأعمال عليها، يميل طلاب ماجستير إدارة الأعمال إلى الهلوسة بشكل أقل بكثير مما يحدث عندما يُطلب منهم أشياء لم يتعلموا عنها سوى القليل.

"على سبيل المثال، خلال تقييمنا لشاول مع محامين حقيقيين، تمكنا من التأكد من أنه كان أقل عرضة للهلوسة عند مناقشة مفاهيم قانونية محددة. باختصار، نتوقع من حاملي شهادة الماجستير في القانون الذين تم تدريبهم بشكل خاص على البيانات القانونية أن يهلوسوا بشكل أقل بكثير فيما يتعلق بالمواضيع القانونية مقارنة بنظرائهم المتخصصين.

ومع ذلك، تحذر الشركة الناشئة من أنه لا ينبغي الاعتماد على نماذج الذكاء الاصطناعي كما لو كانت قاعدة بيانات قانونية، ويُنصح بالتحقق مرة أخرى من مخرجات ماجستير إدارة الأعمال. فنقول: التدقيق واجب.

يصف الخبراء الذين يقفون وراء SauLM-7B - بيير كولومبو، تيلمو بيسوا بيريس، مالك بوضياف، دومينيك كولفر، روي ميلو، كايو كورو، أندريه إف تي مارتينز، فابريزيو إسبوزيتو، فيرا لوسيا رابوسو، صوفيا مورجادو، ومايكل ديسا - عملهم في ورقة بعنوان "SaulLM-7B: نموذج لغوي كبير رائد للقانون".

متاح على موقع المجتمع النموذجي للذكاء الاصطناعي HuggingFace، ساولم-7ب يعتمد على نموذج ميسترال 7B مفتوح المصدر، وكلاهما يحتوي على 7 مليار معلمة. وهذا أقل بكثير من النماذج مثل لاما 2، والتي يمكن أن تعتمد على ما يصل إلى 70 مليار معلمة. لكن منشئي SauLM-7B لاحظوا أن هذا مجرد إنجاز أول وأن العمل يجري بأحجام نماذج مختلفة.

كما تتوقع من LLM، يعمل SauLM-7B من خلال طرح الأسئلة أو تقديم المطالبات باللغة الطبيعية، ويحاول الإجابة عليها أو الرد عليها؛ في هذه الحالة، يتم التركيز على القانون والمسائل القانونية.

قال جوناثان شوارتز، المؤسس المشارك وكبير العلماء في شركة Safe Sign Technologies الناشئة القانونية للذكاء الاصطناعي ومقرها المملكة المتحدة السجل أن صانعي SauLM-7B قد اتخذوا نهجًا معقولًا لتخصص LLMs العامة.

وقال: "إنه عرض جميل كبديل مفتوح المصدر لتقنيات أكثر ملكية". "ومع ذلك، هناك عمل يجب القيام به."

إنه عرض لطيف كبديل مفتوح المصدر لتقنيات أكثر ملكية

وأشار شوارتز إلى الحاجة إلى نماذج الفريق الأحمر، وهو أمر قال إن شركته تفعله داخليًا.

لقد قيل لنا أن شركة Safe Sign Technologies قامت بإعداد نموذج أولي لمادة LLM قانونية وتهدف إلى الحصول على نسخة ثانية جاهزة للنشر من خلال الشركاء في وقت لاحق من هذا العام أو بعد ذلك.

وقال شوارتز إن الشركة ليست مستعدة بعد للتعليق على المدى الذي ستكون فيه عروضها مفتوحة المصدر أو مملوكة. ولكنه ادعى أنه في حين تمكنت SaulLM-7B-Instruct ــ وهي نسخة تم ضبطها بدقة وفقاً للتعليمات العامة والقانونية ــ من تسجيل متوسط ​​0.61 على مقياس LegalBench-Instruct، "فإننا نقترب من 0.77". تشبه نسبة الدقة هذه دقة GPT-4، على الرغم من أننا نحثك على تناول بعض الملح مع معايير التعلم الآلي.

قال ألكساندر (سامي) كاردوس-نيهايم، المؤسس المشارك والرئيس التنفيذي لشركة Safe Sign Technologies، في مقابلة مع موقع "The Guardian": "كان طموحنا هنا هو إنشاء حل للذكاء الاصطناعي يمنح كل شخص مشورة قانونية جيدة جدًا على الفور". السجل. "ليست نصيحة قانونية غير موثوقة من ChatGPT أو أي شيء من هذا القبيل. ولكن يمكنك بالفعل استخدام النصائح القانونية الجادة والاعتماد عليها عبر الذكاء الاصطناعي.

أنت تتجنب نوعًا ما مشكلة تعلم كل هذا السلوك السام الذي تحاول التراجع عنه لاحقًا

"بشكل تقريبي جدًا، الطريقة التي يتم بها تدريب هذه التقنيات أو هذه الأساليب عادةً هي أن يكون لديك مجموعة بيانات ضخمة تم تدريبها على الويب وكل خطوة تدريب مباشرة تقوم بأخذ عينات منها أو تقوم فقط باختيار مجموعة فرعية عشوائية من ذلك،" وأوضح شوارتز. "ثم تتدرب فقط على تلك المجموعة الفرعية وتفعل ذلك تريليونات المرات.

"بدلاً من مجرد اختيار مجموعة فرعية عشوائية، لدينا أساليب جديدة تحاول في كل مرحلة من التدريب تحديد المجموعة الفرعية المثالية من البيانات للتدريب عليها في هذه المرحلة الزمنية، بحيث يصل تحسين النماذج إلى الحد الأقصى. هذه هي الخطوة الأولى. وبهذه الطريقة تتجنب نوعًا ما مشكلة تعلم كل هذا السلوك السام الذي تحاول التراجع عنه لاحقًا.

اقترح شوارتز أن نهج Safe Sign أكثر أمانًا. "في حالة وجود سؤال قانوني محدد لا يعرف النموذج ببساطة كيفية الإجابة عليه، فبدلاً من إعطاء إجابة غير صحيحة بثقة، يمكننا ببساطة أن نقول إننا نتراجع عن ذلك."

واستمر في التعبير عن شكوكه حول نهج غليان المحيط الذي تتبعه OpenAI وGoogle، والذي يتضمن التركيز على الأضرار الواسعة مثل التحيز العنصري والجنسي، ودفع أموال لمقاولين غير مكلفين لتصنيف استجابات نماذجهم حتى يتمكنوا من إعادة تدريب الشبكات العصبية على العمل. تقديم استجابات ضارة أقل.

وقال شوارتز: "إذا كنت تريد أن تكون قادراً على القيام بكل ما يمكن أن يفعله الإنسان، فعليك أن تختبر كل ما يمكن أن يفعله الإنسان". "أعتقد أن هذه مجرد استراتيجية خاسرة إذا كنت تحاول القيام بذلك في جميع المواضيع المحتملة."

وأضاف كاردوس-نيهايم: "ليس فقط في مجال الذكاء الاصطناعي القانوني، ولكن بشكل عام، في الذكاء الاصطناعي، لا نرى التركيز على السلامة والمتانة الذي يسمح بأنظمة جادة وموثوقة في السياق الطبي أو القانوني". ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة