شعار زيفيرنت

15+ أصغر ماجستير في القانون يمكنك تشغيله على الأجهزة المحلية

التاريخ:

المُقدّمة

تخيل الاستفادة من قوة نماذج اللغة المتقدمة مباشرة على جهاز الكمبيوتر الشخصي أو الجهاز المحمول الخاص بك دون الاعتماد على الخدمات السحابية أو الخوادم القوية. يبدو لا يصدق، أليس كذلك؟ حسنًا، هذه النماذج اللغوية الصغيرة تجعل هذا الحلم حقيقة. في البرمجة اللغوية العصبية، لاحظنا ظهور نماذج لغوية هائلة تستوعب وتخلق النص تمامًا مثل الإنسان. وفي حين أن النتائج غالبًا ما تكون رائعة، إلا أن المتطلبات الحسابية كبيرة بنفس القدر. ونتيجة لذلك، فإنه من الصعب تشغيلها خارج مركز المعالجة. لكن هذا يتغير بسرعة! والخبر السار هو أن الباحثين والمهندسين بذلوا قصارى جهدهم لإنتاج LLMs صغيرة تكفي للتشغيل على أجهزتك المحلية ولديها قوة كافية لتطبيقها على أي مهمة مفيدة.

في هذه المقالة، سنستكشف أصغر وأقوى نماذج اللغات التي يمكنك تشغيلها محليًا من جهازك الخاص. تحقق هذه الأعجوبة المدمجة توازنًا مثاليًا بين الأداء وكفاءة الموارد، مما يفتح عالمًا من الإمكانيات للمطورين والباحثين والمتحمسين على حدٍ سواء.

أصغر ماجستير في القانون

جدول المحتويات

ما هي فوائد LLMs الصغيرة؟

فيما يلي بعض الفوائد الرئيسية لاستخدام LLMs الصغيرة (نماذج اللغة الكبيرة) مقارنة بنظيراتها الأكبر:

  1. متطلبات الأجهزة أقل: تحتوي برامج LLM الصغيرة على معلمات أقل بكثير وتتطلب طاقة حسابية أقل، مما يجعلها مثالية للتشغيل على الأجهزة ذات موارد الأجهزة المحدودة، مثل أجهزة الكمبيوتر المحمولة والهواتف الذكية والأنظمة المدمجة. وهذا يجعلها أكثر سهولة وديمقراطية باستخدام LLMs لمجموعة واسعة من المستخدمين والتطبيقات.
  2. أسرع الاستدلال: مع عدد أقل من المعلمات وأحجام نماذج أصغر، يمكن لطلاب LLM الصغيرة إجراء استدلال أسرع، مما يعني أوقات استجابة أسرع وزمن وصول أقل. وهذا مهم بشكل خاص للتطبيقات في الوقت الحقيقي مثل محادثة منظمة العفو الدولية، حيث تكون الاستجابة أمرًا بالغ الأهمية.
  3. استهلاك طاقة أقل: تتطلب النماذج الأصغر حجمًا طاقة أقل لتشغيلها، مما يجعلها أكثر كفاءة في استخدام الطاقة وصديقة للبيئة. وهذا مفيد بشكل خاص للأجهزة التي تعمل بالبطاريات، حيث تعد كفاءة الطاقة أمرًا بالغ الأهمية.
  4. سهولة النشر وقابلية النقل: تعتبر شهادات LLM الصغيرة أسهل في النشر والتوزيع نظرًا لحجمها الصغير. ويمكن دمجها في تطبيقات وأنظمة مختلفة دون الحاجة إلى أجهزة متخصصة أو بنية تحتية واسعة النطاق. تسمح إمكانية النقل هذه باعتماد أوسع وتمكن من تطوير تطبيقات أكثر لا مركزية وقائمة على الحافة.
  5. الخصوصية وسيادة البيانات: من خلال تشغيل LLMs الصغيرة محليًا، يمكن للمستخدمين الحفاظ على تحكم أكبر في بياناتهم وتقليل الحاجة إلى إرسال معلومات حساسة إلى خوادم بعيدة أو منصات سحابية. يمكن أن يساعد ذلك في معالجة مخاوف الخصوصية والامتثال للوائح حماية البيانات.
  6. الفعالية من حيث التكلفة: تتطلب النماذج الأصغر بشكل عام موارد حسابية أقل، وهو ما يمكن أن يترجم إلى تكاليف تشغيل أقل، خاصة عند التشغيل على الأنظمة الأساسية السحابية أو الأجهزة المستأجرة. هذه الفعالية من حيث التكلفة يمكن أن تجعل LLM التكنولوجيا في متناول المؤسسات الصغيرة والمطورين الأفراد.
  7. التطبيقات المتخصصة: على الرغم من أن النماذج الأصغر حجمًا قد لا تحقق نفس مستوى الأداء الذي تحققه النماذج الأكبر حجمًا في المهام العامة، إلا أنه يمكن ضبطها وتحسينها لتطبيقات أو مجالات معينة، ومن المحتمل أن تتفوق على النماذج الأكبر حجمًا في تلك المجالات المتخصصة.

من المهم أن نلاحظ أن فوائد LLMs الصغيرة تأتي مع مقايضات في الأداء والقدرات مقارنة بنظيراتها الأكبر حجمًا. ومع ذلك، فإن مزايا LLM الصغيرة في كفاءة الموارد وقابلية النقل وفعالية التكلفة يمكن أن تجعلها خيارًا مقنعًا للعديد من التطبيقات حيث لا يكون الأداء المتطور مطلبًا حاسمًا.

أصغر LLMs التي يمكنك تشغيلها على الأجهزة المحلية

ديستيلبيرت

  • نموذج الحجم: يحتوي الإصدار الأساسي على حوالي 66 مليون معلمة، وهو أصغر بكثير من معلمات BERT البالغة 110 مليونًا.
  • الوصف: DistilBERT هو نسخة مقطرة من نموذج BERT، وهو مصمم ليكون أصغر حجمًا وأسرع مع الاحتفاظ بمعظم أداء BERT. ويستخدم تقنيات تقطير المعرفة لضغط نموذج BERT الكبير في نسخة أصغر، مما يجعله أكثر كفاءة وأسهل للنشر على الأجهزة المحلية.
  • متطلبات الأجهزة: الحجم الصغير لـ DistilBERT يسمح له بالعمل على العديد من الأجهزة المحلية، بما في ذلك أجهزة الكمبيوتر المحمولة وأجهزة الكمبيوتر المكتبية وحتى الأجهزة المحمولة المتطورة.

رابط عناق الوجه: ديستيلبيرت

تاينيبيرت

  • نموذج الحجم: يحتوي TinyBERT-4 على حوالي 14 مليون معلمة، بينما يحتوي TinyBERT-6 على حوالي 67 مليونًا.
  • الوصف: TinyBERT هي نسخة أكثر إحكاما من BERT، تم تطويرها من قبل باحثين في جامعة كارنيجي ميلون وGoogle Brain. يستخدم تقنيات متقدمة مثل الطبقات والتقطير لتحقيق ضغط كبير للنموذج مع الحفاظ على الأداء التنافسي في مهام البرمجة اللغوية العصبية المختلفة.
  • متطلبات الأجهزة: حجم TinyBERT الصغير للغاية يسمح له بالعمل على مجموعة واسعة من الأجهزة المحلية، بما في ذلك أجهزة الكمبيوتر المحمولة المنخفضة الجودة والأنظمة المدمجة والأجهزة المحمولة.

رابط عناق الوجه: تاينيبيرت

موبايلبيرت

  • نموذج الحجم: يحتوي MobileBERT على حوالي 25 مليون معلمة، وهي أصغر بكثير من قاعدة BERT الأصلية.
  • الوصف: MobileBERT هو نموذج BERT مدمج وفعال للأجهزة المحمولة وأجهزة الحافة. ويستخدم تقنيات مثل تقطير المعرفة والتكميم لتقليل حجم النموذج مع الحفاظ على الأداء العالي في مجموعة واسعة من مهام البرمجة اللغوية العصبية.
  • متطلبات الأجهزة: كما يوحي الاسم، تم تحسين MobileBERT للتشغيل على الأجهزة المحمولة وغيرها من البيئات المحدودة الموارد.

رابط عناق الوجه: موبايلبيرت

آلبير

  • نموذج الحجم: يختلف حسب التكوين؛ واحدة من أصغرها هي قاعدة ألبرت المكونة من 12 طبقة و12 رأس انتباه.
  • الوصف: تم تصميم ALBERT (A Lite BERT) للاستخدام الفعال للذاكرة والاستدلال الأسرع. ويتميز بآلية مشاركة المعلمات عبر الطبقات وحجم التضمين المنخفض. إنها فعالة لمختلف مهام البرمجة اللغوية العصبية بينما تكون أخف من BERT الأصلي.
  • متطلبات الأجهزة: تصميم ALBERT الفعال يسمح له بالعمل على العديد من الأجهزة المحلية ذات قوة معالجة معتدلة.

رابط عناق الوجه: آلبير

جي بي تي-2 صغير

  • نموذج الحجم: يحتوي GPT-2 Small على حوالي 117 مليون معلمة، وهو أصغر بكثير من نماذج GPT-2 الأكبر.
  • الوصف: GPT-2 Small هو نسخة أصغر من نموذج GPT-2 (المحول التوليدي المدرب مسبقًا 2) الشهير الذي طورته OpenAI. على الرغم من أنه ليس مضغوطًا مثل بعض النماذج الأخرى، إلا أن GPT-2 Small لا يزال خفيف الوزن نسبيًا ويمكن استخدامه لمهام مثل إنشاء النص والتلخيص ونمذجة اللغة.
  • متطلبات الأجهزة: يمكن تشغيل GPT-2 Small على أجهزة الكمبيوتر الشخصية ذات مواصفات الأجهزة المتوسطة، مثل أجهزة الكمبيوتر المحمولة أو أجهزة الكمبيوتر المكتبية متوسطة المدى.

رابط عناق الوجه: جي بي تي-2 صغير

ديسي كودر-1B

  • نموذج الحجم: 1 مليار معلمة
  • الوصف: DeciCoder-1B هو نموذج لغة يركز على إنشاء التعليمات البرمجية وفهمها. يمكنه المساعدة في مهام البرمجة مثل إكمال التعليمات البرمجية، والترجمة بين لغات البرمجة، وشرح التعليمات البرمجية. يتم تدريبه على مجموعة كبيرة من التعليمات البرمجية المصدر وأوصاف اللغة الطبيعية.
  • متطلبات الأجهزة: بفضل حجم المعلمة الصغير نسبيًا الذي يبلغ مليارًا، يمكن تشغيل DeciCoder-1B على العديد من الأجهزة المحلية مثل أجهزة الكمبيوتر المحمولة وأجهزة الكمبيوتر المكتبية وربما الأجهزة المحمولة المتطورة أو أجهزة الكمبيوتر ذات اللوحة الواحدة.

رابط عناق الوجه: ديسي كودر – 1 ب

فاي -1.5

  • نموذج الحجم: 1.5 مليار معلمة
  • الوصف: Phi-1.5 هو نموذج لغة للأغراض العامة قادر على إنشاء نص والإجابة على الأسئلة وفهم اللغة الطبيعية ومهام البرمجة اللغوية العصبية الأخرى. إنه مصمم للتكيف مع المجالات والمهام المختلفة من خلال الضبط الدقيق أو المطالبة.
  • متطلبات الأجهزة: حجم معلمة Phi-1.5 الصغير الذي يبلغ 1.5 مليار يسمح بنشره على الأجهزة المحلية ذات موارد الحوسبة المعتدلة، مثل أجهزة الكمبيوتر المحمولة وأجهزة الكمبيوتر المكتبية، وربما أجهزة الحوسبة المحمولة أو ذات اللوحة الواحدة المتطورة.

رابط عناق الوجه: فاي -1.5

دوللي-v2-3b

  • نموذج الحجم: 3 مليار معلمة
  • الوصف: Dolly-v2-3b هو نموذج لغة يتبع التعليمات ويتفوق في فهم وتنفيذ المطالبات والتعليمات المفصلة ومتعددة الخطوات عبر المهام المختلفة.
  • متطلبات الأجهزة: مع 3 مليارات معلمة، يتطلب Dolly-v2-3b أجهزة محلية ذات طاقة حوسبة متوسطة إلى عالية، مثل أجهزة الكمبيوتر المحمولة أو أجهزة الكمبيوتر المكتبية أو محطات العمل المتطورة.

رابط عناق الوجه: دوللي-v2-3b

StableLM-Zephyr-3B

  • نموذج الحجم: 3 مليار معلمة
  • الوصف: StableLM-Zephyr-3B هو نموذج لغة تم تدريبه لتقديم استجابات موثوقة وصادقة. لقد تم تصميمه ليكون نموذجًا مستقرًا وجديرًا بالثقة لمختلف مهام معالجة اللغة الطبيعية.
  • متطلبات الأجهزة: مثل Dolly-v2-3b، يمكن تشغيل 3 مليارات معلمة StableLM-Zephyr-3B على الأجهزة المحلية ذات قدرات الحوسبة المتوسطة إلى العالية، مثل أجهزة الكمبيوتر المحمولة أو أجهزة الكمبيوتر المكتبية أو محطات العمل المتطورة.

رابط عناق الوجه: StableLM-Zephyr-3B

ديسيLM-7B

  • نموذج الحجم: 7 مليار معلمة
  • الوصف: DeciLM-7B هو نموذج لغة للأغراض العامة لمختلف مهام معالجة اللغة الطبيعية. يوفر حجم المعلمة الأكبر البالغ 7 مليارات أداءً محسنًا مقارنة بالنماذج الأصغر حجمًا بينما يظل مضغوطًا بدرجة كافية للنشر المحلي.
  • متطلبات الأجهزة: لتشغيل DeciLM-7B محليًا، سيحتاج المستخدمون إلى الوصول إلى أنظمة ذات أجهزة أكثر قوة، مثل أجهزة الكمبيوتر المكتبية المتطورة أو محطات العمل المزودة بوحدات معالجة الرسومات أو وحدات معالجة الرسومات (TPU) القادرة.

رابط عناق الوجه: ديسيLM-7B

ميسترال-7B-Instruct-v0.2

  • نموذج الحجم: 7 مليار معلمة
  • الوصف: Mistral-7B-Instruct-v0.2 هو نموذج لغة يتبع التعليمات ويمكنه التعامل بفعالية مع التعليمات والمهام المعقدة متعددة الخطوات.
  • متطلبات الأجهزة: على غرار DeciLM-7B، يتطلب Mistral-7B-Instruct-v0.2 أجهزة محلية متطورة، مثل أجهزة الكمبيوتر المكتبية أو محطات العمل القوية، لتشغيل معلماته البالغ عددها 7 مليارات.

رابط عناق الوجه: ميسترال-7B-Instruct-v0.2

أوركا-2-7ب

  • نموذج الحجم: 7 مليار معلمة
  • الوصف: Orca-2-7B هو نموذج لغة مفتوح المصدر يوفر استجابات آمنة وصادقة ومتوافقة مع الإنسان. ويهدف إلى توليد مخرجات تتماشى مع القيم والأخلاق الإنسانية.
  • متطلبات الأجهزة: تتطلب المعلمة Orca-7-2B البالغة 7 مليار أجهزة محلية قوية مثل أجهزة الكمبيوتر المكتبية أو محطات العمل عالية الأداء لتعمل بفعالية.

رابط عناق الوجه: أوركا-2-7ب

عنبر

  • نموذج الحجم: 7 مليار معلمة
  • الوصف: Amber هو نموذج لغة متعدد المهام مصمم للتعامل مع مهام معالجة اللغة الطبيعية المختلفة بأداء عالٍ عبر المجالات والتطبيقات.
  • متطلبات الأجهزة: يتطلب تشغيل معلمات Amber البالغ عددها 7 مليار معلمة محليًا الوصول إلى أجهزة متطورة، مثل أجهزة الكمبيوتر المكتبية القوية أو محطات العمل المزودة بوحدات معالجة الرسومات أو وحدات معالجة الرسومات (TPU) القادرة.

رابط عناق الوجه: عنبر

افتحHathi-7B-Hi-v0.1-Base

  • نموذج الحجم: 7 مليار معلمة
  • الوصف: OpenHathi-7B-Hi-v0.1-Base هو نموذج كبير للغة الهندية، وهو أحد أكبر النماذج المتاحة للغة الهندية. يمكنه فهم وإنشاء النص الهندي.
  • متطلبات الأجهزة: مثل نماذج 7B الأخرى، يتطلب OpenHathi-7B-Hi-v0.1-Base أجهزة محلية عالية الأداء، مثل أجهزة الكمبيوتر المكتبية أو محطات العمل القوية، ليعمل بفعالية.

رابط عناق الوجه: افتحHathi-7B-Hi-v0.1-Base

سولار-10.7B-v1.0

  • نموذج الحجم: 10.7 مليار معلمة
  • الوصف: SOLAR-10.7B-v1.0 هو نموذج لغة عام كبير يتخطى حدود ما يمكن تشغيله محليًا على الأجهزة الاستهلاكية. يوفر أداءً محسنًا لمختلف مهام البرمجة اللغوية العصبية.
  • متطلبات الأجهزة: لنشر SOLAR-10.7B-v1.0 محليًا، سيحتاج المستخدمون إلى الوصول إلى أجهزة استهلاكية متطورة مزودة بوحدات معالجة رسومات قوية أو إعدادات متعددة لوحدات معالجة الرسومات.

رابط عناق الوجه: سولار-10.7B-v1.0

نيكزس رافين-V2-13B

  • نموذج الحجم: 13 مليار معلمة
  • الوصف: NexusRaven-V2-13B هو نموذج لغة كبير يركز على إنشاء نص مفتوح عبر مجالات وتطبيقات مختلفة.
  • متطلبات الأجهزة: مع 13 مليار معلمة، يتطلب NexusRaven-V2-13B أجهزة قوية جدًا، مثل محطات العمل المتطورة أو إعدادات وحدات معالجة الرسومات المتعددة، للتشغيل محليًا على أجهزة المستهلك.

رابط عناق الوجه: نيكزس رافين-V2-13B

في حين أن برامج LLM المدمجة هذه توفر مزايا كبيرة في قابلية النقل وكفاءة استخدام الموارد، فمن المهم ملاحظة أنها قد لا تحقق نفس مستوى الأداء الذي تحققه نظيراتها الأكبر حجمًا في بعض مهام البرمجة اللغوية العصبية المعقدة. ومع ذلك، بالنسبة للعديد من التطبيقات التي لا تتطلب أداءً متطورًا، يمكن أن تكون هذه النماذج الأصغر حلاً عمليًا ويمكن الوصول إليه، خاصة عند التشغيل على الأجهزة المحلية ذات الموارد الحسابية المحدودة.

وفي الختام

في الختام، يمثل توفر نماذج اللغات الصغيرة التي يمكن تشغيلها محليًا على أجهزتك خطوة مهمة للأمام في مجال الذكاء الاصطناعي NLP. توفر هذه النماذج مزيجًا مثاليًا من القوة والكفاءة وإمكانية الوصول، مما يسمح لك بأداء مهام معالجة اللغة الطبيعية المتقدمة دون الاعتماد على الخدمات السحابية أو مراكز البيانات القوية. أثناء تجربتك مع برامج LLM المدمجة هذه، فإنك تفتح آفاقًا جديدة للابتكار والإبداع في مشاريعك، سواء كنت مطورًا متمرسًا أو باحثًا أو هاويًا. ال مستقبل الذكاء الاصطناعي ولم يعد يقتصر على النماذج الضخمة؛ بدلاً من ذلك، يتعلق الأمر بتعظيم إمكانات الأجهزة الموجودة لديك بالفعل. اكتشف ما يمكن أن تحققه لك هذه النماذج الصغيرة والقوية!

أتمنى أن تجد هذه المقالة ثاقبة. إذا كان لديك أي اقتراحات بخصوص المقال، قم بالتعليق أدناه. لمزيد من المقالات يمكنك الرجوع إلى هذا الصفحة .

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة