شعار زيفيرنت

خوارزمية بايز ساذجة: دليل كامل لعشاق علوم البيانات

التاريخ:

تم نشر هذه المقالة كجزء من مدونة علوم البيانات

البيانات | خوارزمية بايز ساذجة

في هذه المقالة ، سنناقش الحدس الرياضي وراء تصنيفات Naive Bayes ، ونرى أيضًا كيفية تنفيذ ذلك على Python.

هذا النموذج سهل البناء ويستخدم في الغالب لمجموعات البيانات الكبيرة. إنه نموذج تعلم آلي احتمالي يستخدم لمشاكل التصنيف. يعتمد جوهر المصنف على نظرية بايز مع افتراض الاستقلال بين المتنبئين. هذا يعني أن تغيير قيمة الميزة لا يغير قيمة ميزة أخرى.

لماذا يطلق عليه السذاجة؟

يطلق عليه Naive بسبب افتراض أن متغيرين مستقلين عندما لا يكونان كذلك. في سيناريو العالم الحقيقي ، لا يكاد يوجد أي موقف تكون فيه الميزات مستقلة.

يبدو أن Naive Bayes خوارزمية بسيطة لكنها قوية. ولكن لماذا هي شعبية جدا؟

نظرًا لأنه نهج احتمالي ، يمكن جعل التنبؤات سريعة. يمكن استخدامه لكل من مشاكل التصنيف الثنائية ومتعددة الفئات.

قبل التعمق في هذا الموضوع ، نحتاج إلى فهم ما هو "احتمال مشروط"، ما هو"مبرهنة بايز"وكيف يساعدنا الاحتمال الشرطي في نظرية بايز.

جدول المحتويات

  1. الاحتمال الشرطي لـ Naive Bayes
  2.  قاعدة بايز
  3. بايز السذاجة
  4. افتراضات ساذجة بايز
  5. بايز غاوسيان ساذج
  6. ملاحظات نهاية

الاحتمال الشرطي لـ Naive Bayes

احتمال مشروط يُعرَّف بأنه احتمال وقوع حدث أو نتيجة ، بناءً على وقوع حدث أو نتيجة سابقة. يتم حساب الاحتمال الشرطي بضرب احتمال الحدث السابق في الاحتمال المحدث للحدث التالي أو الشرطي.

لنبدأ في فهم هذا التعريف بالأمثلة.

لنفترض أنني أطلب منك اختيار بطاقة من على سطح السفينة وتجد أن احتمال الحصول على ملك يمنح البطاقة هو الهراوات.

نلاحظ بعناية أن أذكر هنا أ حالة أن البطاقة عبارة عن نوادي.

الآن أثناء حساب الاحتمال لن يكون المقام 52 ، بدلاً من ذلك ، سيكون 13 لأن إجمالي عدد البطاقات في الأندية هو 13.

نظرًا لأن لدينا ملكًا واحدًا فقط في الأندية ، فإن احتمالية الحصول على ملك نظرًا لأن البطاقة ستكون 1/13 = 0.077.

لنأخذ مثالاً آخر ،

ضع في اعتبارك تجربة عشوائية لرمي عملتين. ستكون مساحة العينة هنا:

S = {HH، HT، TH، TT}

إذا طُلب من شخص أن يجد احتمال الحصول على ذيل ، فإن إجابته ستكون 3/4 = 0.75

لنفترض الآن أن هذه التجربة نفسها قام بها شخص آخر ولكننا نقدم له الآن حالة أن يجب أن يكون لكل من العملات المعدنية رؤوس. هذا يعني أنه إذا كان الحدث "أ":يجب أن يكون لكلتا العمالتين رؤوس "، فقد حدثت النتائج الأولية {HT ، TH ، TT} لا يمكن أن تحدث. ومن ثم في هذه الحالة ، فإن احتمال الحصول على الوجه على كلتا القطعتين سيكون 1/4 = 0.25

من الأمثلة المذكورة أعلاه ، نلاحظ أن الاحتمال قد يتغير إذا تم تقديم بعض المعلومات الإضافية إلينا. هذا هو الحال تمامًا أثناء بناء أي نموذج للتعلم الآلي ، نحتاج إلى العثور على المخرجات في ضوء بعض الميزات.

رياضيا ، يتم إعطاء الاحتمال الشرطي للحدث A حدث حدث B بالفعل من خلال:

الاحتمال الشرطي | خوارزمية بايز ساذجة

مصدر الصورة: المؤلف

قاعدة بايز

نحن الآن على استعداد لذكر واحدة من أكثر النتائج المفيدة في الاحتمال الشرطي: قاعدة بايز.

توفر نظرية بايز التي قدمها عالم الرياضيات البريطاني توماس بايز في عام 1763 وسيلة لحساب احتمالية وقوع حدث في ضوء بعض المعلومات.

يمكن ذكر نظرية بايز رياضيا على النحو التالي:

حكم بايز

في الأساس ، نحاول إيجاد احتمال الحدث A ، نظرًا لأن الحدث B صحيح.

هنا يسمى P (B) الاحتمال المسبق مما يعني أنه احتمال وقوع حدث قبل الدليل

يُطلق على P (B | A) الاحتمال اللاحق ، أي احتمال وقوع حدث بعد رؤية الدليل.

فيما يتعلق بمجموعة البيانات الخاصة بنا ، يمكن إعادة كتابة هذه الصيغة على النحو التالي:

الصيغة | خوارزمية بايز ساذجة

ص: فئة المتغير

X: ناقل سمة تابع (بحجم n)

استخدام حكم بايز

مصدر الصورة: المؤلف

ما هو ساذج بايز؟

تزودنا قاعدة بايز بصيغة احتمالية Y نظرًا لبعض الميزات X. في مشاكل العالم الحقيقي ، نادرًا ما نجد أي حالة حيث توجد ميزة واحدة فقط.

عندما تكون الميزات مستقلة ، يمكننا توسيع قاعدة Bayes إلى ما يسمى Naive Bayes والتي تفترض أن الميزات مستقلة وهذا يعني أن تغيير قيمة ميزة واحدة لا يؤثر على قيم المتغيرات الأخرى ولهذا السبب نسمي هذه الخوارزمية "ساذج"

يمكن استخدام Naive Bayes لأشياء مختلفة مثل التعرف على الوجوه والتنبؤ بالطقس والتشخيص الطبي وتصنيف الأخبار وتحليل المشاعر وغير ذلك الكثير.

عندما يكون هناك متغيرات X متعددة ، فإننا نبسطها بافتراض أن المتغيرات X مستقلة ، لذلك

قاعدة بايز لمضاعفة X | خوارزمية بايز ساذجة

بالنسبة لعدد n من X ، تصبح الصيغة ساذجة بايز:

العدد n لـ X

والتي يمكن التعبير عنها على النحو التالي:

التمثيل | خوارزمية بايز ساذجة

بما أن المقام ثابت هنا فيمكننا إزالته. إنه اختيارك تمامًا إذا كنت تريد إزالته أم لا. ستساعدك إزالة المقام على توفير الوقت والعمليات الحسابية.

معادلة

يمكن أيضًا فهم هذه الصيغة على النحو التالي:

الصيغة النهائية | خوارزمية بايز ساذجة
مصدر الصورة: المؤلف

هناك عدد كبير من الصيغ المذكورة هنا ولكن لا تقلق من أننا سنحاول فهم كل هذا بمساعدة مثال.

مثال ساذج بايز

لنأخذ مجموعة بيانات للتنبؤ بما إذا كان بإمكاننا ذلك حيوان أليف أم لا.

مثال على مجموعة البيانات
مصدر الصورة: المؤلف

افتراضات ساذجة بايز

· جميع المتغيرات مستقلة. هذا إذا كان الحيوان كلبًا فهذا لا يعني أن الحجم سيكون متوسطًا

· جميع المتنبئين لها تأثير متساوٍ على النتيجة. وهذا يعني أن كون الحيوان كلبًا ليس له أهمية أكبر في تقرير ما إذا كان بإمكاننا مداعبته أم لا. جميع الميزات لها أهمية متساوية.

يجب أن نحاول تطبيق صيغة Naive Bayes على مجموعة البيانات المذكورة أعلاه ولكن قبل ذلك ، نحتاج إلى إجراء بعض العمليات الحسابية المسبقة على مجموعة البيانات الخاصة بنا.

علينا إيجاد P (xi|yj) لكل xi في X وكل yj في Y. تم توضيح جميع هذه الحسابات أدناه:

افتراضات | خوارزمية بايز ساذجة

مصدر الصورة: المؤلف

نحتاج أيضًا إلى الاحتمالات (P (y)) ، والتي يتم حسابها في الجدول أدناه. على سبيل المثال ، P (حيوان أليف = NO) = 6/14.

الاحتمالات | خوارزمية بايز ساذجة
مصدر الصورة: المؤلف

الآن إذا أرسلنا بيانات الاختبار الخاصة بنا ، افترض الاختبار = (بقرة ، متوسطة ، سوداء)

احتمالية ملاعبة حيوان:

احتمال ملاعبة حيوان
احتمال الملاعبة على قيمة حيوانية

واحتمال عدم مداعبة حيوان:

احتمال عدم مداعبة حيوان | خوارزمية بايز ساذجة
قيمنا

نعلم أن P (نعم | اختبار) + P (لا | اختبار) = 1

لذلك ، سوف نقوم بتطبيع النتيجة:

تطبيع النتيجة | احتمال عدم مداعبة حيوان

نرى هنا أن P (نعم | اختبار)> P (لا | اختبار) ، وبالتالي فإن التنبؤ بأنه يمكننا مداعبة هذا الحيوان "نعم".

بايز غاوسيان ساذج

لقد ناقشنا حتى الآن كيفية التنبؤ بالاحتمالات إذا أخذ المتنبئون قيمًا منفصلة. ولكن ماذا لو كانت مستمرة؟ لهذا ، نحتاج إلى وضع المزيد من الافتراضات فيما يتعلق بتوزيع كل ميزة. تختلف مصنفات Bayes الساذجة المختلفة بشكل أساسي عن طريق الافتراضات التي تقدمها فيما يتعلق بتوزيع P (xi | y). هنا سنناقش Gaussian Naïve Bayes.

يتم استخدام Gaussian Naïve Bayes عندما نفترض توزيع جميع المتغيرات المستمرة المرتبطة بكل ميزة وفقًا لها التوزيع البياني. يسمى التوزيع الغاوسي أيضًا التوزيع الطبيعي.

يتغير الاحتمال الشرطي هنا نظرًا لأن لدينا قيمًا مختلفة الآن. أيضًا ، يتم إعطاء دالة الكثافة الاحتمالية (PDF) للتوزيع الطبيعي من خلال:

غاوس السذاجة الخلجان

يمكننا استخدام هذه الصيغة لحساب احتمالية الاحتمالات إذا كانت بياناتنا مستمرة.

التعليقات الختامية

تُستخدم خوارزميات Naive Bayes في الغالب في التعرف على الوجوه ، والتنبؤ بالطقس ، والتشخيص الطبي ، وتصنيف الأخبار ، وتحليل المشاعر ، وما إلى ذلك في هذه المقالة ، تعلمنا الحدس الرياضي وراء هذه الخوارزمية. لقد اتخذت بالفعل خطوتك الأولى لإتقان هذه الخوارزمية ومن هنا كل ما تحتاجه هو الممارسة.

هل وجدت هذه المادة مفيدة؟ يرجى مشاركة آرائك / أفكارك في قسم التعليقات أدناه.

عن المؤلف

أنا طالب جامعي حاليًا في السنة الأخيرة لي تخصص في الإحصاء (بكالوريوس في الإحصاء) ولدي اهتمام كبير بمجال علوم البيانات والتعلم الآلي والذكاء الاصطناعي. أستمتع بالغوص في البيانات لاكتشاف الاتجاهات والأفكار القيمة الأخرى حول البيانات. أنا أتعلم باستمرار ولدي الحافز لتجربة أشياء جديدة.

أنا منفتح على التعاون والعمل.

لأي شك أو استفسار ، لا تتردد في الاتصال بي البريد إلكتروني:

تواصل معي على لينكدين: و تويتر

الوسائط الموضحة في هذه المقالة ليست مملوكة لشركة Analytics Vidhya ويتم استخدامها وفقًا لتقدير المؤلف.

أفلاطون. Web3 مُعاد تصوره. تضخيم ذكاء البيانات.
انقر هنا للوصول.

المصدر: https://www.analyticsvidhya.com/blog/2021/09/naive-bayes-algorithm-a-complete-guide-for-data-science-enthusiasts/

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟