تم نشر هذه المقالة كجزء من مدونة علوم البيانات
في هذه المقالة ، سنناقش الحدس الرياضي وراء تصنيفات Naive Bayes ، ونرى أيضًا كيفية تنفيذ ذلك على Python.
هذا النموذج سهل البناء ويستخدم في الغالب لمجموعات البيانات الكبيرة. إنه نموذج تعلم آلي احتمالي يستخدم لمشاكل التصنيف. يعتمد جوهر المصنف على نظرية بايز مع افتراض الاستقلال بين المتنبئين. هذا يعني أن تغيير قيمة الميزة لا يغير قيمة ميزة أخرى.
لماذا يطلق عليه السذاجة؟
يطلق عليه Naive بسبب افتراض أن متغيرين مستقلين عندما لا يكونان كذلك. في سيناريو العالم الحقيقي ، لا يكاد يوجد أي موقف تكون فيه الميزات مستقلة.
يبدو أن Naive Bayes خوارزمية بسيطة لكنها قوية. ولكن لماذا هي شعبية جدا؟
نظرًا لأنه نهج احتمالي ، يمكن جعل التنبؤات سريعة. يمكن استخدامه لكل من مشاكل التصنيف الثنائية ومتعددة الفئات.
قبل التعمق في هذا الموضوع ، نحتاج إلى فهم ما هو "احتمال مشروط"، ما هو"مبرهنة بايز"وكيف يساعدنا الاحتمال الشرطي في نظرية بايز.
جدول المحتويات
- الاحتمال الشرطي لـ Naive Bayes
- قاعدة بايز
- بايز السذاجة
- افتراضات ساذجة بايز
- بايز غاوسيان ساذج
- ملاحظات نهاية
الاحتمال الشرطي لـ Naive Bayes
احتمال مشروط يُعرَّف بأنه احتمال وقوع حدث أو نتيجة ، بناءً على وقوع حدث أو نتيجة سابقة. يتم حساب الاحتمال الشرطي بضرب احتمال الحدث السابق في الاحتمال المحدث للحدث التالي أو الشرطي.
لنبدأ في فهم هذا التعريف بالأمثلة.
لنفترض أنني أطلب منك اختيار بطاقة من على سطح السفينة وتجد أن احتمال الحصول على ملك يمنح البطاقة هو الهراوات.
نلاحظ بعناية أن أذكر هنا أ حالة أن البطاقة عبارة عن نوادي.
الآن أثناء حساب الاحتمال لن يكون المقام 52 ، بدلاً من ذلك ، سيكون 13 لأن إجمالي عدد البطاقات في الأندية هو 13.
نظرًا لأن لدينا ملكًا واحدًا فقط في الأندية ، فإن احتمالية الحصول على ملك نظرًا لأن البطاقة ستكون 1/13 = 0.077.
لنأخذ مثالاً آخر ،
ضع في اعتبارك تجربة عشوائية لرمي عملتين. ستكون مساحة العينة هنا:
S = {HH، HT، TH، TT}
إذا طُلب من شخص أن يجد احتمال الحصول على ذيل ، فإن إجابته ستكون 3/4 = 0.75
لنفترض الآن أن هذه التجربة نفسها قام بها شخص آخر ولكننا نقدم له الآن حالة أن يجب أن يكون لكل من العملات المعدنية رؤوس. هذا يعني أنه إذا كان الحدث "أ":يجب أن يكون لكلتا العمالتين رؤوس "، فقد حدثت النتائج الأولية {HT ، TH ، TT} لا يمكن أن تحدث. ومن ثم في هذه الحالة ، فإن احتمال الحصول على الوجه على كلتا القطعتين سيكون 1/4 = 0.25
من الأمثلة المذكورة أعلاه ، نلاحظ أن الاحتمال قد يتغير إذا تم تقديم بعض المعلومات الإضافية إلينا. هذا هو الحال تمامًا أثناء بناء أي نموذج للتعلم الآلي ، نحتاج إلى العثور على المخرجات في ضوء بعض الميزات.
رياضيا ، يتم إعطاء الاحتمال الشرطي للحدث A حدث حدث B بالفعل من خلال:
مصدر الصورة: المؤلف
قاعدة بايز
نحن الآن على استعداد لذكر واحدة من أكثر النتائج المفيدة في الاحتمال الشرطي: قاعدة بايز.
توفر نظرية بايز التي قدمها عالم الرياضيات البريطاني توماس بايز في عام 1763 وسيلة لحساب احتمالية وقوع حدث في ضوء بعض المعلومات.
يمكن ذكر نظرية بايز رياضيا على النحو التالي:
في الأساس ، نحاول إيجاد احتمال الحدث A ، نظرًا لأن الحدث B صحيح.
هنا يسمى P (B) الاحتمال المسبق مما يعني أنه احتمال وقوع حدث قبل الدليل
يُطلق على P (B | A) الاحتمال اللاحق ، أي احتمال وقوع حدث بعد رؤية الدليل.
فيما يتعلق بمجموعة البيانات الخاصة بنا ، يمكن إعادة كتابة هذه الصيغة على النحو التالي:
ص: فئة المتغير
X: ناقل سمة تابع (بحجم n)
مصدر الصورة: المؤلف
ما هو ساذج بايز؟
تزودنا قاعدة بايز بصيغة احتمالية Y نظرًا لبعض الميزات X. في مشاكل العالم الحقيقي ، نادرًا ما نجد أي حالة حيث توجد ميزة واحدة فقط.
عندما تكون الميزات مستقلة ، يمكننا توسيع قاعدة Bayes إلى ما يسمى Naive Bayes والتي تفترض أن الميزات مستقلة وهذا يعني أن تغيير قيمة ميزة واحدة لا يؤثر على قيم المتغيرات الأخرى ولهذا السبب نسمي هذه الخوارزمية "ساذج"
يمكن استخدام Naive Bayes لأشياء مختلفة مثل التعرف على الوجوه والتنبؤ بالطقس والتشخيص الطبي وتصنيف الأخبار وتحليل المشاعر وغير ذلك الكثير.
عندما يكون هناك متغيرات X متعددة ، فإننا نبسطها بافتراض أن المتغيرات X مستقلة ، لذلك
بالنسبة لعدد n من X ، تصبح الصيغة ساذجة بايز:
والتي يمكن التعبير عنها على النحو التالي:
بما أن المقام ثابت هنا فيمكننا إزالته. إنه اختيارك تمامًا إذا كنت تريد إزالته أم لا. ستساعدك إزالة المقام على توفير الوقت والعمليات الحسابية.
يمكن أيضًا فهم هذه الصيغة على النحو التالي:
هناك عدد كبير من الصيغ المذكورة هنا ولكن لا تقلق من أننا سنحاول فهم كل هذا بمساعدة مثال.
مثال ساذج بايز
لنأخذ مجموعة بيانات للتنبؤ بما إذا كان بإمكاننا ذلك حيوان أليف أم لا.
افتراضات ساذجة بايز
· جميع المتغيرات مستقلة. هذا إذا كان الحيوان كلبًا فهذا لا يعني أن الحجم سيكون متوسطًا
· جميع المتنبئين لها تأثير متساوٍ على النتيجة. وهذا يعني أن كون الحيوان كلبًا ليس له أهمية أكبر في تقرير ما إذا كان بإمكاننا مداعبته أم لا. جميع الميزات لها أهمية متساوية.
يجب أن نحاول تطبيق صيغة Naive Bayes على مجموعة البيانات المذكورة أعلاه ولكن قبل ذلك ، نحتاج إلى إجراء بعض العمليات الحسابية المسبقة على مجموعة البيانات الخاصة بنا.
علينا إيجاد P (xi|yj) لكل xi في X وكل yj في Y. تم توضيح جميع هذه الحسابات أدناه:
مصدر الصورة: المؤلف
نحتاج أيضًا إلى الاحتمالات (P (y)) ، والتي يتم حسابها في الجدول أدناه. على سبيل المثال ، P (حيوان أليف = NO) = 6/14.
الآن إذا أرسلنا بيانات الاختبار الخاصة بنا ، افترض الاختبار = (بقرة ، متوسطة ، سوداء)
احتمالية ملاعبة حيوان:
واحتمال عدم مداعبة حيوان:
نعلم أن P (نعم | اختبار) + P (لا | اختبار) = 1
لذلك ، سوف نقوم بتطبيع النتيجة:
نرى هنا أن P (نعم | اختبار)> P (لا | اختبار) ، وبالتالي فإن التنبؤ بأنه يمكننا مداعبة هذا الحيوان "نعم".
بايز غاوسيان ساذج
لقد ناقشنا حتى الآن كيفية التنبؤ بالاحتمالات إذا أخذ المتنبئون قيمًا منفصلة. ولكن ماذا لو كانت مستمرة؟ لهذا ، نحتاج إلى وضع المزيد من الافتراضات فيما يتعلق بتوزيع كل ميزة. تختلف مصنفات Bayes الساذجة المختلفة بشكل أساسي عن طريق الافتراضات التي تقدمها فيما يتعلق بتوزيع P (xi | y). هنا سنناقش Gaussian Naïve Bayes.
يتم استخدام Gaussian Naïve Bayes عندما نفترض توزيع جميع المتغيرات المستمرة المرتبطة بكل ميزة وفقًا لها التوزيع البياني. يسمى التوزيع الغاوسي أيضًا التوزيع الطبيعي.
يتغير الاحتمال الشرطي هنا نظرًا لأن لدينا قيمًا مختلفة الآن. أيضًا ، يتم إعطاء دالة الكثافة الاحتمالية (PDF) للتوزيع الطبيعي من خلال:
يمكننا استخدام هذه الصيغة لحساب احتمالية الاحتمالات إذا كانت بياناتنا مستمرة.
التعليقات الختامية
تُستخدم خوارزميات Naive Bayes في الغالب في التعرف على الوجوه ، والتنبؤ بالطقس ، والتشخيص الطبي ، وتصنيف الأخبار ، وتحليل المشاعر ، وما إلى ذلك في هذه المقالة ، تعلمنا الحدس الرياضي وراء هذه الخوارزمية. لقد اتخذت بالفعل خطوتك الأولى لإتقان هذه الخوارزمية ومن هنا كل ما تحتاجه هو الممارسة.
هل وجدت هذه المادة مفيدة؟ يرجى مشاركة آرائك / أفكارك في قسم التعليقات أدناه.
عن المؤلف
أنا طالب جامعي حاليًا في السنة الأخيرة لي تخصص في الإحصاء (بكالوريوس في الإحصاء) ولدي اهتمام كبير بمجال علوم البيانات والتعلم الآلي والذكاء الاصطناعي. أستمتع بالغوص في البيانات لاكتشاف الاتجاهات والأفكار القيمة الأخرى حول البيانات. أنا أتعلم باستمرار ولدي الحافز لتجربة أشياء جديدة.
أنا منفتح على التعاون والعمل.
لأي شك أو استفسار ، لا تتردد في الاتصال بي البريد إلكتروني:
تواصل معي على لينكدين: و تويتر
الوسائط الموضحة في هذه المقالة ليست مملوكة لشركة Analytics Vidhya ويتم استخدامها وفقًا لتقدير المؤلف.
أفلاطون. Web3 مُعاد تصوره. تضخيم ذكاء البيانات.
انقر هنا للوصول.