شعار زيفيرنت

مبادئ الذكاء الاصطناعي القابلة للشرح: ما الذي يجب أن تعرفه عن XAI

التاريخ:

صورة

صورة الملف الشخصي ITRex Hacker Noon

@com.itrexITRex

تطوير واستشارات التكنولوجيا الناشئة: الذكاء الاصطناعي. تحليلات متقدمة. التعلم الالي. البيانات الكبيرة. سحاب

كان من المقرر إطلاق سراح سجين في منشأة إصلاحية في نيويورك ، جلين رودريغيز ، قريبًا. كان الرجل في أفضل حالاته وكان يتطلع إلى إطلاق سراحه وبدء حياة جديدة. لرعب جلين ، حُرم من الإفراج المشروط. 

أعطت خوارزمية الذكاء الاصطناعي التي استخدمتها لوحة الإفراج المشروط هذا السجين درجة سيئة ، وبما أنه لم يكن قابلاً للتفسير ، لم يكن أحد يعلم أن شيئًا ما كان يسير بشكل خاطئ. كافح السيد رودريغيز في قضيته وأُطلق سراحه في نهاية المطاف بعد أن أمضى سنة أخرى غير ضرورية في السجن. لسوء الحظ ، يمكن أن يحدث هذا النوع من الأخطاء عندما يتم نشر الذكاء الاصطناعي. إذا لم نرى السبب وراء قرارات الخوارزميات ، فلن نتمكن من تحديد المشكلة. 

يمكنك منع هذه المشكلة في مؤسستك باتباع مبادئ الذكاء الاصطناعي القابلة للتفسير أثناء ذلك تطوير حل الذكاء الاصطناعي الخاص بك. إذن ، ما هو الذكاء الاصطناعي القابل للتفسير (XAI)؟ كيف تقرر المستوى الصحيح من التفسير لقطاعك؟ وما هي التحديات المتوقعة في الطريق؟

ما هو الذكاء الاصطناعي القابل للتفسير ، ولماذا يجب أن تهتم؟

عند الحديث عن الذكاء الاصطناعي ، يفكر الكثير من الناس في خوارزميات الصندوق الأسود التي تأخذ الملايين من نقاط بيانات الإدخال ، وتعمل بسحرها ، وتقدم نتائج غير قابلة للتفسير والتي من المفترض أن يثق بها المستخدمون. يتم إنشاء هذا النوع من النماذج مباشرة من البيانات ، ولا يستطيع حتى مهندسوها شرح نتائجه. 

تمتلك نماذج الصندوق الأسود ، مثل الشبكات العصبية ، مهارات فائقة عندما يتعلق الأمر بمهام التنبؤ الصعبة. إنها تنتج نتائج بدقة ملحوظة ، لكن لا أحد يستطيع أن يفهم كيف وصلت الخوارزميات إلى تنبؤاتها. 

في المقابل ، يمكن للمستخدمين فهم الأساس المنطقي وراء قراراتهم باستخدام الصندوق الأبيض القابل للتفسير AI ، مما يجعله شائعًا بشكل متزايد في إعدادات الأعمال. هذه النماذج ليست مثيرة للإعجاب من الناحية الفنية مثل خوارزميات الصندوق الأسود. ومع ذلك ، فإن شفافيتها هي مقايضة لأنها توفر مستوى أعلى من الموثوقية وهي مفضلة في الصناعات شديدة التنظيم.

ما هو الذكاء الاصطناعي القابل للتفسير؟

يشير AI القابل للتفسير (XAI) إلى مجموعة من التقنيات ومبادئ التصميم والعمليات التي تساعد المطورين / المؤسسات على إضافة طبقة من الشفافية إلى خوارزميات الذكاء الاصطناعي حتى يتمكنوا من تبرير توقعاتهم. يمكن لـ XAI وصف نماذج الذكاء الاصطناعي وتأثيرها المتوقع والتحيزات المحتملة. يمكن للخبراء البشريين فهم التوقعات الناتجة وبناء الثقة في النتائج باستخدام هذه التكنولوجيا. عند الحديث عن القابلية للتفسير ، يتلخص الأمر كله في ما تريد شرحه. 

هناك احتمالان: 

  1. شرح نسب نموذج الذكاء الاصطناعي: كيف تم تدريب النموذج ، وما هي البيانات التي تم استخدامها ، وما هي أنواع التحيز الممكنة ، وكيف يمكن التخفيف من حدتها. 
  2. شرح النموذج العام: يسمى هذا أيضًا "قابلية تفسير النموذج".

هناك طريقتان لهذه التقنية: 

  • النمذجة بالوكالة: يتم استخدام نموذج أكثر قابلية للفهم ، مثل شجرة القرار ، كتقريب لنموذج الذكاء الاصطناعي الأكثر تعقيدًا. على الرغم من أن هذه التقنية تقدم لمحة عامة بسيطة عما يمكن توقعه ، إلا أنها تظل تقريبية ويمكن أن تختلف عن نتائج الحياة الواقعية. 
  • تصميم للتفسير: تصميم نماذج الذكاء الاصطناعي بطريقة تفرض سلوكًا بسيطًا يسهل شرحه. يمكن أن ينتج عن هذه التقنية نماذج أقل قوة لأنها تزيل بعض الأدوات المعقدة من مجموعة أدوات المطور.
صورة

مصدر

مبادئ الذكاء الاصطناعي القابلة للتفسير

تم تطوير المعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST) أربعة مبادئ قابلة للتفسير للذكاء الاصطناعي:

  • يجب أن يكون النظام قادرًا على شرح مخرجاته وتقديم الأدلة الداعمة (على الأقل). هناك عدة أنواع من التفسير: 
    شروحات تفيد المستخدم النهائي 
    التفسيرات المصممة لاكتساب الثقة في النظام 
    التفسيرات التي من المتوقع أن تلبي المتطلبات التنظيمية 
    التفسيرات التي يمكن أن تساعد في تطوير الخوارزمية وصيانتها 
    التفسيرات التي تفيد صاحب النموذج ، مثل محركات توصية الأفلام
  • يجب أن يكون التفسير المقدم ذا مغزى ، بحيث يمكّن المستخدمين من إكمال مهامهم. إذا كان هناك مجموعة من المستخدمين لديهم مجموعات مهارات متنوعة ، يحتاج النظام إلى تقديم العديد من التفسيرات التي تلبي احتياجات مجموعات المستخدمين المتاحة
  • يجب أن يكون هذا التفسير واضحًا ودقيقًا ، والذي يختلف عن دقة الإخراج
  • يجب أن يعمل النظام ضمن حدود المعرفة المصممة لضمان نتيجة معقولة

مثال على الذكاء الاصطناعي يمكن شرحه

يمكن أن توفر XAI شرحًا مفصلاً على مستوى النموذج لسبب اتخاذ قرار معين. يأتي هذا التفسير في مجموعة من القواعد المفهومة. باتباع المثال المبسط أدناه لطلب القرض ، عندما يُحرم المتقدمون من الحصول على قرض ، سيحصلون على تبرير مباشر: كل شخص يزيد عمره عن 40 عامًا يدخر أقل من 433 دولارًا شهريًا ويتقدم بطلب للحصول على ائتمان بفترة سداد تزيد عن 38 عامًا سيتم رفض منحه للحصول على قرض . الأمر نفسه ينطبق على المتقدمين الأصغر سنًا الذين يوفرون أقل من 657 دولارًا في الشهر.

صورة
صورة

لماذا يُعد الذكاء الاصطناعي القابل للتفسير مهمًا؟

في بعض الصناعات ، يكون التفسير ضروريًا لقبول خوارزميات الذكاء الاصطناعي. يمكن أن يكون هذا إما بسبب اللوائح و / أو العوامل البشرية. فكر في تصنيف أورام المخ. لن يشعر أي طبيب بالراحة في التحضير لعملية جراحية فقط على أساس "الخوارزمية قالت ذلك". وماذا عن منح القروض؟ العملاء الذين تم رفض طلبهم سيرغبون في فهم السبب. نعم ، هناك حالات استخدام أكثر تسامحًا حيث لا يكون التفسير ضروريًا. على سبيل المثال ، تطبيقات الصيانة التنبؤية ليست مسألة حياة أو موت ، ولكن حتى ذلك الحين ، سيشعر الموظفون بمزيد من الثقة بمعرفة سبب احتياج معدات معينة إلى إصلاح وقائي. 

غالبًا ما تتفهم الإدارة العليا قيمة تطبيقات الذكاء الاصطناعي ، ولكن لديهم أيضًا مخاوفهم. وفقًا لـ Gaurav Deshpande ، نائب رئيس التسويق في TigerGraph ، هناك دائمًا "لكن" في منطق المديرين التنفيذيين: "... ولكن إذا لم تتمكن من شرح كيفية وصولك إلى الإجابة ، فلا يمكنني استخدامها. ويرجع ذلك إلى خطر التحيز في نظام الذكاء الاصطناعي في الصندوق الأسود والذي يمكن أن يؤدي إلى دعاوى قضائية ومسؤولية كبيرة ومخاطر للعلامة التجارية للشركة وكذلك الميزانية العمومية ". 

حل XAI المثالي هو الحل الدقيق بشكل معقول ويمكن أن يشرح نتائجه للممارسين والمديرين التنفيذيين والمستخدمين النهائيين. دمج مبادئ الذكاء الاصطناعي القابلة للتفسير في البرامج الذكية:

  • يجلب الراحة لمستخدمي النظام. إنهم يفهمون المنطق ويمكن أن يقفوا وراء القرارات التي يتم اتخاذها. على سبيل المثال ، سيكون مسؤول القرض أكثر راحة عند إبلاغ العميل برفض طلب القرض الخاص به إذا كان بإمكانه فهم كيفية اتخاذ القرار.
  • يضمن الامتثال. من خلال التحقق من التفسير المقدم ، يمكن للمستخدمين معرفة ما إذا كانت قواعد الخوارزمية سليمة ومتوافقة مع القانون والأخلاق.
  • يسمح بتحسين النظام. عندما يرى المصممون والمطورون التفسير ، يمكنهم تحديد الخطأ وإصلاحه.
  • يزيل التحيز. عندما يعرض المستخدمون التفسير ، يمكنهم تحديد أي وجود للحكم المتحيز ، وتجاوز قرار النظام ، وتصحيح الخوارزمية لتجنب سيناريوهات مماثلة في المستقبل.
  • تمكن الموظفين من التصرف بناء على مخرجات النظام. على سبيل المثال ، قد يتوقع XAI أن عميل شركة معين لن يجدد ترخيص البرنامج الخاص به. يمكن أن يكون رد الفعل الأول للمدير هو تقديم خصم. ولكن ماذا لو كان السبب وراء ترك الخدمة هو ضعف خدمة العملاء؟ سيقول النظام هذا في شرحه.
  • تمكن الناس من اتخاذ الإجراءات. يمكّن XAI الأطراف المتأثرة بقرارات معينة من الطعن في النتيجة وربما تغييرها (مثل حالات منح الرهن العقاري).

ما هي الصناعات التي تحتاج إلى XAI أكثر من غيرها؟

  • الرعاية الصحية
  • المعيل هو
  • قطاع المعدات الثقيلة
  • تصنيع

1. شرح الذكاء الاصطناعي في الرعاية الصحية

الذكاء الاصطناعي لديه الكثير تطبيقات في الرعاية الصحية. يمكن للحلول الطبية المختلفة التي تعمل بالذكاء الاصطناعي أن توفر وقت الأطباء في المهام المتكررة ، مما يسمح لهم بالتركيز بشكل أساسي على الرعاية التي تواجه المريض. بالإضافة إلى ذلك ، تعد الخوارزميات جيدة في تشخيص الحالات الصحية المختلفة حيث يمكن تدريبها على اكتشاف التفاصيل الصغيرة التي تفلت من العين البشرية. ومع ذلك ، عندما لا يتمكن الأطباء من شرح النتيجة ، فإنهم يترددون في استخدام هذه التكنولوجيا والعمل على توصياتها. 

أحد الأمثلة يأتي من مستشفى جامعة ديوك. قام فريق من الباحثين بتثبيت تطبيق للتعلم الآلي يسمى مشاهدة الإنتان، والتي من شأنها أن ترسل تنبيهًا عندما يكون المريض معرضًا لخطر الإصابة بالإنتان. اكتشف الباحثون أن الأطباء كانوا متشككين في الخوارزمية ومترددون في التصرف بناءً على تحذيراتها لأنهم لم يفهموها. 

ينتقل انعدام الثقة هذا إلى المرضى الذين يترددون في أن يتم فحصهم بواسطة الذكاء الاصطناعي. نشرت Harvard Business Review دراسة حيث تمت دعوة المشاركين لإجراء تقييم مجاني لمستوى التوتر لديهم. 40٪ من المشاركين تم التسجيل للاختبار عندما علموا أن الطبيب البشري سيقوم بالتقييم. سجل 26٪ فقط عندما كانت الخوارزمية تقوم بالتشخيص. 

عندما يتعلق الأمر بالتشخيص والعلاج ، يمكن أن تغير القرارات الحياة. ليس من المستغرب أن الأطباء في أمس الحاجة إلى الشفافية. لحسن الحظ ، مع الذكاء الاصطناعي القابل للتفسير ، يصبح هذا حقيقة. على سبيل المثال ، ذكر كيث كولينز ، رئيس قسم المعلومات في SAS ، أن شركته تعمل بالفعل على تطوير مثل هذه التكنولوجيا. إليك ما قاله: "نحن نعمل حاليًا على حالة يستخدم فيها الأطباء تحليلات الذكاء الاصطناعي للمساعدة في اكتشاف الآفات السرطانية بشكل أكثر دقة. تعمل التكنولوجيا "كمساعد افتراضي" للطبيب ، وتشرح كيف يساهم كل متغير في صورة التصوير بالرنين المغناطيسي ، على سبيل المثال ، في التكنولوجيا التي تحدد المناطق المشبوهة على أنها محتملة الإصابة بالسرطان بينما المناطق الأخرى المشبوهة ليست كذلك. "

2. XAI في المالية

التمويل هو صناعة أخرى شديدة التنظيم حيث تحتاج القرارات إلى شرح. من الضروري أن تكون الحلول التي تعمل بالذكاء الاصطناعي قابلة للتدقيق ؛ خلاف ذلك ، سوف يكافحون لدخول السوق. 

يمكن أن يساعد الذكاء الاصطناعي في تحديد درجات الائتمان وتقييم مطالبات التأمين وتحسين محافظ الاستثمار ، من بين تطبيقات أخرى. ومع ذلك ، إذا قدمت الخوارزميات ناتجًا متحيزًا ، فقد يؤدي ذلك إلى فقدان السمعة وحتى الدعاوى القضائية. 

منذ وقت ليس ببعيد، تصدرت شركة Apple عناوين الصحف مع منتج Apple Card ، الذي كان منحازًا بطبيعته ضد النساء ، مما أدى إلى خفض حدود الائتمان الخاصة بهم. وأكد المؤسس المشارك لشركة Apple ، ستيف وزنياك ، هذا الادعاء. وأشار إلى أنه مع زوجته ، ليس لديهم حسابات بنكية منفصلة ولا أصول منفصلة ، ومع ذلك ، عند التقدم بطلب للحصول على بطاقة Apple Card ، كان الحد الممنوح له أعلى بعشر مرات من حد زوجته. نتيجة لهذا الحدث المؤسف ، تم التحقيق مع الشركة من قبل وزارة الخدمات المالية بولاية نيويورك. 

باستخدام الذكاء الاصطناعي القابل للتفسير ، يمكن للمرء تجنب مثل هذه المواقف الفاضحة من خلال تبرير الإخراج. على سبيل المثال ، يعتبر منح القرض حالة استخدام واحدة يمكن أن تستفيد من XAI. سيكون النظام قادرًا على تبرير توصيته النهائية وإعطاء العملاء شرحًا مفصلاً إذا تم رفض طلب القرض الخاص بهم. يتيح ذلك للمستخدمين تحسين ملفات تعريف الائتمان الخاصة بهم وإعادة التقديم لاحقًا.

3. الذكاء الاصطناعي القابل للشرح في صناعة السيارات

تعمل المركبات المستقلة على كميات هائلة من البيانات ، مما يتطلب الذكاء الاصطناعي لتحليل كل ذلك وفهمه. ومع ذلك ، يجب أن تكون قرارات النظام شفافة للسائقين والتقنيين والهيئات وشركات التأمين في حالة وقوع أي حوادث. 

أيضًا ، من الضروري فهم كيفية تصرف المركبات في حالة الطوارئ. إليكم كيف أعرب بول أبلبي ، الرئيس التنفيذي السابق لشركة Kinetica لبرامج إدارة البيانات ، عن قلقه: "إذا وجدت السيارة ذاتية القيادة نفسها في موقف لا مفر منه ، فما هي الإجراءات التي يجب اتخاذها؟ إعطاء الأولوية لحماية السائق وتعريض المشاة لخطر جسيم؟ تجنب المشاة مع تعريض سلامة الركاب للخطر؟ " 

هذه أسئلة صعبة للإجابة عليها ، ويختلف الناس حول كيفية التعامل مع مثل هذه المواقف. لكن من المهم وضع إرشادات يمكن للخوارزمية اتباعها في مثل هذه الحالات. سيساعد ذلك الركاب على تحديد ما إذا كانوا مرتاحين للسفر في سيارة مصممة لاتخاذ قرارات معينة. بالإضافة إلى ذلك ، بعد وقوع أي حادث ، سيساعد الشرح المقدم المطورين على تحسين الخوارزمية في المستقبل.

4. شرح الذكاء الاصطناعي في التصنيع

للذكاء الاصطناعي العديد من التطبيقات في التصنيع ، بما في ذلك الصيانة التنبؤية وإدارة المخزون وتحسين الخدمات اللوجستية. بفضل قدراتها التحليلية ، يمكن لهذه التكنولوجيا أن تضيف إلى "المعرفة القبلية" للموظفين البشريين. لكن من الأسهل اتخاذ القرارات عندما تفهم المنطق الكامن وراءها. 

تشرح هينا بوروهيت ، كبيرة مديري المنتجات في IBM Watson IoT ، كيف يقترب منتج الصيانة القائم على الذكاء الاصطناعي من الذكاء الاصطناعي القابل للتفسير. يوفر النظام للموظفين العديد من الخيارات حول كيفية إصلاح قطعة من المعدات. يتضمن كل خيار نسبة ثقة فاصل زمني. لذلك ، لا يزال بإمكان المستخدم الرجوع إلى "المعرفة القبلية" والخبرة عند اتخاذ القرار. أيضًا ، يمكن لكل توصية عرض مخرجات الرسم البياني المعرفي جنبًا إلى جنب مع المدخلات المستخدمة في مرحلة التدريب.

تحديات في طريق الذكاء الاصطناعي القابل للتفسير

الحاجة إلى التنازل عن القدرة التنبؤية 

تتمتع خوارزميات الصندوق الأسود ، مثل الشبكات العصبية ، بقدرة تنبؤية عالية ولكنها لا تقدم أي مبرر للإخراج. نتيجة لذلك ، يحتاج المستخدمون إلى الثقة العمياء في النظام ، مما قد يمثل تحديًا في ظروف معينة. يوفر الصندوق الأبيض للذكاء الاصطناعي قابلية الشرح التي تشتد الحاجة إليها ، ولكن يجب أن تظل خوارزمياته بسيطة ، مما يؤثر على القدرة التنبؤية. 

على سبيل المثال، للذكاء الاصطناعي تطبيقات في علم الأشعة حيث تنتج الخوارزميات نتائج ملحوظة لتصنيف أورام المخ واكتشاف سرطان الثدي بشكل أسرع من البشر. ومع ذلك ، عندما يقرر الأطباء علاج المرضى ، يمكن أن يكون ذلك حالة حياة أو موت ، ويريدون فهم سبب توصل الخوارزمية إلى هذا التشخيص. قد يكون من الصعب على الأطباء الاعتماد على شيء لا يفهمونه.

مفهوم التفسير 

لا يوجد تعريف عالمي لقابلية التفسير. غالبًا ما يكون مفهومًا شخصيًا. قد يتوقع المستخدمون نوعًا واحدًا من التفسير ، بينما يرغب المطورون في تقديم شيء آخر. أيضًا ، تتطلب الجماهير المختلفة تبريرات مخصصة ، مما يؤدي إلى ضرورة قيام نظام XAI واحد بشرح نفس المخرجات بعدة طرق مختلفة.

القضايا المتعلقة بالأمان والمتانة 

مع XAI ، إذا تمكن العملاء من الوصول إلى عملية اتخاذ القرار في الخوارزمية ، فقد يطبقون سلوكيات معادية ، مما يعني أنهم سيتخذون إجراءات متعمدة لتغيير سلوكهم للتأثير على المخرجات. واحد دراسة نشر قلقًا مفاده أن شخصًا ما لديه مهارات تقنية يمكنه استرداد أجزاء من مجموعة البيانات المستخدمة للتدريب على الخوارزمية بعد رؤية التفسير ، وبالتالي انتهاك لوائح الخصوصية.

كيف تبدأ مع الذكاء الاصطناعي المسؤول والقابل للتفسير

عندما تستعد شركتك لنشر حلول XAI المسؤولة ، سيكون أول شيء هو تحديد ما تحتاج بالضبط لتوضيحه ولمن.

بعض الأسئلة التي يتم تناولها خلال مرحلة التخطيط يمكن أن تكون:

  • هل هو قرار معين أم نموذج شامل؟
  • من هو جمهورك؟ هل هم مستخدمون تقنيون؟
  • هل تحتاج إلى تقديم تفسيرات مختلفة لكل ناتج ، أم أن تفسيرًا واحدًا يكفي لجميع المعنيين؟

بعد ذلك ، تحتاج شركتك إلى اتخاذ قرار بشأن درجة القابلية للتفسير. لا تتطلب جميع الأدوات القائمة على الذكاء الاصطناعي نفس الدرجة من القابلية للتفسير. يحدد برايس ووترهاوس كوبرز ستة مكونات حرجة للتطبيق ستساعدك على تحديد مستوى XAI الذي تريده:

  • تأثير القرار: كيف سيؤثر القرار على جميع الأطراف المعنية؟ هذا لا يقتصر على الجوانب المتعلقة بالإيرادات. على سبيل المثال ، التشخيص غير الصحيح للسرطان سيكون له تأثير وخيم ، بينما التوصية بفيلم غير ذي صلة لن يكون مشكلة كبيرة.
  • مستوى التحكم: هل هو نظام ذكاء اصطناعي مستقل يتخذ القرارات ويتصرف وفقًا لها ، أم أن مخرجات النظام توصي بإجراءات للبشر الذين يمكنهم اختيار ما إذا كانوا سيتبعون أم لا؟
  • المخاطر: أي ضرر محتمل يمكن أن تسببه الخوارزميات ، مثل التأثير على العمليات أو المبيعات أو الموظفين أو أي اعتبارات أخلاقية أو قانونية أو بيئية أو متعلقة بالصحة.
  • اللوائح: الإطار القانوني للصناعة وما إذا كانت القرارات بحاجة إلى شرح.
  • السمعة: كيف يتفاعل النظام مع أصحاب المصلحة - داخل الشركة ومع المجتمع بشكل عام.
  • الصرامة: إذا كان التطبيق دقيقًا وقادرًا على تعميم استنتاجاته على بيانات غير مرئية.

أخيرًا ، حتى بعد وجود الذكاء الاصطناعي القابل للتفسير ، فمن الأفضل اتخاذ إجراء لضمان استخدام البيانات بشكل أخلاقي. قم بإجراء عمليات تدقيق في الوقت المناسب للخوارزميات الخاصة بك. يمكن أن تكشف ميزة التفسير القوية عن أي تحيز يتسلل إلى برنامجك. ومع ذلك ، إذا استقرت على حل شرح محدود ، فقد يظل التحيز دون أن يلاحظه أحد. أيضا ، يمكنك الاشتراك في شراكة في اتحاد الذكاء الاصطناعي. أو حتى طور مجموعتك الخاصة من المبادئ الأخلاقية لاستخدام البيانات ، كما فعلت Microsoft. وشملت الإنصاف والموثوقية والسلامة والخصوصية والأمن والشمولية والشفافية والمساءلة.

في ملاحظة أخيرة ...

تنفيذ التقليدية الذكاء الاصطناعي مليء بالتحديات، ناهيك عن نسخته القابلة للتفسير والمسؤولة. على الرغم من العقبات ، فإنها ستريح موظفيك ، الذين سيكونون أكثر حماسًا للعمل بناءً على توصيات النظام عندما يفهمون الأساس المنطقي وراء ذلك. علاوة على ذلك ، ستساعدك XAI على الامتثال للوائح الصناعة والاعتبارات الأخلاقية.

ظهرت أيضًا في

جار التحميل…

الاوسمة (تاج)

انضم إلى Hacker Noon

قم بإنشاء حسابك المجاني لفتح تجربة القراءة المخصصة الخاصة بك.

أفلاطون. Web3 مُعاد تصوره. تضخيم ذكاء البيانات.
انقر هنا للوصول.

المصدر: https://hackernoon.com/explainable-ai-principles-what-should-you-know-about-xai-u83h32y0؟source=rss

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة