شعار زيفيرنت

تفعيل مبادئ الذكاء الاصطناعي المسؤول للدفاع - IBM Blog

التاريخ:


تفعيل مبادئ الذكاء الاصطناعي المسؤول للدفاع - IBM Blog



منظر خلفي لامرأة شابة، عالمة بيانات مستقلة تعمل عن بعد في المنزل، تبرمج البرمجة في مجال التنقيب عن البيانات الضخمة، وهندسة بيانات الذكاء الاصطناعي، وفني تكنولوجيا المعلومات يعمل على مشروع الذكاء الاصطناعي.

يعمل الذكاء الاصطناعي (AI) على تغيير المجتمع، بما في ذلك طابعه ذاته الأمن القومي. وإدراكًا لذلك، أطلقت وزارة الدفاع (DoD) مركز الذكاء الاصطناعي المشترك (JAIC) في عام 2019، وهو سلف مكتب رئيس الذكاء الرقمي والاصطناعي (CDAO)، لتطوير حلول الذكاء الاصطناعي التي تبني ميزة عسكرية تنافسية، وظروف للبشرية. اعتماد الذكاء الاصطناعي المركزي، ومرونة عمليات وزارة الدفاع. ومع ذلك، فإن العوائق التي تحول دون توسيع نطاق واعتماد وتحقيق الإمكانات الكاملة للذكاء الاصطناعي في وزارة الدفاع تشبه تلك الموجودة في القطاع الخاص.

A الأخيرة مسح IBM وجدت أن أهم العوائق التي تحول دون النشر الناجح للذكاء الاصطناعي تشمل مهارات وخبرات الذكاء الاصطناعي المحدودة، وتعقيد البيانات، والمخاوف الأخلاقية. علاوة على ذلك، وفقا ل معهد IBM لقيمة الأعمال، يقول 79% من المديرين التنفيذيين إن أخلاقيات الذكاء الاصطناعي مهمة لنهج الذكاء الاصطناعي على مستوى المؤسسة، ومع ذلك فإن أقل من 25% منهم قاموا بتفعيل المبادئ المشتركة لأخلاقيات الذكاء الاصطناعي. يعد كسب الثقة في مخرجات نماذج الذكاء الاصطناعي تحديًا اجتماعيًا تقنيًا يتطلب حلاً اجتماعيًا تقنيًا.

يجب على قادة الدفاع الذين يركزون على تفعيل التنظيم المسؤول للذكاء الاصطناعي أن يتفقوا أولاً على مفردات مشتركة - ثقافة مشتركة توجه الاستخدام الآمن والمسؤول للذكاء الاصطناعي - قبل أن ينفذوا الحلول التكنولوجية وحواجز الحماية التي تخفف من المخاطر. يمكن لوزارة الدفاع أن تضع أساسًا قويًا لتحقيق ذلك من خلال تحسين المعرفة بالذكاء الاصطناعي والشراكة مع المنظمات الموثوقة لتطوير الحوكمة المتوافقة مع أهدافها وقيمها الإستراتيجية.

يعد محو الأمية في مجال الذكاء الاصطناعي أمرًا ضروريًا للأمن

من المهم أن يعرف الموظفون كيفية نشر الذكاء الاصطناعي لتحسين الكفاءة التنظيمية. ولكن من المهم بنفس القدر أن يكون لديهم فهم عميق لمخاطر وقيود الذكاء الاصطناعي وكيفية تنفيذ التدابير الأمنية المناسبة والحواجز الأخلاقية. هذه حصص مائدة لوزارة الدفاع أو أي وكالة حكومية.

يمكن أن يساعد مسار تعلم الذكاء الاصطناعي المخصص في تحديد الفجوات والتدريب اللازم حتى يحصل الموظفون على المعرفة التي يحتاجونها لأدوارهم المحددة. يعد الإلمام بالذكاء الاصطناعي على مستوى المؤسسة أمرًا ضروريًا لجميع الموظفين حتى يتمكنوا من تقييم التهديدات السريعة والفيروسية والخطيرة ووصفها والاستجابة لها بسرعة، مثل المعلومات المضللة والتزييف العميق. 

تطبق شركة IBM معرفة القراءة والكتابة في مجال الذكاء الاصطناعي بطريقة مخصصة داخل مؤسستنا حيث يختلف تعريف القراءة والكتابة الأساسية اعتمادًا على منصب الشخص.

دعم الأهداف الإستراتيجية والمواءمة مع القيم

باعتبارها شركة رائدة في مجال الذكاء الاصطناعي الجدير بالثقة، تتمتع شركة IBM بخبرة في تطوير أطر عمل الحوكمة التي توجه الاستخدام المسؤول للذكاء الاصطناعي بما يتماشى مع قيم المؤسسات العميلة. تمتلك شركة IBM أيضًا أطر عمل خاصة بها لاستخدام الذكاء الاصطناعي داخل شركة IBM نفسها مواقف السياسة مثل استخدام تقنية التعرف على الوجه.

تُستخدم أدوات الذكاء الاصطناعي الآن في الأمن القومي وللمساعدة في الحماية ضد التهديدات خروقات البيانات و هجمات الكترونية. لكن الذكاء الاصطناعي يدعم أيضًا الأهداف الإستراتيجية الأخرى لوزارة الدفاع. يمكن زيادة القوى العاملة، مما يساعد على جعلهم أكثر فعالية، ومساعدتهم إعادة المهارات. يمكن أن يساعد في خلق مرونة سلاسل التوريد لدعم الجنود والبحارة والطيارين ومشاة البحرية في أدوار القتال الحربي والمساعدات الإنسانية وحفظ السلام والإغاثة في حالات الكوارث.

يتضمن CDAO خمسة مبادئ أخلاقية مسؤولة، ومنصفة، ويمكن تتبعها، وموثوق بها، وقابلة للإدارة كجزء من مجموعة أدوات الذكاء الاصطناعي المسؤولة. استنادًا إلى الإطار الأخلاقي الحالي للجيش الأمريكي، ترتكز هذه المبادئ على قيم الجيش وتساعد في دعم التزامه بالذكاء الاصطناعي المسؤول.

ويجب أن يكون هناك جهد متضافر لجعل هذه المبادئ حقيقة من خلال النظر في المتطلبات الوظيفية وغير الوظيفية في النماذج وأنظمة الحوكمة المحيطة بتلك النماذج. فيما يلي، نقدم توصيات واسعة النطاق لتفعيل المبادئ الأخلاقية لـ CDAO.

1. مسؤول

"سيمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية، مع البقاء مسؤولين عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي."

يتفق الجميع على أن نماذج الذكاء الاصطناعي يجب أن يتم تطويرها من قبل موظفين يتسمون بالحذر والمراعاة، ولكن كيف يمكن للمؤسسات رعاية الأشخاص للقيام بهذا العمل؟ نوصي:

  • تعزيز ثقافة تنظيمية تعترف بالطبيعة الاجتماعية التقنية لتحديات الذكاء الاصطناعي. ويجب أن يتم الإبلاغ عن ذلك منذ البداية، ويجب أن يكون هناك اعتراف بالممارسات ومجموعات المهارات والتفكير الذي يجب وضعه في النماذج وإدارتها لمراقبة الأداء.
  • تفصيل الممارسات الأخلاقية طوال دورة حياة الذكاء الاصطناعي، بما يتوافق مع أهداف العمل (أو المهمة)، وإعداد البيانات ونمذجتها، وتقييمها ونشرها. ال كريسب- DM النموذج مفيد هنا آي بي إم طريقة علم البيانات المتدرجة، وهو امتداد لـ CRISP-DM، يوفر الحوكمة عبر دورة حياة نموذج الذكاء الاصطناعي المستنيرة بالمدخلات التعاونية من علماء البيانات وعلماء النفس الصناعيين والتنظيميين والمصممين ومتخصصي الاتصالات وغيرهم. تدمج الطريقة أفضل الممارسات في علوم البيانات وإدارة المشاريع وأطر التصميم وحوكمة الذكاء الاصطناعي. يمكن للفرق بسهولة رؤية وفهم المتطلبات في كل مرحلة من دورة الحياة، بما في ذلك الوثائق، ومن يحتاجون إلى التحدث أو التعاون معهم، والخطوات التالية.
  • توفير بيانات وصفية لنموذج الذكاء الاصطناعي قابلة للتفسير (على سبيل المثال، مثل صحائف) تحديد الأشخاص المسؤولين، ومعايير الأداء (مقارنة بالبشر)، والبيانات والأساليب المستخدمة، وسجلات التدقيق (التاريخ ومن قام بها)، والغرض من التدقيق ونتائجه.

ملاحظة: يجب أن تكون مقاييس المسؤولية هذه قابلة للتفسير من قبل غير خبراء الذكاء الاصطناعي (بدون "الشرح الرياضي").

2. عادلة

"ستتخذ الوزارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي."

يتفق الجميع على أن استخدام نماذج الذكاء الاصطناعي يجب أن يكون عادلاً وغير تمييزي، ولكن كيف يحدث هذا في الممارسة العملية؟ نوصي:

  • إنشاء مركز التميز لإعطاء فرق متنوعة ومتعددة التخصصات مجتمعًا للتدريب التطبيقي لتحديد التأثير المتباين المحتمل.
  • استخدام أدوات التدقيق لتعكس التحيز المعروض في النماذج. إذا كان الانعكاس يتوافق مع قيم المنظمة، فإن الشفافية المحيطة بالبيانات والأساليب المختارة تعتبر أمرًا أساسيًا. إذا كان الانعكاس لا يتماشى مع القيم التنظيمية، فهذه إشارة إلى أن شيئًا ما يجب أن يتغير. إن اكتشاف وتخفيف التأثير المتباين المحتمل الناجم عن التحيز ينطوي على أكثر بكثير من مجرد فحص البيانات التي تم تدريب النموذج عليها. يجب على المنظمات أيضًا فحص الأشخاص والعمليات المعنية. على سبيل المثال، هل تم التعبير بوضوح عن الاستخدامات المناسبة وغير المناسبة للنموذج؟
  • قياس العدالة ووضع معايير العدالة فعالة من خلال توفير المتطلبات الوظيفية وغير الوظيفية لمستويات مختلفة من الخدمة.
  • باستخدام تصميم التفكير أطر لتقييم التأثيرات غير المقصودة لنماذج الذكاء الاصطناعي، وتحديد حقوق المستخدمين النهائيين وتفعيل المبادئ. من الضروري أن تشمل تمارين التفكير التصميمي أشخاصًا لديهم تجارب معيشية متنوعة على نطاق واسع—وأكثر تنوعا كلما كان ذلك أفضل.

3. يمكن عزوها

"سيتم تطوير قدرات الذكاء الاصطناعي الخاصة بالإدارة ونشرها بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والوثائق."

تفعيل إمكانية التتبع من خلال توفير إرشادات واضحة لجميع الموظفين الذين يستخدمون الذكاء الاصطناعي:

  • وضح دائمًا للمستخدمين عندما يتفاعلون مع نظام الذكاء الاصطناعي.
  • توفير أسس المحتوى لنماذج الذكاء الاصطناعي. تمكين خبراء المجال من تنظيم وصيانة مصادر البيانات الموثوقة المستخدمة لتدريب النماذج. تعتمد مخرجات النموذج على البيانات التي تم تدريبه عليها.

يمكن لشركة IBM وشركائها تقديم حلول الذكاء الاصطناعي بمحتوى شامل وقابل للتدقيق أساسي لحالات الاستخدام عالية المخاطر.

  • إنها تقوم بالتسجيل البيانات الوصفية الرئيسية لجعل نماذج الذكاء الاصطناعي شفافة وتتبع مخزون النماذج. تأكد من أن هذه البيانات التعريفية قابلة للتفسير وأن المعلومات الصحيحة متاحة للموظفين المناسبين. يتطلب تفسير البيانات ممارسة وهو عبارة عن جهد متعدد التخصصات. في IBM، لدينا تصميم للذكاء الاصطناعي تهدف المجموعة إلى تثقيف الموظفين حول الدور الحاسم للبيانات في الذكاء الاصطناعي (من بين أساسيات أخرى) والتبرع بأطر العمل لمجتمع المصادر المفتوحة.
  • اجعل من السهل على الأشخاص العثور على هذه البيانات الوصفية (في النهاية عند مصدر المخرجات).
  • قم بتضمين الإنسان في الحلقة حيث يجب على الذكاء الاصطناعي تعزيز البشر ومساعدتهم. يتيح ذلك للبشر تقديم الملاحظات أثناء عمل أنظمة الذكاء الاصطناعي.
  • قم بإنشاء عمليات وأطر لتقييم التأثيرات المتباينة ومخاطر السلامة قبل نشر النموذج أو شراؤه بوقت طويل. تعيين أشخاص مسؤولين للتخفيف من هذه المخاطر.

4. موثوق

"ستكون لقدرات الذكاء الاصطناعي لدى الإدارة استخدامات واضحة ومحددة جيدًا، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والضمان ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها."

يجب على المؤسسات توثيق حالات الاستخدام المحددة جيدًا ثم اختبار الامتثال. يتطلب تفعيل هذه العملية وتوسيع نطاقها توافقًا ثقافيًا قويًا بحيث يلتزم الممارسون بأعلى المعايير حتى بدون إشراف مباشر ومستمر. تشمل أفضل الممارسات ما يلي:

  • إنشاء مجتمعات تؤكد باستمرار لماذا إن المخرجات العادلة والموثوقة ضرورية. يعتقد العديد من الممارسين بشدة أنه بمجرد وجود أفضل النوايا، لا يمكن أن يكون هناك تأثير متباين. وهذا مضلل. يعد التدريب التطبيقي من قبل قادة المجتمع الذين يشاركون بشكل كبير والذين يجعلون الناس يشعرون بأنهم مسموعون ومشمولون أمرًا بالغ الأهمية.
  • بناء مبررات اختبار الموثوقية حول المبادئ التوجيهية والمعايير للبيانات المستخدمة في التدريب النموذجي. وأفضل طريقة لجعل هذا الأمر حقيقيًا هي تقديم أمثلة لما يمكن أن يحدث عندما لا يكون هذا التدقيق.
  • الحد من وصول المستخدم إلى تطوير النموذج، ولكن جمع وجهات نظر متنوعة في بداية المشروع للتخفيف من التحيز.
  • قم بإجراء فحوصات الخصوصية والأمان طوال دورة حياة الذكاء الاصطناعي بأكملها.
  • قم بتضمين مقاييس الدقة في عمليات التدقيق المجدولة بانتظام. كن صريحًا بشكل لا لبس فيه بشأن كيفية مقارنة أداء النموذج بالإنسان. إذا فشل النموذج في تقديم نتيجة دقيقة، قم بتفصيل من المسؤول عن هذا النموذج وما هي الموارد المتاحة للمستخدمين. (ينبغي دمج كل هذا في البيانات الوصفية القابلة للتفسير والتي يمكن العثور عليها).

5. يمكن التحكم فيه

"ستعمل الوزارة على تصميم وهندسة قدرات الذكاء الاصطناعي لتحقيق وظائفها المقصودة مع امتلاك القدرة على اكتشاف العواقب غير المقصودة وتجنبها، والقدرة على فك الارتباط أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود."

ويتطلب تفعيل هذا المبدأ ما يلي:

  • لا يتوقف الاستثمار في نماذج الذكاء الاصطناعي عند النشر. تخصيص الموارد لضمان استمرار النماذج في التصرف حسب الرغبة والمتوقع. تقييم المخاطر وتخفيفها طوال دورة حياة الذكاء الاصطناعي، وليس بعد النشر فقط.
  • تعيين جهة مسؤولة لديها تفويض ممول للقيام بأعمال الحوكمة. يجب أن يكون لديهم السلطة.
  • الاستثمار في الاتصال وبناء المجتمع والتعليم. أدوات الاستفادة مثل watsonx.governance إلى مراقبة أنظمة الذكاء الاصطناعي.
  • قم بالتقاط وإدارة مخزون نماذج الذكاء الاصطناعي كما هو موضح أعلاه.
  • نشر تدابير الأمن السيبراني في جميع النماذج.

تعد شركة IBM في طليعة الدول التي تعمل على تطوير الذكاء الاصطناعي الجدير بالثقة

لقد كانت شركة IBM في طليعة الشركات التي تعمل على تطوير مبادئ الذكاء الاصطناعي الجديرة بالثقة ورائدة الفكر في حوكمة أنظمة الذكاء الاصطناعي منذ بدايتها. نحن نتبع مبادئ الثقة والشفافية الراسخة التي توضح أن دور الذكاء الاصطناعي هو تعزيز الخبرة البشرية وحكمها، وليس استبدالها.

في عام 2013، شرعت شركة IBM في رحلة الشرح والشفافية في الذكاء الاصطناعي والتعلم الآلي. تعد شركة IBM شركة رائدة في أخلاقيات الذكاء الاصطناعي، حيث قامت بتعيين قائد عالمي لأخلاقيات الذكاء الاصطناعي في عام 2015 وأنشأت مجلس أخلاقيات الذكاء الاصطناعي في عام 2018. ويعمل هؤلاء الخبراء للمساعدة في ضمان دعم مبادئنا والتزاماتنا في ارتباطاتنا التجارية العالمية. في عام 2020، تبرعت شركة IBM بمجموعات أدوات الذكاء الاصطناعي المسؤول الخاصة بها لمؤسسة Linux للمساعدة في بناء مستقبل الذكاء الاصطناعي العادل والآمن والجدير بالثقة.

تقود شركة IBM الجهود العالمية لتشكيل مستقبل الذكاء الاصطناعي المسؤول ومقاييس ومعايير الذكاء الاصطناعي وأفضل الممارسات الأخلاقية:

  • العمل مع إدارة الرئيس بايدن بشأن تطوير أمرها التنفيذي بشأن الذكاء الاصطناعي
  • تم الكشف عن/تقديم أكثر من 70 براءة اختراع للذكاء الاصطناعي المسؤول
  • يشارك أرفيند كريشنا، الرئيس التنفيذي لشركة IBM، في رئاسة اللجنة التوجيهية لتحالف العمل العالمي للذكاء الاصطناعي الذي أطلقه المنتدى الاقتصادي العالمي (WEF)،
  • يركز التحالف على تسريع اعتماد الذكاء الاصطناعي الشامل والشفاف والموثوق على مستوى العالم
  • شارك في تأليف ورقتين بحثيتين نشرهما المنتدى الاقتصادي العالمي حول الذكاء الاصطناعي التوليدي حول إطلاق القيمة وتطوير أنظمة وتقنيات آمنة.
  • الرئيس المشارك للجنة Trusted AI Linux Foundation AI
  • ساهم في إطار إدارة مخاطر الذكاء الاصطناعي التابع لـ NIST؛ التعامل مع NIST في مجال مقاييس ومعايير واختبارات الذكاء الاصطناعي

يعد تنظيم الذكاء الاصطناعي المسؤول تحديًا متعدد الأوجه لأنه يتطلب أن تنعكس القيم الإنسانية بشكل موثوق ومستمر في التكنولوجيا لدينا. ولكن الأمر يستحق هذا الجهد. نعتقد أن الإرشادات المذكورة أعلاه يمكن أن تساعد وزارة الدفاع في تشغيل الذكاء الاصطناعي الموثوق به ومساعدتها على إنجاز مهمتها.

لمزيد من المعلومات حول كيف يمكن لشركة IBM المساعدة، يرجى زيارة استشارات حوكمة الذكاء الاصطناعي | آي بي إم

إنشاء نهج شامل لحوكمة الذكاء الاصطناعي

المزيد من الموارد:

هل كان المقال مساعدا؟!

نعملا


المزيد من الذكاء الاصطناعي




إطلاق العنان للفوائد المالية من خلال تسييل البيانات

6 دقيقة قراءة - يُمكّن تسييل البيانات المؤسسات من استخدام أصول البيانات وقدرات الذكاء الاصطناعي (AI) لإنشاء قيمة اقتصادية ملموسة. يستخدم نظام تبادل القيمة منتجات البيانات لتعزيز أداء الأعمال واكتساب ميزة تنافسية ومواجهة تحديات الصناعة استجابة لطلب السوق. وتشمل الفوائد المالية زيادة الإيرادات من خلال إنشاء نماذج أعمال صناعية مجاورة، والوصول إلى أسواق جديدة لإنشاء المزيد من مصادر الإيرادات، وزيادة الإيرادات الحالية. يمكن تحقيق تحسين التكلفة من خلال مزيج من تحسينات الإنتاجية والبنية التحتية ...




تقليل العيوب ووقت التوقف عن العمل من خلال عمليات الفحص الآلي المدعمة بالذكاء الاصطناعي

3 دقيقة قراءة - شركة تصنيع سيارات كبيرة ومتعددة الجنسيات مسؤولة عن إنتاج ملايين المركبات سنويًا، تعمل مع IBM لتبسيط عمليات التصنيع الخاصة بها من خلال عمليات فحص تلقائية سلسة مدفوعة بالبيانات في الوقت الفعلي والذكاء الاصطناعي (AI). كشركة مصنعة للسيارات، يقع على عاتق عملائنا واجب متأصل في تقديم منتجات عالية الجودة. ومن الناحية المثالية، يتعين عليهم اكتشاف أي عيوب وإصلاحها قبل وقت طويل من وصول السيارة إلى المستهلك. غالبًا ما تكون هذه العيوب باهظة الثمن ويصعب تحديدها وتمثل عددًا لا يحصى من المخاطر الكبيرة على رضا العملاء.




الكشف عن تقنية الذكاء الاصطناعي التحويلية وراء طلبات Watsonx

4 دقيقة قراءة - أنت متجه إلى سيارتك المفضلة لتناول البطاطس المقلية والبرجر بالجبن. إنه أمر بسيط وعندما تدخل ستلاحظ أنه لا يوجد الكثير من الخط. ما الذي يمكن أن يحدث بشكل خاطئ؟ كثير. يقع المطعم بالقرب من طريق سريع مزدحم به ضوضاء مرورية صاخبة وتحلق الطائرات على ارتفاع منخفض عند اقترابها من المطار القريب. الطقس عاصف. ينطلق جهاز الاستريو في السيارة التي خلفك ويحاول العميل الموجود في المسار التالي الطلب في...

نشرات آي بي إم الإخبارية

احصل على رسائلنا الإخبارية وتحديثات المواضيع التي تقدم أحدث القيادة الفكرية والرؤى حول الاتجاهات الناشئة.

اشترك الآن

المزيد من الرسائل الإخبارية

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة