شعار زيفيرنت

وجدت مؤسسة RAND Corp أن وزارة الدفاع "تواجه تحديًا كبيرًا" في وضع الذكاء الاصطناعي 

التاريخ:

وجد تقرير جديد صادر عن مؤسسة RAND Corp أن موقف وزارة الدفاع الأمريكية للذكاء الاصطناعي يواجه تحديات حول البيانات والاختبارات التي تضمن الأداء والسلامة. (مصدر الصورة: Getty Images)  

بواسطة منظمة العفو الدولية الاتجاهات  

في تقييم محدث صدر مؤخرًا عن موقف وزارة الدفاع الأمريكية (DoD) من الذكاء الاصطناعي ، قال باحثون في مؤسسة راندوجدت أنه "على الرغم من بعض الإشارات الإيجابية ، فإن وضع وزارة الدفاع يواجه تحديات كبيرة عبر جميع الأبعاد" من التقييم. 

طلب الكونجرس من باحثي مؤسسة RAND ، ضمن قانون تفويض الدفاع الوطني لعام 2019 (NDAA) ، ومدير مركز الذكاء الاصطناعي المشترك (JAIC) التابع لوزارة الدفاع ، المساعدة في الإجابة على السؤال: "هل وزارة الدفاع مستعدة للاستفادة من تقنيات الذكاء الاصطناعي والاستفادة من الإمكانات المرتبطة بها ، أم أنها بحاجة إلى اتخاذ خطوات رئيسية لتهيئة نفسها لاستخدام هذه التقنيات بشكل فعال وآمن وتوسيع نطاق استخدامها؟ " 

على المدى الذكاء الاصطناعي تمت صياغته لأول مرة في عام 1956 في مؤتمر في كلية دارتموث عرض برنامجًا مصممًا لتقليد مهارات التفكير البشري. بعد ذلك مباشرة تقريبًا ، بدأت وكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA) (المعروفة آنذاك باسم وكالة مشاريع الأبحاث المتقدمة [ARPA]) ، الذراع البحثية للجيش ، عدة خطوط بحث تهدف إلى تطبيق مبادئ الذكاء الاصطناعي على تحديات الدفاع.   

دانييل تراف ، كبير علماء المعلومات ، RAND Corp.

منذ الخمسينيات من القرن الماضي ، أصبح الذكاء الاصطناعي - وتخصصاته الفرعية للتعلم الآلي (ML) - يعنيان أشياء مختلفة لأشخاص مختلفين ، حسبما ذكر التقرير ، الذي مؤلفه الرئيسي دانييل سي تاراف ، عالمة معلومات بارزة في مؤسسة RAND وأستاذة في مدرسة RAND للدراسات العليا. (مؤسسة RAND هي مؤسسة فكرية أمريكية غير ربحية تم إنشاؤها في عام 1950 لتقديم البحث والتحليل للقوات المسلحة الأمريكية.)    

على سبيل المثال ، استشهد NDAA لعام 2019 بما يصل إلى خمسة تعريفات للذكاء الاصطناعي. جاء في تقرير مؤسسة RAND: "لم يظهر إجماع على تعريف مشترك من عشرات المقابلات التي أجراها فريق RAND لتقريره إلى الكونجرس".  

قرر باحثو مؤسسة RAND التحلي بالمرونة وعدم الالتزام بتعريفات دقيقة. وبدلاً من ذلك ، حاولوا الإجابة على السؤال عما إذا كانت وزارة الدفاع في وضع يمكنها من بناء أو اكتساب واختبار ونقل واستدامة - على نطاق واسع - مجموعة من التقنيات التي تقع على نطاق واسع تحت مظلة الذكاء الاصطناعي؟ وإذا لم يكن الأمر كذلك ، فما الذي يتعين على وزارة الدفاع فعله للوصول إلى هناك؟ بالنظر إلى تداعيات الذكاء الاصطناعي على صناع القرار الإستراتيجيين في وزارة الدفاع ، ركز الباحثون على ثلاثة عناصر وكيفية تفاعلها:  

  • مجال التكنولوجيا والقدرات 
  • طيف تطبيقات DoD AI 
  • مساحة الاستثمار والأفق الزمني.

بينما تدعم الخوارزميات معظم حلول الذكاء الاصطناعي ، فإن الاهتمام والضجيج يغذيه التقدم في الذكاء الاصطناعي ، مثل التعلم العميق. يتطلب هذا مجموعات بيانات كبيرة ، والتي تميل إلى أن تكون شديدة التحديد للتطبيقات التي صممت من أجلها ، ومعظمها تجاري. بالإشارة إلى إجراءات التحقق من الذكاء الاصطناعي والتحقق من الصحة والاختبار والتقييم (VVT & E) الحاسمة لوظيفة البرنامج في وزارة الدفاع ، قال الباحثون ، "لا يزال VVT & E يمثلان تحديًا كبيرًا في جميع المجالات لجميع تطبيقات الذكاء الاصطناعي ، بما في ذلك التطبيقات العسكرية الحرجة للسلامة."  

قسم الباحثون تطبيقات الذكاء الاصطناعي الخاصة بوزارة الدفاع إلى ثلاث مجموعات:  

  • مؤسسة AI، بما في ذلك تطبيقات مثل إدارة السجلات الصحية في المستشفيات العسكرية في بيئات جيدة التحكم ؛  
  • دعم المهام AI ، بما في ذلك تطبيقات مثل فريق الخوارزميات متعدد الوظائف للحرب (المعروف أيضًا باسم Project Maven) ، والذي يهدف إلى استخدام التعلم الآلي لمساعدة البشر في تحليل كميات كبيرة من الصور من بيانات الفيديو التي تم جمعها في مسرح المعركة بواسطة الطائرات بدون طيار ؛  
  • الذكاء الاصطناعي التشغيلي، بما في ذلك تطبيقات الذكاء الاصطناعي المدمجة في أنظمة الأسلحة التي يجب أن تتعامل مع البيئات الديناميكية والعدائية ، والتي لها آثار كبيرة في حالة فشل الإصابات. 

يجب تحديد الأهداف الواقعية للمدة التي سيحتاجها الذكاء الاصطناعي للتقدم من عروض توضيحية لما هو ممكن إلى عمليات تنفيذ شاملة في هذا المجال. يقترح تحليل فريق مؤسسة RAND عمليات نشر على نطاق واسع في:   

  • على المدى القريب (حتى خمس سنوات) للذكاء الاصطناعي للمؤسسات 
  • حد أوسط (من خمس إلى عشر سنوات) لمعظم دعم المهام AI و  
  • على المدى البعيد (أكثر من عشر سنوات) لمعظم تطبيقات الذكاء الاصطناعي التشغيلية. 

يرى فريق مؤسسة RAND التحديات التالية التي تواجه الذكاء الاصطناعي في وزارة الدفاع:  

  • تنظيميا ، تفتقر استراتيجية DoD الحالية للذكاء الاصطناعي إلى خطوط الأساس والمقاييس لتقييم التقدم المحرز. ولم يتم منح JAIC السلطة والموارد والرؤية اللازمة لتوسيع نطاق الذكاء الاصطناعي وتأثيره على مستوى وزارة الدفاع. 
  • البيانات غالبًا ما تكون غير موجودة ، وعندما تكون موجودة ، فإنها غالبًا ما تفتقر إلى إمكانية التتبع والفهم وإمكانية الوصول والتشغيل البيني. 
  • الوضع الحالي لـ VVT & E. لأن تقنيات الذكاء الاصطناعي لا يمكنها ضمان أداء وسلامة أنظمة الذكاء الاصطناعي ، خاصة تلك التي تعتبر حرجة من حيث السلامة. 
  • تفتقر وزارة الدفاع إلى آليات واضحة للنمو والتتبع والزراعة موهبة الذكاء الاصطناعي ، التحدي الذي سينمو فقط مع المنافسة الشديدة المتزايدة مع الأوساط الأكاديمية ، والعالم التجاري ، وأنواع أخرى من مساحات العمل للأفراد ذوي المهارات والتدريب اللازمين. 
  • Communicationالقنوات بين بناة ومستخدمي الذكاء الاصطناعي داخل وزارة الدفاع متفرقة. 

وقدم الباحثون عددا من التوصيات لمعالجة هذه القضايا. 

تم تناول منطقتين من مجالات التحدي  

تم تناول اثنين من مجالات التحدي هذه مؤخرًا في اجتماع استضافته AFCEA ، وهي الرابطة المهنية التي تربط الأشخاص في الجيش والحكومة والصناعة والأوساط الأكاديمية ، تم الإبلاغ عنها في حساب في FCW. تنخرط المنظمة في "التبادل الأخلاقي للمعلومات" ولها جذور في الحرب الأهلية الأمريكية ، وفقًا لموقعها على الإنترنت.   

جاكلين تامي هي نائبة المدير بالإنابة في JAIC ، والتي تشمل سنوات خبرتها مناصب في لجنة مجلس النواب الدائمة المختارة للاستخبارات ، وتعمل مع منصة تحليلات الذكاء الاصطناعي لمكتب وزير الدفاع ومن ثم مناصب في JAIC. وقد تخرجت من الكلية الحربية البحرية وكلية LBJ للشؤون العامة.  

وتحدثت عن كيفية دخول الذكاء الاصطناعي في وزارة الدفاع نحو الثقافة ومعايير السياسة المتعارضة مع قدرتها. على سبيل المثال ، "لا يزال لدينا أكثر من ... عدة آلاف من وثائق توجيه التصنيف الأمني ​​في وزارة الدفاع وحدها." والنتيجة هي تكاثر "مالكي البيانات". وعلقت قائلة: "هذا يتناقض مع فكرة أن البيانات هي أحد الأصول الاستراتيجية للقسم." 

استخدمت مثال الصيانة التنبؤية ، التي تتطلب تحليل البيانات من مجموعة من المصادر لتكون فعالة ، كتحدي للبنية التحتية لوزارة الدفاع حاليًا. قال تامي: "هذه قضية قتالية". "لجعل الذكاء الاصطناعي فعالًا لتطبيقات القتال ، علينا التوقف عن التفكير فيه بهذه الطرق المحدودة." 

جين بينيليس ، رئيس قسم الاختبارات والتقييم ، JAIC

معايير البيانات تحتاج إلى تعيين وتوحيد المتحدث المقترح جين بينيليس ، رئيس قسم الاختبارات والتقييم في JAIC. تتضمن خلفيتها الوقت الذي قضته في مختبر الفيزياء التطبيقية بجامعة جونز هوبكنز ، حيث شاركت في "الحرب الخوارزمية". وهي أيضًا من قدامى المحاربين في سلاح مشاة البحرية ، حيث تضمنت مهامها منصبًا في مختبر الحرب. وهي حاصلة على درجة الدكتوراه في الإحصاء من جامعة ميتشيغان. 

صرح بينيليس أن "المعايير هي أفضل الممارسات المرتفعة وليس لدينا بالضرورة أفضل الممارسات حتى الآن". تعمل JAIC على ذلك ، من خلال جمع وتوثيق أفضل الممارسات وقيادة مجموعة عمل في مجتمع الاستخبارات حول جمع البيانات ووضع العلامات. 

وقالت إن ضعف جاهزية البيانات كان عقبة أمام الذكاء الاصطناعي لوزارة الدفاع. واستجابة لذلك ، تقوم JAIC بإعداد عقود منح متعددة للاختبار والتقييم واستعداد البيانات المتوقع قريبًا.  

اقرأ مقالات المصدر والمعلومات من مؤسسة راند. و FCW. 

المصدر: https://www.aitrends.com/ai-in-government/rand-corp-finds-dod-significantly-challenged-in-ai-posture/

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة