شعار زيفيرنت

تأثير الذكاء الاصطناعي على الأمن السيبراني – البيانات

التاريخ:

لقد اجتذب الذكاء الاصطناعي الكثير من اهتمام وسائل الإعلام في كل شيء، بدءًا من الاستيلاء على وظائف الأشخاص وحتى نشر المعلومات المضللة وانتهاك حقوق الطبع والنشر، ولكن تأثير الذكاء الاصطناعي على الأمن السيبراني قد يكون قضيته الأكثر إلحاحًا.

من المتوقع أن يكون تأثير الذكاء الاصطناعي على فرق الأمن ذو حدين. عند تطبيقها بشكل صحيح، يمكن أن تكون قوة مضاعفة قوية لممارسي الأمن السيبراني، من خلال وسائل مثل معالجة كميات هائلة من البيانات بسرعات الكمبيوتر، وإيجاد الاتصالات بين نقاط البيانات البعيدة، واكتشاف الأنماط، والكشف عن الهجمات، والتنبؤ بتطور الهجوم. ولكن، كما يدرك الممارسون الأمنيون جيدًا، لا يتم دائمًا تطبيق الذكاء الاصطناعي بشكل صحيح. فهو يزيد من حدة مجموعة تهديدات الأمن السيبراني المفروضة بالفعل، بدءًا من اختراق الهوية والتصيد الاحتيالي وحتى هجمات برامج الفدية وسلسلة التوريد.

يحتاج مدراء تكنولوجيا المعلومات وفرق الأمن إلى فهم مزايا الذكاء الاصطناعي ومخاطره، الأمر الذي يتطلب إعادة توازن كبيرة في المهارات. على سبيل المثال، يجب على مهندسي الأمن أن يفهموا أساسيات التعلم الآلي، وجودة النموذج والتحيزات، ومستويات الثقة، ومقاييس الأداء. علماء البيانات بحاجة إلى تعلم أساسيات الأمن السيبراني وأنماط الهجوم ونمذجة المخاطر للمساهمة بشكل فعال في الفرق المختلطة.

تحتاج نماذج الذكاء الاصطناعي إلى التدريب المناسب للمساعدة في الأمن السيبراني

إن مهمة التعامل مع انتشار التهديدات التي يغذيها الذكاء الاصطناعي تؤدي إلى تفاقم التحديات التي يواجهها كبار مسؤولي أمن المعلومات وفرق الأمان المثقلة بالفعل والتي لا يتعين عليها التعامل فقط مع حملات التصيد الجديدة المتطورة التي صممها نموذج لغة كبير (LLM) مثل ChatGPT، ولكن لا يزال عليك القلق بشأن الخادم غير المصحح في المنطقة المجردة من السلاح والذي قد يشكل تهديدًا أكبر.

من ناحية أخرى، يمكن للذكاء الاصطناعي أن يوفر على الفرق الكثير من الوقت والجهد في تقييم المخاطر واكتشاف التهديدات. ويمكن أن يساعد أيضًا في الاستجابة - على الرغم من أنه يجب القيام بذلك بعناية. يمكن لنموذج الذكاء الاصطناعي أن يتنقل بين المحللين لمعرفة كيفية فرز الحوادث، ثم يقوم إما بتنفيذ تلك المهام بمفرده أو إعطاء الأولوية للحالات للمراجعة البشرية. لكن تحتاج الفرق إلى التأكد من أن الأشخاص المناسبين يعطون تعليمات الذكاء الاصطناعي.

منذ سنوات مضت، على سبيل المثال، أجريت تجربة حيث كان لدي 10 محللين من مستويات مهارات مختلفة لمراجعة 100 حالة اشتباه في تسرب البيانات. قام اثنان من كبار المحللين بتحديد جميع الإيجابيات والسلبيات بشكل صحيح، وأخطأ ثلاثة محللين أقل خبرة في جميع الحالات تقريبًا، وحصل الخمسة الباقون على نتائج عشوائية. بغض النظر عن مدى جودة نموذج الذكاء الاصطناعي، فإنه سيكون عديم الفائدة إذا تم تدريبه من قبل فريق مثل هذا.

الذكاء الاصطناعي يشبه السيارة القوية: يمكنه أن يفعل المعجزات في أيدي سائق متمرس أو الكثير من الأضرار في أيدي سائق عديم الخبرة. وهذا هو أحد المجالات التي يمكن أن يؤثر فيها نقص المهارات على تأثير الذكاء الاصطناعي على الأمن السيبراني.

كيف يمكن لمسؤولي التكنولوجيا التنفيذيين اختيار حل الذكاء الاصطناعي؟

ونظراً للضجة حول الذكاء الاصطناعي، قد تميل المؤسسات إلى الاندفاع ببساطة إلى اعتماد هذه التكنولوجيا. ولكن بالإضافة إلى تدريب الذكاء الاصطناعي بشكل صحيح، هناك أسئلة يجب على CTO الإجابة عليها، بدءًا من مشكلات الملاءمة:

  • هل يتناسب الذكاء الاصطناعي مع النظام البيئي للمنظمة؟ يتضمن ذلك النظام الأساسي والمكونات الخارجية مثل قاعدة البيانات ومحرك البحث والبرامج المجانية والمفتوحة المصدر والترخيص، وكذلك أمان المؤسسة وشهاداتها والنسخ الاحتياطي وتجاوز الفشل. 
  • هل يتناسب الذكاء الاصطناعي مع حجم المؤسسة؟
  • ما هي المهارات المطلوبة لفريق الأمن لصيانة وتشغيل الذكاء الاصطناعي؟

يجب على CTOs أيضًا معالجة الأسئلة الخاصة بحل الذكاء الاصطناعي: 

  • أي من الوظائف المطالب بها لمنتج معين من منتجات الذكاء الاصطناعي تتوافق مع أهداف عملك؟
  • هل يمكن تحقيق نفس الوظيفة باستخدام الأدوات الموجودة؟
  • هل يكشف الحل بالفعل عن التهديدات؟

قد يكون من الصعب الإجابة على هذا السؤال الأخير لأن أحداث الأمن السيبراني الضارة تحدث على نطاق صغير مقارنة بالأنشطة المشروعة. في دراسة محدودة لإثبات المفهوم باستخدام البيانات الحية، قد لا تكتشف أداة الذكاء الاصطناعي أي شيء إذا لم يكن هناك شيء. غالبًا ما يستخدم البائعون البيانات الاصطناعية أو هجمات الفريق الأحمر لإثبات قدرة الذكاء الاصطناعي، ولكن يبقى السؤال ما إذا كان يُظهر قدرة اكتشاف حقيقية أو ببساطة يتحقق من صحة الافتراض الذي تم بموجبه إنشاء المؤشرات.

من الصعب تحديد السبب الذي يجعل الذكاء الاصطناعي يعتقد أن شيئًا ما كان هجومًا لأن خوارزميات الذكاء الاصطناعي هي في الأساس صناديق سوداء، ولا تزال غير قادرة على تفسير كيفية توصلها إلى نتيجة معينة - كما أوضحت وكالة مشاريع البحوث المتطورة الدفاعية (DARPA) الذكاء الاصطناعي القابل للتفسير (XAI) برنامج.

التخفيف من مخاطر الذكاء الاصطناعي

إن حل الذكاء الاصطناعي يكون جيدًا بقدر جودة البيانات التي يعمل معها. ولضمان السلوك الأخلاقي، ينبغي تدريب نماذج الذكاء الاصطناعي على البيانات الأخلاقية، وليس على جمع القمامة بالجملة الموجودة على شبكة الإنترنت العالمية. ويعلم أي عالم بيانات أن إنتاج مجموعة بيانات متوازنة وغير متحيزة ونظيفة لتدريب النموذج مهمة صعبة ومملة وغير جذابة. 

ولهذا السبب، قد تتم إدارة نماذج الذكاء الاصطناعي، بما في ذلك LLMs، في نهاية المطاف بطريقة مشابهة لكيفية خدمة الأمن السيبراني على أفضل وجه - كنماذج متخصصة (على عكس نماذج الأغراض العامة "المعرفة الشاملة") التي تخدم مجالات معينة ويتم تدريبها على البيانات برعاية خبراء الموضوع في هذا المجال. 

إن محاولة فرض رقابة على الذكاء الاصطناعي ردًا على احتجاجات وسائل الإعلام في الوقت الحالي لن تحل المشكلة. ولا يمكن تحقيق ذلك إلا بالعمل الدؤوب في إنشاء مجموعات بيانات موثوقة. وإلى أن تقبل شركات الذكاء الاصطناعي - وشركات رأس المال الاستثماري التي تدعمها - هذا النهج باعتباره الطريقة الوحيدة لتقديم محتوى محترم، فهو مجرد قمامة. 

هل ينبغي تنظيم تطوير الذكاء الاصطناعي بشكل أكبر؟

لقد ولّد تطور الذكاء الاصطناعي الكثير مخاوف مشروعة حول كل شيء بدءًا من التزييف العميق واستنساخ الصوت وحتى التصيد الاحتيالي المتقدم/التصيد الاحتيالي/التصيد الاحتيالي عبر الرسائل النصية القصيرة، والروبوتات القاتلة، وحتى إمكانية وجود نهاية العالم لمنظمة العفو الدولية. أصدر إليعازر يودكوفسكي، أحد أكثر الأسماء احترامًا في مجال الذكاء العام الاصطناعي (AGI)، مؤخرًا نداءً إلى "أغلق كل شيء"، قائلًا إن الوقف المقترح لمدة ستة أشهر لم يكن كافيًا.

لكن لا يمكنك إيقاف تطور التقنيات الجديدة، وهي حقيقة كانت واضحة منذ أيام الخيميائيين في العصور القديمة. إذن، من وجهة نظر عملية، ما الذي يمكن فعله لمنع الذكاء الاصطناعي من النمو خارج نطاق السيطرة والتخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي؟ الجواب هو العديد من نفس مجموعات الضوابط المستخدمة في مجالات أخرى والتي لديها القدرة على التسليح: 

  • أبحاث شفافة. إن تطوير الذكاء الاصطناعي مفتوح المصدر لا يؤدي إلى دفع الابتكار وإضفاء الطابع الديمقراطي على الوصول فحسب، بل إنه ينطوي أيضًا على العديد من الفوائد المتعلقة بالسلامة، بدءًا من اكتشاف العيوب الأمنية وخطوط التطوير الخطيرة إلى إنشاء دفاعات ضد إساءة الاستخدام المحتملة. تدعم شركات التكنولوجيا الكبرى حتى الآن الجهود مفتوحة المصدر، لكن هذا قد يتغير إذا اشتدت المنافسة. قد تكون هناك حاجة لاتخاذ تدابير تشريعية للاحتفاظ بإمكانية الوصول إلى المصادر المفتوحة.
  • تحتوي على التجريب. يجب أن تكون جميع التجارب التي تستخدم الذكاء الاصطناعي المتقدم بدرجة كافية في وضع الحماية، مع تطبيق إجراءات السلامة والأمن بصرامة. هذه ليست إجراءات مضمونة ولكنها قد تصنع الفرق بين اضطراب محلي وكارثة عالمية.
  • قتل المفاتيح. ومثلها كمثل الترياق واللقاحات، يجب أن تكون التدابير المضادة ضد متغيرات الذكاء الاصطناعي الهاربة أو المدمرة جزءا لا يتجزأ من عملية التطوير. حتى منشئو برامج الفدية يبنون مفتاح القتل. 
  • تنظيم كيفية استخدامه. الذكاء الاصطناعي هو تقنية يمكن تطبيقها لصالح البشرية أو إساءة استخدامها مما يؤدي إلى عواقب وخيمة. يعد تنظيم تطبيقاته مهمة تقع على عاتق حكومات العالم، والحاجة الملحة أكبر بكثير من الحاجة إلى فرض رقابة على الإصدار التالي من ChatGPT. ال قانون الاتحاد الأوروبي للذكاء الاصطناعي هو أساس موجز وجيد يهدف إلى منع سوء الاستخدام دون خنق الابتكار. الولايات المتحدة منظمة العفو الدولية شرعة الحقوق والأمر التنفيذي الأخير بشأن الذكاء الاصطناعي أقل تحديدا ويبدو أنه يركز على الصواب السياسي أكثر من التركيز على قضايا تطوير النموذج المناسب، والتدريب، والاحتواء. لكن هذه التدابير ليست سوى البداية. 

وفي الختام

يأتي الذكاء الاصطناعي إلى مجال الأمن السيبراني سواء أراد مدراء تكنولوجيا المعلومات ذلك أم لا، وسوف يجلب فوائد ومخاطر كبيرة على مجال الأمن السيبراني، لا سيما مع وصول التكنولوجيا في نهاية المطاف. تشفير ما بعد الكم. كحد أدنى، يجب على مسؤولي أمن المعلومات استثمار الوقت لفهم فوائد الأدوات المدعومة بالذكاء الاصطناعي وتهديدات الهجمات المعتمدة على الذكاء الاصطناعي. ويعتمد استثمارهم للأموال في الذكاء الاصطناعي إلى حد كبير على الفوائد الملموسة لمنتجات أمن الذكاء الاصطناعي، والعواقب المعلنة لهجمات الذكاء الاصطناعي، وإلى حد ما، على تجربتهم الشخصية مع ChatGPT. 

التحدي الذي يواجهه كبار مسؤولي تكنولوجيا المعلومات هو كيفية تطبيق الذكاء الاصطناعي بشكل فعال ومسؤول.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة