شعار زيفيرنت

قانون الموازنة: قيمة الخبرة البشرية في عصر الذكاء الاصطناعي التوليدي - تنوع البيانات

التاريخ:

يعتبر البشر الحلقة الأضعف في المؤسسة عندما يتعلق الأمر بالأمن. بحق، كما ما يزيد عن 95٪ من حوادث الأمن السيبراني ناجمة عن خطأ بشري. البشر متقلبون، وعرضة للخطأ، ولا يمكن التنبؤ بهم، مما يجعلهم أهدافًا سهلة لمجرمي الإنترنت الذين يتطلعون إلى الدخول إلى أنظمة المؤسسات.  

وهذا يجعل اعتمادنا على الآلات أكثر أهمية بكثير. حتى هذه اللحظة، كنا قادرين على الوثوق بالآلات للعمل بالرمز كحقيقة. على الرغم من أنه يمكن اختراقها من خلال نقاط الضعف في التعليمات البرمجية أو من خلال العيوب الاجتماعية لمشغليها من البشر، إلا أن المشكلات عادة ما يتم حلها بحل واضح. 

ومع ذلك، مع صعود الذكاء الاصطناعي التوليدي (جيناي) و نماذج اللغات الكبيرة (LLMs)، تواجه المؤسسات الآن هجمات الهندسة الاجتماعية التي تخدع الذكاء الاصطناعي للقيام بأشياء لم يكن المقصود منها القيام بها. ومع تفريغنا المزيد للذكاء الاصطناعي، سيكون من المثير للاهتمام رؤية أنماط الهجوم الجديدة هذه.

في مواجهة هذه المعضلة، يعود الأمر مرة أخرى إلى البشر للتنقل في هذا المشهد الأمني ​​المعقد والمتطور للذكاء الاصطناعي. وهذا يدعو مدراء أمن المعلومات إلى التواصل بوضوح حول فوائد وعيوب الذكاء الاصطناعي والتعرف على القائمة الطويلة من الاعتبارات الأمنية المرتبطة بالمنتجات والقدرات التي تعمل بالذكاء الاصطناعي. 

التنفيذ المتسرع للذكاء الاصطناعي التوليدي يجلب تحديات جديدة للأمن السيبراني

للبدء، هناك مشكلة شائعة عندما يتعلق الأمر بـ GenAI وLLMs وهي الاعتماد المفرط على نطاق واسع على المحتوى الناتج عن الذكاء الاصطناعي. إن الثقة في المحتوى الناتج عن الذكاء الاصطناعي دون التحقق أو التحقق من وجود معلومات مضللة أو مضللة دون مدخلات أو رقابة بشرية يمكن أن تؤدي إلى نشر بيانات خاطئة تفيد عملية صنع القرار الضعيفة وتقلل من التفكير النقدي. من المعروف أن حاملي شهادة الماجستير في القانون يعانون من الهلوسة، لذلك قد لا تكون بعض المعلومات المضللة ناتجة عن نوايا خبيثة.

وعلى نفس المنوال، فإن كمية التعليمات البرمجية غير الآمنة التي يتم تقديمها بعد تطور GenAI ستصبح أيضًا تحديًا كبيرًا لرؤساء أمن المعلومات، إذا لم يتم توقعها بشكل استباقي. من المعروف أن محركات الذكاء الاصطناعي تكتب تعليمات برمجية تحتوي على ثغرات أمنية. وبدون الإشراف البشري المناسب، تعمل GenAI على تمكين الأشخاص الذين ليس لديهم الأسس التقنية المناسبة لإرسال التعليمات البرمجية. يؤدي هذا إلى زيادة المخاطر الأمنية طوال دورة حياة تطوير البرامج للمؤسسات التي تستخدم هذه الأدوات بشكل غير صحيح.

يعد تسرب البيانات مشكلة شائعة أخرى. في بعض الحالات، يمكن للمهاجمين استخدام الحقن الفوري لاستخراج المعلومات الحساسة التي تعلمها نموذج الذكاء الاصطناعي من مستخدم آخر. في كثير من الأحيان قد يكون هذا غير ضار، ولكن من المؤكد أنه لا يمكن منع الاستخدام الضار. يمكن للجهات الفاعلة السيئة التحقيق عمدًا في أداة الذكاء الاصطناعي باستخدام مطالبات مصممة بدقة، بهدف استخراج المعلومات الحساسة التي حفظتها الأداة، مما يؤدي إلى تسرب معلومات حساسة أو سرية.

قد يزيد الذكاء الاصطناعي من بعض فجوات الأمن السيبراني ولكن لديه إمكانات كبيرة لسد فجوات أخرى

أخيرًا، من المفهوم أن نشر GenAI وLLMs سيؤدي إلى تراجع بعض الانخفاض في سطح الهجوم في صناعتنا لعدة أسباب. أولاً، تعمل القدرة على إنشاء التعليمات البرمجية باستخدام GenAI على خفض مستوى من يمكنه أن يصبح مهندس برمجيات، مما يؤدي إلى إضعاف التعليمات البرمجية وحتى معايير الأمان الأضعف. ثانيًا، يتطلب GenAI كميات هائلة من البيانات، مما يعني أن حجم وتأثير خروقات البيانات سوف ينمو بشكل كبير. ثالثًا، كما هو الحال مع أي تقنية ناشئة، قد لا يكون المطورون على دراية كاملة بالطرق التي يمكن من خلالها استغلال تطبيقهم أو إساءة استخدامه. 

ومع ذلك، فمن الضروري اعتماد منظور متوازن. في حين أن تسهيل إنشاء الأكواد البرمجية من خلال Gen AI قد يثير المخاوف، إلا أنه يجلب أيضًا سمات إيجابية إلى مشهد الأمن السيبراني. على سبيل المثال، يمكنه تحديد الثغرات الأمنية بشكل فعال مثل البرمجة النصية عبر المواقع (XSS) أو حقن SQL. تؤكد هذه الطبيعة المزدوجة على أهمية الفهم الدقيق. وبدلا من النظر إلى الذكاء الاصطناعي باعتباره ضارا فقط، فإنه يؤكد على العلاقة التكاملية بين الذكاء الاصطناعي والمشاركة البشرية في الأمن السيبراني. يجب على CISOs فهم المخاطر المرتبطة بـ GenAI وLLMs بينما يستكشفون في نفس الوقت الأساليب التي تتمحور حول الإنسان لتنفيذ GenAI وتحصين مؤسساتهم.

يلتقط البشر ما يتركه الذكاء الاصطناعي وراءهم

لا يتم تكليف CISOs فقط بكشف تعقيدات GenAI. يجب عليهم تمهيد الطريق إلى الأمام لمنظمتهم وإظهار للقيادة كيف يمكن لمنظمتهم أن تستمر في الازدهار في عالم يهيمن عليه GenAI. 

في حين أن المستخدمين النهائيين غالبًا ما يكونون مسؤولين عن العديد من الثغرات الأمنية، فلا يوجد دفاع أفضل ضد الجرائم الإلكترونية من إنسان مدرب جيدًا وذو عقلية أمنية. بغض النظر عن أدوات الكشف عن التهديدات الموجودة في المؤسسة، فإنه ببساطة لا يوجد بديل للشخص الذي يقف خلف الشاشة عندما يتعلق الأمر باختبار البرامج. 

يمكن للمؤسسات أن تتفوق على مجرمي الإنترنت باستخدام قوة القرصنة الأخلاقية. وفي حين يتردد البعض في دعوة المتسللين إلى شبكاتهم بسبب مفاهيم خاطئة عفا عليها الزمن، فإن خبراء الأمن السيبراني الملتزمين بالقانون هم أفضل فريق لمواجهة الجهات الفاعلة السيئة ــ لأنهم، على عكس الذكاء الاصطناعي، قادرون على الدخول إلى رؤوس المهاجمين السيبرانيين.

في الواقع، يقوم المتسللون بالفعل بتكملة الأدوات الآلية في مكافحة مجرمي الإنترنت 92٪ من القراصنة الأخلاقية قائلين إنهم يستطيعون العثور على نقاط الضعف التي لا تستطيع الماسحات الضوئية العثور عليها. ومن خلال كشف النقاب عن القرصنة إلى الأبد، يمكن لقادة الأعمال تبني القرصنة الأخلاقية والدعم البشري لتحقيق توازن أكثر فعالية بين الذكاء الاصطناعي والخبراء البشريين في مكافحة الجرائم الإلكترونية الحديثة. لدينا مؤخرا تقرير الأمن المدعوم من القراصنة يسلط الضوء على ذلك، حيث يقول 91% من عملائنا أن المتسللين يقدمون تقارير ثغرات أكثر تأثيرًا وقيمة من حلول الذكاء الاصطناعي أو المسح الضوئي. مع استمرار الذكاء الاصطناعي في تشكيل مستقبلنا، سيظل مجتمع الهاكر الأخلاقي ملتزمًا بضمان تكامله الآمن.

إن الجمع بين الأتمتة وشبكة من المتسللين ذوي المهارات العالية يعني أن الشركات يمكنها تحديد العيوب المهمة في التطبيقات قبل استغلالها. عندما تقوم المؤسسات بدمج أدوات الأمان الآلية بشكل فعال مع القرصنة الأخلاقية، فإنها تسد الفجوات في سطح الهجوم الرقمي المتطور باستمرار. 

وذلك لأن البشر والذكاء الاصطناعي يمكنهم العمل معًا لتحسين إنتاجية فريق الأمان: 

  1. استطلاع سطح الهجوم: يمكن للمؤسسات الحديثة تطوير بنية تحتية واسعة ومعقدة لتكنولوجيا المعلومات تشتمل على مجموعة متنوعة من الأجهزة والبرامج المصرح بها وغير المصرح بها. يعد تطوير فهرس شامل لأصول تكنولوجيا المعلومات مثل البرامج والأجهزة أمرًا مهمًا لتقليل نقاط الضعف وتبسيط إدارة التصحيح والمساعدة في الامتثال لتفويضات الصناعة. كما أنه يساعد في تحديد وتحليل النقاط التي قد يستهدف المهاجم من خلالها مؤسسة ما.
  2. التقييمات المستمرة: بالانتقال إلى ما هو أبعد من الأمان في الوقت المناسب، يمكن للمؤسسات الجمع بين براعة خبراء الأمن البشري والرؤى السطحية للهجوم في الوقت الفعلي لتحقيق اختبار مستمر للمشهد الرقمي. يمكّن اختبار الاختراق المستمر فرق تكنولوجيا المعلومات من عرض نتائج عمليات المحاكاة المستمرة التي توضح كيف سيبدو الاختراق في البيئة الحالية ونقاط الضعف المحتملة حيث يمكن للفرق التكيف في الوقت الفعلي.
  3. تحسينات العملية: يمكن للمتسللين البشريين الموثوقين تزويد فرق الأمان بمعلومات قيمة حول نقاط الضعف والأصول للمساعدة في تحسين العمليات.

وفي الختام

مع استمرار الذكاء الاصطناعي التوليدي في التطور بهذه الوتيرة السريعة، يجب على مسؤولي أمن المعلومات الاستفادة من فهمهم لكيفية تعاون البشر لتعزيز أمن الذكاء الاصطناعي وحشد الدعم من مجلس الإدارة وفريق القيادة. ونتيجة لذلك، يمكن أن يكون لدى المنظمات ما يكفي من الموظفين والموارد لمواجهة هذه التحديات بفعالية. إن تحقيق التوازن الصحيح بين التنفيذ السريع للذكاء الاصطناعي والأمن الشامل من خلال التعاون مع المتسللين الأخلاقيين يعزز الحجة الداعمة للاستثمار في الحلول المناسبة التي تعتمد على الذكاء الاصطناعي.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة