شعار زيفيرنت

قانون الاتحاد الأوروبي للذكاء الاصطناعي – ما هي الآثار المترتبة على الخدمات المصرفية والتكنولوجيا المالية؟

التاريخ:

يبشر التصويت النهائي الذي أجراه البرلمان الأوروبي أمس على قانون الذكاء الاصطناعي، والذي من المقرر أن يدخل حيز التنفيذ في شهر مايو/أيار المقبل، بتشريع الذكاء الاصطناعي الأكثر شمولاً في العالم. وكما هو الحال مع اللائحة العامة لحماية البيانات، سيكون لها آثار عالمية تتجاوز الاتحاد الأوروبي.

يوفر قانون الذكاء الاصطناعي إطارًا شاملاً لضمان تطوير الذكاء الاصطناعي الجدير بالثقة والاستخدام المسؤول لأدوات الذكاء الاصطناعي، ولا سيما الشفافية والتحيز وانتهاكات الخصوصية والمخاطر الأمنية وإمكانية نشر المعلومات الخاطئة أيضًا.
كإشراف بشري في تطوير تقنيات الذكاء الاصطناعي. 

في هذه المبادئ التوجيهية، يتم استخدام سبعة مبادئ أخلاقية غير ملزمة للذكاء الاصطناعي، تهدف إلى المساعدة في ضمان أن الذكاء الاصطناعي جدير بالثقة وسليم من الناحية الأخلاقية. وتشمل المبادئ

- الوكالة البشرية والرقابة؛

- المتانة التقنية والسلامة؛

- الخصوصية وإدارة البيانات؛

- الشفافية؛

- التنوع وعدم التمييز والعدالة؛

– الرفاه المجتمعي والبيئي والمساءلة.

ومع اتباع نهج قائم على المخاطر، ستواجه أنظمة الذكاء الاصطناعي عالية المخاطر في قطاعات مثل الخدمات المصرفية والرعاية الصحية التزامات قانونية صارمة وعقوبات كبيرة في حالة عدم الامتثال. ويصنف القانون الذكاء الاصطناعي إلى أربع مستويات من المخاطر، من الحد الأدنى إلى غير المقبول، لكل منها
مع تصاعد الالتزامات

يحظر قانون الاتحاد الأوروبي للذكاء الاصطناعي تطوير ونشر واستخدام بعض أنظمة الذكاء الاصطناعي، بما في ذلك:

- أنظمة التسجيل الاجتماعي

- هندسة اجتماعية

- تحديد الهوية البيومترية عن بعد في الوقت الحقيقي في الأماكن العامة

– التنميط القائم على الذكاء الاصطناعي والتنبؤ بالسلوك

– كشط وتكبير صور الوجه لتوسيع قواعد البيانات

- تقنيات التلاعب القائمة على الذكاء الاصطناعي تقوض الاستقلالية وحرية الاختيار 

لا تشكل جميع أنظمة الذكاء الاصطناعي مخاطر كبيرة، خاصة إذا لم تؤثر ماديًا على عملية صنع القرار أو تضر بشكل كبير بالمصالح القانونية المحمية. أنظمة الذكاء الاصطناعي ذات التأثير الأدنى على عملية صنع القرار أو المخاطرة بالمصالح القانونية، مثل تلك التي تؤدي الأداء
المهام الضيقة أو تعزيز الأنشطة البشرية، تعتبر منخفضة المخاطر. ويتم التأكيد على التوثيق والتسجيل لهذه الأنظمة من أجل الشفافية. تشمل بعض أنظمة الذكاء الاصطناعي عالية المخاطر عدة قطاعات، بما في ذلك الخدمات المصرفية والتأمين (وكذلك الخدمات الطبية).
الأجهزة والموارد البشرية والتعليم والمزيد).

تهدف المتطلبات الإلزامية لأنظمة الذكاء الاصطناعي عالية المخاطر إلى ضمان الموثوقية وتخفيف المخاطر، مع الأخذ في الاعتبار الغرض منها وسياق الاستخدام. من المهم بالنسبة للخدمات المالية وشركات التكنولوجيا المالية، وخاصة تلك التي تتعامل مع بيانات العملاء، الحفاظ على البيانات
أدناه، مع الأخذ في الاعتبار هذه المتطلبات لأنظمة الذكاء الاصطناعي عالية المخاطر:

– إدارة المخاطر المستمرة والمتكررة للذكاء الاصطناعي عالي المخاطر، مع التركيز على الصحة والسلامة والحقوق، مما يتطلب التحديثات والوثائق وإشراك أصحاب المصلحة.

- إجراء تقييم لتأثير الحقوق الأساسية

– الحوكمة الصارمة لتجنب التمييز وضمان الامتثال لقوانين حماية البيانات

– يجب أن تكون مجموعات بيانات التدريب والاختبار تمثيلية ودقيقة وخالية من التحيزات لمنع التأثيرات الضارة على الصحة والسلامة والحقوق الأساسية

– ضمان الرقابة البشرية والشفافية

– ضمان كشف التحيز وتصحيحه

– توثيق شامل للتتبع والتحقق من الامتثال والمراقبة التشغيلية والإشراف على ما بعد السوق، بما في ذلك خصائص النظام والخوارزميات وعمليات البيانات وإدارة المخاطر في مستندات فنية واضحة ومحدثة، بالإضافة إلى
تسجيل الأحداث تلقائيًا طوال عمر الذكاء الاصطناعي.

- يجب أن تعمل أنظمة الذكاء الاصطناعي عالية المخاطر بشكل متسق طوال دورة حياتها وأن تلبي مستوى مناسبًا من الدقة والمتانة والأمن السيبراني

يجب على الشركات إعطاء الأولوية لتطوير الذكاء الاصطناعي المسؤول للامتثال للوائح الأخيرة ومنع العقوبات الثقيلة لعدم الامتثال. هذه بعض الخطوات التي يجب أن تبدأ بها الشركة لضمان الالتزام:

  1. إنشاء حوكمة الذكاء الاصطناعي في وقت مبكر، وضمان المشاركة والقبول بين أصحاب المصلحة
  2. تثقيف وتدريب فريقك في المبادئ الأخلاقية للذكاء الاصطناعي. ستتطلب إدارة مخاطر الذكاء الاصطناعي مهارات جديدة، تتراوح من تحليل البيانات إلى الأمن/الخصوصية، والقانونية، وغير ذلك الكثير.
  3. إجراء تدقيق الذكاء الاصطناعي للمؤسسة (وليس فقط الهندسة)، ولكن القانونية والموارد البشرية وما إلى ذلك أيضًا للحصول على صورة كاملة عن مكان استخدام الذكاء الاصطناعي في المؤسسة
  4. التحقق من الامتثال المستمر
  5. تأكد من أن موفري SaaS لديك يستخدمون الذكاء الاصطناعي بشكل مسؤول
  6. ضمان الشفافية والفهم وقابلية الشرح للنماذج التي تستخدم في عملك

على الرغم من أن هذه خطوة مطلوبة بشدة في الاتجاه الصحيح، إلا أن الشيطان يكمن في التفاصيل، وسيكون لقانون الذكاء الاصطناعي تأثير كبير على مستقبل المنظمات، سواء التقليدية أو التي تركز على الذكاء الاصطناعي. بينما نتنقل عبر عصر يتزايد فيه تأثير الذكاء الاصطناعي
إن التوافق مع المعايير الأخلاقية والمتطلبات التنظيمية ليس مجرد مسألة امتثال قانوني، بل هو ضرورة استراتيجية. ومن خلال التركيز على الذكاء الاصطناعي المسؤول، لا تقوم الشركات بحماية نفسها من الغرامات الكبيرة فحسب، بل تعمل أيضًا على تعزيز مكانتها
ككيانات جديرة بالثقة وذات تفكير تقدمي في المشهد الرقمي سريع التطور. تعد الرحلة نحو الذكاء الاصطناعي المسؤول طريقًا صعبًا ولكنه لا غنى عنه ويعد بإعادة تعريف مستقبل التكنولوجيا والحوكمة والرفاهية المجتمعية.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة