يعمل قانون الذكاء الاصطناعي الأوروبي، رغم أنه لم يصبح قانونًا بعد، على دفع مستويات جديدة من الرقابة البشرية والامتثال التنظيمي للذكاء الاصطناعي (AI) داخل الاتحاد الأوروبي. على غرار اللائحة العامة لحماية البيانات (GDPR) فيما يتعلق بالخصوصية، فإن قانون الاتحاد الأوروبي للذكاء الاصطناعي لديه القدرة على تحديد مسار لوائح الذكاء الاصطناعي القادمة في جميع أنحاء العالم.
توصل البرلمان الأوروبي إلى اتفاق مؤقت بشأن قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي في ديسمبر 2023، وهو الآن يشق طريقه عبر المراحل النهائية من العملية التشريعية ومن المتوقع أن يتم طرحه على مراحل في النصف الثاني من عام 2024. فهم أحكام الاتحاد الأوروبي يعد قانون الذكاء الاصطناعي والاستعداد للامتثال أمرًا ضروريًا لأي منظمة تقوم بتطوير الذكاء الاصطناعي أو نشره أو استخدامه - أو تخطط لذلك.
ويهدف قانون الذكاء الاصطناعي إلى "تعزيز مكانة أوروبا كمركز عالمي للتميز في الذكاء الاصطناعي من المختبر إلى السوق، والتأكد من أن الذكاء الاصطناعي في أوروبا يحترم القيم والقواعد المحددة، وتسخير إمكانات الذكاء الاصطناعي للاستخدام الصناعي". أخبار البرلمان الأوروبي
قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي باختصار
ينصب التركيز الأساسي لقانون الذكاء الاصطناعي للاتحاد الأوروبي على تعزيز الامتثال التنظيمي في مجالات إدارة المخاطر وحماية البيانات وأنظمة إدارة الجودة والشفافية والرقابة البشرية والدقة والمتانة والأمن السيبراني. ويهدف إلى تعزيز الشفافية والمساءلة في كيفية تطوير ونشر أنظمة الذكاء الاصطناعي، مما يساعد على ضمان أن منتجات الذكاء الاصطناعي المطروحة في السوق آمنة لاستخدام الأفراد.
ويهدف قانون الاتحاد الأوروبي للذكاء الاصطناعي إلى مواجهة التحدي المتمثل في تطوير ونشر الذكاء الاصطناعي بشكل مسؤول عبر الصناعات بما في ذلك تلك التي تخضع لتنظيم كبير مثل الرعاية الصحية والتمويل والطاقة. بالنسبة للصناعات التي تقدم الخدمات الأساسية للعملاء مثل التأمين والخدمات المصرفية وتجارة التجزئة، يتطلب القانون استخدام تقييم تأثير الحقوق الأساسية الذي يوضح بالتفصيل كيفية تأثير استخدام الذكاء الاصطناعي على حقوق العملاء.
حجر الزاوية في قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي: الضمانات اللازمة لمنع المخاطر غير المقبولة
يتطلب قانون الذكاء الاصطناعي للاتحاد الأوروبي أن تلتزم نماذج الذكاء الاصطناعي للأغراض العامة، بما في ذلك أنظمة الذكاء الاصطناعي التوليدية مثل اللغات الكبيرة (LLMs) والنماذج الأساسية، بنظام تصنيف يعتمد على مستويات المخاطر المنهجية. تتطلب مستويات المخاطر الأعلى متطلبات شفافية أكبر بما في ذلك تقييم النماذج والتوثيق وإعداد التقارير. كما أنها تنطوي على تقييم وتخفيف مخاطر النظام، والإبلاغ عن الحوادث الخطيرة وتوفير الحماية ضد الأمن السيبراني. بالإضافة إلى ذلك، تتضمن متطلبات الشفافية هذه صيانة الوثائق الفنية المحدثة، وتقديم ملخص للمحتوى المستخدم للتدريب النموذجي، والامتثال لقوانين حقوق الطبع والنشر الأوروبية.
يتبع قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي نهجًا قائمًا على المخاطر، وذلك باستخدام طبقات لتصنيف مستوى المخاطر التي تشكلها أنظمة الذكاء الاصطناعي على صحة الفرد أو سلامته أو حقوقه الأساسية. الطبقات الثلاث هي:
- أنظمة منخفضة المخاطر مثل مرشحات البريد العشوائي أو ألعاب الفيديو، لها متطلبات قليلة بموجب القانون بخلاف التزامات الشفافية.
- أنظمة الذكاء الاصطناعي عالية المخاطر مثل المركبات ذاتية القيادة والأجهزة الطبية والبنية التحتية الحيوية (المياه والغاز والكهرباء وما إلى ذلك) تتطلب من المطورين والمستخدمين الالتزام بالمتطلبات التنظيمية الإضافية:
- تنفيذ إدارة المخاطر، وتوفير الدقة والقوة وإطار المساءلة الذي يشمل الرقابة البشرية
- تلبية متطلبات الشفافية المقدمة للمستخدمين وحفظ السجلات والوثائق الفنية
- الأنظمة المحظورة مع استثناءات قليلة هي أنظمة تشكل مخاطر غير مقبولة مثل التسجيل الاجتماعي، والتعرف على الوجه، والتعرف على المشاعر، وأنظمة تحديد الهوية البيومترية عن بعد في الأماكن العامة.
يفرض قانون الاتحاد الأوروبي للذكاء الاصطناعي أيضًا قواعد تتعلق بكيفية إخطار العملاء عند استخدام روبوت الدردشة أو عند استخدام نظام التعرف على المشاعر. هناك متطلبات إضافية لتصنيف المنتجات المزيفة العميقة وتحديد متى يتم استخدام محتوى الذكاء الاصطناعي التوليدي في الوسائط.
قد يكون عدم الامتثال لقانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي مكلفًا:
7.5 مليون يورو أو 1.5% من إجمالي المبيعات السنوية للشركة في جميع أنحاء العالم (أيهما أعلى) مقابل تقديم معلومات غير صحيحة. 15 مليون يورو أو 3% من إجمالي مبيعات الشركة السنوية في جميع أنحاء العالم (أيهما أعلى) بسبب انتهاك التزامات قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي. ديسمبر 19،
يعد قانون الذكاء الاصطناعي الأوروبي حاليًا الإطار القانوني الأكثر شمولاً للوائح الذكاء الاصطناعي. تأخذ الحكومات في جميع أنحاء العالم علمًا وتناقش بشكل نشط كيفية تنظيم تكنولوجيا الذكاء الاصطناعي لضمان حماية مواطنيها وشركاتها ووكالاتها الحكومية من المخاطر المحتملة. بالإضافة إلى ذلك، يعطي أصحاب المصلحة، بدءًا من مجالس إدارة الشركات إلى المستهلكين، الأولوية للثقة والشفافية والعدالة والمساءلة عندما يتعلق الأمر بالذكاء الاصطناعي.
الاستعداد للوائح القادمة مع IBM
يعمل IBM watsonx.governance على تسريع مسارات عمل الذكاء الاصطناعي المسؤولة والشفافة والقابلة للتفسير
يعمل IBM® watsonx.governance™ على تسريع حوكمة الذكاء الاصطناعي، وتوجيه وإدارة ومراقبة أنشطة الذكاء الاصطناعي الخاصة بمؤسستك. وهي تستخدم أتمتة البرامج لتعزيز القدرة على تخفيف المخاطر وإدارة المتطلبات التنظيمية وإدارة دورة الحياة لكل من نماذج الذكاء الاصطناعي والتعلم الآلي التنبؤي (ML).
يعمل Watsonx.governance على تعزيز شفافية النموذج وقابلية الشرح والتوثيق في ثلاثة مجالات رئيسية:
- التنظيمية الالتزام -إدارة الذكاء الاصطناعي لتلبية لوائح وسياسات ومعايير السلامة والشفافية القادمة في جميع أنحاء العالم. أتمتة تحديد التغيير التنظيمي للمتطلبات المعمول بها، وربط البيانات التنظيمية بضوابط وسياسات المخاطر الرئيسية، واستخدام أوراق الحقائق لأتمتة عملية التقاط بيانات التعريف النموذجية والإبلاغ عنها لدعم الاستفسارات وعمليات التدقيق.
- إدارة المخاطر - تحديد عتبات المخاطر مسبقًا، والكشف بشكل استباقي عن مخاطر نماذج الذكاء الاصطناعي والتخفيف منها. مراقبة العدالة والانجراف والتحيز ومقاييس الذكاء الاصطناعي التوليدية الجديدة. احصل على رؤى حول حالة المخاطر عبر مؤسستك باستخدام لوحات المعلومات والتقارير القائمة على الاستخدام. دمج جميع بيانات المخاطر، وتقييمات المخاطر/الرقابة، وأحداث الخسارة الداخلية والخارجية، ومؤشرات المخاطر الرئيسية وإدارة المشكلات/خطة العمل - ضمن بيئة واحدة.
- حوكمة دورة الحياة - حوكمة دورة الحياة – تحكم كلاً من نماذج الذكاء الاصطناعي والتعلم الآلي التنبؤية عبر دورة الحياة باستخدام مسارات العمل/الموافقات المتكاملة والتنبيهات المحددة مسبقًا ولوحات المعلومات والتقارير القابلة للتخصيص. مراقبة المقاييس وحالة حالات الاستخدام وطلبات التغيير قيد التشغيل والتحديات والمشكلات والمهام المعينة.
"افتح الصندوق الأسود" باستخدام حوكمة الذكاء الاصطناعي
هل كان المقال مساعدا؟!
نعملا
المزيد من الذكاء الاصطناعي
نشرات آي بي إم الإخبارية
احصل على رسائلنا الإخبارية وتحديثات المواضيع التي تقدم أحدث القيادة الفكرية والرؤى حول الاتجاهات الناشئة.
اشترك الآن
المزيد من الرسائل الإخبارية
- محتوى مدعوم من تحسين محركات البحث وتوزيع العلاقات العامة. تضخيم اليوم.
- PlatoData.Network Vertical Generative Ai. تمكين نفسك. الوصول هنا.
- أفلاطونايستريم. ذكاء Web3. تضخيم المعرفة. الوصول هنا.
- أفلاطون كربون، كلينتك ، الطاقة، بيئة، شمسي، إدارة المخلفات. الوصول هنا.
- أفلاطون هيلث. التكنولوجيا الحيوية وذكاء التجارب السريرية. الوصول هنا.
- المصدر https://www.ibm.com/blog/eu-ai-act/