شعار زيفيرنت

تعال هنا لوائح منظمة العفو الدولية  

التاريخ:

يجري العمل على تطوير قوانين مقترحة جديدة لتنظيم الذكاء الاصطناعي في الولايات المتحدة وأوروبا ، مع اتباع الصين نهج الحكومة أولاً. (مصدر الصورة: Getty Images)  

بواسطة منظمة العفو الدولية الاتجاهات 

ستشكل القوانين الجديدة قريبًا كيفية استخدام الشركات للذكاء الاصطناعي.   

أصدرت أكبر خمس جهات تنظيم مالية فيدرالية في الولايات المتحدة مؤخرًا طلبًا للحصول على معلومات حول كيفية استخدام البنوك للذكاء الاصطناعي ، مما يشير إلى أن إرشادات جديدة قادمة للأعمال المالية. بعد ذلك بوقت قصير ، أصدرت لجنة التجارة الفيدرالية الأمريكية مجموعة من الإرشادات حول "الحقيقة والإنصاف والإنصاف" في الذكاء الاصطناعي ، حيث حددت الاستخدام غير القانوني للذكاء الاصطناعي بأنه أي فعل "يسبب ضررًا أكثر مما ينفع" ، وفقًا لحساب حديث في هارفارد بيزنس ريفيو  

وفي 21 أبريل ، أصدرت المفوضية الأوروبية اقتراحها الخاص لتنظيم الذكاء الاصطناعي (انظر اتجاهات الذكاء الاصطناعى22 أبريل 2021)  

أندرو بيرت ، الشريك الإداري ، bnh.ai

بينما لا نعرف ما الذي ستسمح به هذه اللوائح ، "ثلاثة توحد الاتجاهات المركزية جميع القوانين الحالية والمقترحة تقريبًا بشأن الذكاء الاصطناعي ، مما يعني أن هناك إجراءات ملموسة يمكن للشركات اتخاذها في الوقت الحالي لضمان عدم تعارض أنظمتها مع أي قوانين ولوائح حالية ومستقبلية "، كما ذكر كاتب المقال أندرو بيرت ، الشريك الإداري bnh.ai، شركة محاماة صغيرة تركز على الذكاء الاصطناعي والتحليلات.  

أولا، إجراء تقييمات لمخاطر الذكاء الاصطناعي. كجزء من هذا الجهد ، وثق كيف تم تقليل المخاطر أو حلها. تتوفر الأطر التنظيمية التي تشير إلى "تقييمات الأثر الحسابية" أو "IA for AI".  

على سبيل المثال ، فرجينيا مرت مؤخرا قانون حماية بيانات المستهلك، يتطلب تقييمات لأنواع معينة من الخوارزميات عالية الخطورة. 

يتطلب اقتراح الاتحاد الأوروبي الجديد استكمال وثيقة فنية من ثمانية أجزاء لأنظمة الذكاء الاصطناعي عالية المخاطر والتي تحدد "النتائج غير المقصودة ومصادر المخاطر المتوقعة" لكل نظام ذكاء اصطناعي ، كما يقول بيرت. مقترح الاتحاد الأوروبي مشابه لقانون المساءلة الخوارزمية المقدم إلى الكونجرس الأمريكي في عام 2019. لم يذهب مشروع القانون إلى أي مكان ولكن من المتوقع إعادة تقديمه.  

الثاني، المساءلة والاستقلال. هذا الاقتراح هو أن علماء البيانات والمحامين وغيرهم ممن يقيِّمون نظام الذكاء الاصطناعي لديهم حوافز مختلفة عن تلك التي يتمتع بها علماء البيانات في الخطوط الأمامية. قد يعني هذا أن الذكاء الاصطناعي يتم اختباره والتحقق من صحته من قبل موظفين تقنيين مختلفين عن أولئك الذين طوروه في الأصل ، أو قد تختار المنظمات توظيف خبراء خارجيين لتقييم نظام الذكاء الاصطناعي.   

يقول بيرت: "إن ضمان أن تؤدي العمليات الواضحة إلى استقلالية بين المطورين وأولئك الذين يقيِّمون أنظمة المخاطر هو عنصر أساسي في جميع الأطر التنظيمية الجديدة تقريبًا بشأن الذكاء الاصطناعي".  

الثالث، مراجعة مستمرة. أنظمة الذكاء الاصطناعي "هشة وخاضعة لمعدلات عالية من الفشل" ، مع وجود مخاطر تنمو وتتغير بمرور الوقت ، مما يجعل من الصعب تخفيف المخاطر في وقت واحد. صرح بيرت أن "المشرعين والمنظمين على حد سواء يرسلون رسالة مفادها أن إدارة المخاطر هي عملية مستمرة".  

تختلف الأساليب المتبعة في الولايات المتحدة وأوروبا والصين  

تختلف المقاربات بين الولايات المتحدة وأوروبا والصين تجاه تنظيم الذكاء الاصطناعي في نهجها ، وفقًا لتقرير حديث في الحكم، استنادًا إلى تحليل أجرته شركة Global Data ، وهي شركة استشارات وتحليلات البيانات ومقرها لندن. 

"تبدو أوروبا أكثر تفاؤلاً بشأن فوائد التنظيم ، بينما حذرت الولايات المتحدة من مخاطر الإفراط في التنظيم" ، كما جاء في الحساب. وفي الوقت نفسه ، "تواصل الصين اتباع نهج الحكومة أولاً" وقد تعرضت لانتقادات واسعة النطاق لاستخدامها تكنولوجيا الذكاء الاصطناعي لمراقبة المواطنين. أشار الحساب إلى أمثلة في طرح Tencent العام الماضي لنظام تسجيل الائتمان القائم على الذكاء الاصطناعي لتحديد "قيمة ثقة" الأشخاص ، وتركيب كاميرات مراقبة خارج منازل الأشخاص لمراقبة الحجر الصحي المفروض بعد انتشار COVID-19 . 

"وذكر الحساب ما إذا كانت جهود الولايات المتحدة التي تقودها صناعة التكنولوجيا ، أو نهج الحكومة الصينية أولاً ، أو نهج أوروبا المتعلق بالخصوصية والتنظيم هو أفضل طريقة للمضي قدمًا. 

في الولايات المتحدة ، تدرك العديد من الشركات مخاطر التنظيم الجديد للذكاء الاصطناعي الذي قد يخنق الابتكار وقدرتها على النمو في الاقتصاد الرقمي. تقرير حديث من بي دبليو سي ، شركة الخدمات المهنية متعددة الجنسيات.   

"من مصلحة الشركة معالجة المخاطر المتعلقة بالبيانات والحوكمة والمخرجات وإعداد التقارير والتعلم الآلي ونماذج الذكاء الاصطناعي ، قبل التنظيم "، كما يقول محللو pwc. وأوصوا قادة الأعمال بتجميع الأشخاص من جميع أنحاء المؤسسة للإشراف على المساءلة وحوكمة التكنولوجيا ، مع إشراف فريق متنوع يضم أعضاءً لديهم مهارات في مجال الأعمال وتكنولوجيا المعلومات والذكاء الاصطناعي.  

منتقدو قانون الذكاء الاصطناعي الأوروبي يشيرون إلى الكثير من المناطق الرمادية 

بينما يجادل البعض بأن قانون الذكاء الاصطناعي المقترح من المفوضية الأوروبية يترك الكثير من المنطقة الرمادية ، فإن رويأمل المفوضية الأوروبية أن يوفر قانون الذكاء الاصطناعي المقترح إرشادات للشركات التي ترغب في متابعة الذكاء الاصطناعي ، فضلاً عن درجة من اليقين القانوني   

تييري بريتون ، المفوض الأوروبي للسوق الداخلية

صرح تييري بريتون ، المفوض الأوروبي للسوق الداخلية ، في حساب في تشكرونش. يجب أن تكون تطبيقات الذكاء الاصطناعي "جديرة بالثقة وآمنة وغير تمييزية - وهذا أمر بالغ الأهمية - ولكن بالطبع نحتاج أيضًا إلى أن نكون قادرين على فهم كيفية عمل هذه التطبيقات بالضبط." 

"ما نحتاجه هو الحصول على التوجيه. خاصة في التكنولوجيا الجديدة ... نحن ، سنكون ، القارة الأولى التي سنقدم فيها إرشادات - سنقول "مرحبًا ، هذا أخضر ، هذا أخضر داكن ، ربما يكون هذا برتقالي قليلاً وهذا ممنوع" . الآن إذا كنت ترغب في استخدام تطبيقات الذكاء الاصطناعي ، فانتقل إلى أوروبا! ستعرف ما يجب فعله ، وستعرف كيفية القيام بذلك ، وسيكون لديك شركاء يفهمون جيدًا ، وبالمناسبة ، ستأتي أيضًا إلى القارة حيث سيكون لديك أكبر قدر من البيانات الصناعية التي تم إنشاؤها على هذا الكوكب على مدى السنوات العشر القادمة ". 

"تعال هناe- نظرًا لأن الذكاء الاصطناعي يتعلق بالبيانات - سنقدم لك الإرشادات. اقترح بريتون أيضًا أن تكون لدينا الأدوات اللازمة للقيام بذلك والبنية التحتية. 

كان رد الفعل الآخر هو أن اقتراح اللجنة يتضمن استثناءات واسعة للغاية ، مثل استخدام أجهزة إنفاذ القانون للمراقبة البيومترية عن بُعد بما في ذلك تقنية التعرف على الوجه ، وهي لا تذهب بعيدًا بما يكفي للتصدي لخطر التمييز. 

تضمنت ردود الفعل على اقتراح اللجنة الكثير من الانتقادات للإعفاءات الواسعة للغاية لاستخدام إنفاذ القانون للمراقبة البيومترية عن بُعد (مثل تقنية التعرف على الوجه) بالإضافة إلى مخاوف من أن التدابير الواردة في اللوائح للتصدي لمخاطر أنظمة الذكاء الاصطناعي التي تميّز لا تكاد تقترب. بعيدا بما فيه الكفاية. 

صرح غريف فيريس ، المسؤول القانوني والسياسي في Fair Trials ، المجرم العالمي هيئة الرقابة على العدالة ومقرها لندن. يجب أن يتضمن الإطار ضمانات وقيود صارمة لمنع التمييز وحماية الحق في محاكمة عادلة. يجب أن يشمل ذلك تقييد استخدام الأنظمة التي تحاول تحديد سمات الأشخاص والتنبؤ بخطر الإجرام ".  

لتحقيق ذلك ، اقترح ، "تحتاج مقترحات الاتحاد الأوروبي إلى تغييرات جذرية لمنع التمييز الشديد في نتائج العدالة الجنائية ، وحماية افتراض البراءة ، وضمان المساءلة الهادفة للذكاء الاصطناعي في العدالة الجنائية." 

اقرأ المقالات والمعلومات المصدر in هارفارد بيزنس ريفيو، في الحكم وفي تشكرونش. 

كوينسمارت. Beste Bitcoin-Börse في أوروبا
المصدر: https://www.aitrends.com/data-privacy-and-security/here-come-the-ai-regulations/

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة