شعار زيفيرنت

هل تضررت من قرار اتخذه منظمة العفو الدولية سيئة التدريب؟ يجب أن تكون قادرًا على رفع دعوى للحصول على تعويضات ، كما يقول أستاذ القانون

التاريخ:

يجب أن تكون الشركات التي تنشر أنظمة التعلم الآلي المدربة على مجموعات بيانات دون المستوى ملزمة قانونًا بدفع تعويضات للضحايا الذين تضرروا من التكنولوجيا بموجب قانون المسؤولية التقصيرية ، بحسب رأي أستاذ قانون.

في باقة محاضرة افتراضية الذي نظمته جامعة كاليفورنيا ، إيرفين ، وصف البروفيسور فرانك باسكوال ، من كلية الحقوق في بروكلين ، كيف ينبغي توسيع قوانين أمريكا لمساءلة شركات التعلم الآلي. واستند الحديث على مقال [PDF] نشرت في مجلة كولومبيا لو ريفيو.

قال البروفيسور باسكوال: "يمكن أن يكون للبيانات آثار سلبية هائلة ، وبالتالي أعتقد أنه يجب أن تكون هناك مسؤولية تقصيرية للعديد من الاستخدامات حيث توجد بيانات غير دقيقة أو غير ملائمة". ولكن لكي يتمكن الضحايا من بناء دعوى ضد البائعين الذين كانوا يدربون أنظمة الذكاء الاصطناعي بطريقة متهورة ، يجب أن تكون هناك طريقة ما للحصول على بيانات التدريب والتحقيق فيها.

طبيب

هل تريد أن تترك طبيبًا مدعومًا بالذكاء الاصطناعي يفقد المرضى؟ جرب لصق ملصق يشبه ملصق الطعام عليه ، كما يقول العم سام

اعرف المزيد

على سبيل المثال ، كما قال ، تُظهر النتائج الأولية من أبحاث التعلم الآلي أن التكنولوجيا واعدة في مجال الرعاية الصحية ، وهناك العديد من الدراسات التي تدعي أن الآلات جيدة ، إن لم تكن أفضل ، من المتخصصين في تشخيص أو توقع بداية نطاق من الأمراض.

ومع ذلك ، جادل البروفيسور باسكوال بأن البيانات المستخدمة في تدريب مثل هذه الأنظمة غالبًا ما تكون معيبة. يمكن أن تكون مجموعات البيانات ، على سبيل المثال ، غير متوازنة ، حيث لا تكون العينات متنوعة بما يكفي لتمثيل الأشخاص من مختلف الأعراق والأجناس. يتم ترحيل التحيزات في مجموعات البيانات في أداء هذه النماذج ؛ غالبًا ما تكون أقل دقة وأقل فاعلية بالنسبة للنساء أو الأشخاص ذوي البشرة الداكنة ، على سبيل المثال. في سيناريو الحالة الأسوأ ، يمكن تشخيص المرضى أو التغاضي عنهم عن طريق الخطأ.

يجب تمرير قوانين جديدة على مستوى الولاية أو المستوى الفيدرالي لإجبار الشركات على التحلي بالشفافية بشأن البيانات التي تم تدريب أنظمتها عليها ، وكيفية جمع هذه البيانات ، على حد قوله. بعد ذلك ، يجب على المنظمات الفيدرالية ، مثل إدارة الغذاء والدواء ، والمعهد الوطني للمعايير والتكنولوجيا ، ووزارة الصحة والخدمات الإنسانية ، أو مكتب الحقوق المدنية ، إطلاق جهود لتدقيق مجموعات البيانات لتحليل تحيزاتها وتأثيراتها المحتملة.

"مثل هذا التنظيم لا يوفر فقط إرشادات للصناعة لمساعدتها على تجنب الحوادث التي يمكن الوقاية منها وغيرها من الأضرار. كما أنه يساعد القضاة في تقييم معايير الرعاية لنشر التقنيات الناشئة "، كتب باسكوال في المقالة المذكورة أعلاه. وقال إن التنظيم لا ينبغي أن يعيق التقدم والابتكار في مجال الرعاية الصحية بالذكاء الاصطناعي.

واختتم حديثه قائلاً: "التطوير مثير حقًا ويجب الإشادة به في هذه المجالات ، لا أريد أن أفقد الصدارة ولكن [التكنولوجيا] لن تكون عادلة إلا إذا كان هناك قانون للضرر". ®

المصدر: https://go.theregister.com/feed/www.theregister.com/2021/02/09/legal_fines_ai/

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة