شعار زيفيرنت

أوبن إيه آي تثير مخاوف بشأن لوائح الاتحاد الأوروبي للذكاء الاصطناعي وتهدد بوقف العمل في أوروبا

التاريخ:

أوبن إيه آي تهدد بوقف العمل في أوروبا | قانون AI

أعربت شركة OpenAI ، شركة الذكاء الاصطناعي الشهيرة وراء ChatGPT ، عن مخاوفها بشأن قانون الذكاء الاصطناعي الذي اقترحه الاتحاد الأوروبي. خلال زيارة قام بها مؤخرًا إلى لندن ، أعرب الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، عن مخاوفه وهدد بوقف العمل في أوروبا. علاوة على ذلك ، حذر من أنه إذا أصبح الامتثال للوائح غير مقبول ، فقد تضطر الشركة إلى سحب خدماتها من الاتحاد الأوروبي. مع الآثار المحتملة لعمليات OpenAI في أوروبا ، أثار هذا التطور جدلاً واهتمامًا كبيرين. دعنا نتعمق في تفاصيل قانون الاتحاد الأوروبي للذكاء الاصطناعي ونستكشف العواقب المحتملة لموقف OpenAI.اقرأ أيضا: الرئيس التنفيذي لشركة OpenAI يحث المشرعين على تنظيم الذكاء الاصطناعي مع مراعاة مخاطر الذكاء الاصطناعي

قانون الذكاء الاصطناعي المقترح من الاتحاد الأوروبي وأهدافه

قانون الذكاء الاصطناعي المقترح من الاتحاد الأوروبي وأهدافه | أوبن إيه آي | سام التمان

شرع الاتحاد الأوروبي في مبادرة رائدة من خلال قانون الذكاء الاصطناعي المقترح. لقد تم الترحيب به باعتباره أول تشريع تنظيمي أولي يتعلق بالذكاء الاصطناعي في جميع أنحاء العالم. يركز القانون بشكل أساسي على تنظيم أنظمة الذكاء الاصطناعي وحماية المواطنين الأوروبيين من المخاطر المحتملة المتعلقة بالذكاء الاصطناعي. أظهر البرلمان الأوروبي بالفعل دعمًا ساحقًا من خلال التصويت على اعتماد قانون الذكاء الاصطناعي ، مع تحديد تاريخ مبدئي لاعتماده في 14 يونيو.اقرأ أيضا: البيت الأبيض يدعو أباطرة التكنولوجيا إلى الاجتماع لمواجهة تهديد الذكاء الاصطناعي

فئات المخاطر الثلاثة التي حددها قانون الذكاء الاصطناعي

لمعالجة درجات متفاوتة من المخاطر المرتبطة بأنظمة الذكاء الاصطناعي ، يقترح قانون الذكاء الاصطناعي تصنيفًا إلى ثلاث فئات متميزة:

فئات المخاطر الثلاثة التي حددها قانون الذكاء الاصطناعي | الاتحاد الأوروبي | أوبن إيه آي تهدد بوقف العمل في أوروبا

أ- فئة المخاطر الأعلى:

يحظر قانون الذكاء الاصطناعي صراحةً استخدام أنظمة الذكاء الاصطناعي التي تشكل خطرًا غير مقبول ، مثل تلك التي تشبه أنظمة التسجيل الاجتماعي التي تديرها الحكومة والتي لوحظت في الصين. تهدف هذه المحظورات إلى الحفاظ على الخصوصية الفردية ، ومنع التمييز المحتمل ، والحماية من العواقب الاجتماعية الضارة.

الفئة الثانية تتعلق بأنظمة الذكاء الاصطناعي الخاضعة لمتطلبات قانونية محددة. أحد الأمثلة المذكورة في القانون هو استخدام أنظمة الذكاء الاصطناعي مسح السير الذاتية وترتيب المتقدمين للوظيفة. يعتزم الاتحاد الأوروبي ضمان العدالة والشفافية في ممارسات التوظيف التي يحركها الذكاء الاصطناعي من خلال فرض التزامات قانونية.

ج- الفئة غير المنظمة إلى حد كبير:

تندرج أنظمة الذكاء الاصطناعي غير المحظورة صراحة أو المدرجة على أنها عالية المخاطر ضمن هذه الفئة ، مما يعني أنها ستظل غير منظمة إلى حد كبير. يسمح هذا النهج بالمرونة مع ترك مجال للابتكار والتطوير في تقنيات الذكاء الاصطناعي.اقرأ أيضا: أوروبا تنظر في حظر روبوتات الدردشة للذكاء الاصطناعي بعد الحظر الإيطالي لـ ChatGPT

مناشدات شركات التكنولوجيا للحذر والتوازن

مناشدات الشركات التقنية للحذر والتوازن | قانون الذكاء الاصطناعي | أوبن إيه آي تهدد بوقف العمل في أوروبا

ناشدت العديد من شركات التكنولوجيا الأمريكية ، بما في ذلك OpenAI و Google ، بروكسل من أجل اتباع نهج أكثر توازناً لتنظيم الذكاء الاصطناعي. وهم يجادلون بأن على أوروبا تخصيص الوقت الكافي لدراسة وفهم تعقيدات التكنولوجيا ، وتحقيق التوازن الفعال بين الفرص والمخاطر. سوندار بيتشاي ، الرئيس التنفيذي لشركة Google، التقى مؤخرًا بمسؤولين رئيسيين في الاتحاد الأوروبي لمناقشة سياسة الذكاء الاصطناعي ، مع التأكيد على أهمية اللوائح التي تشجع الابتكار دون خنق التقدم.

خلال زيارته إلى لندن ، أعرب سام ألتمان عن مخاوف شديدة بشأن قدرة شركة أوبن إيه آي على الامتثال لأحكام قانون الذكاء الاصطناعي. بينما أقر ألتمان نية الشركة في الامتثال ، ذكر أنه إذا أصبح الامتثال مستحيلاً ، فلن يكون أمام شركة OpenAI أي خيار سوى وقف العمليات في أوروبا. ومن المثير للاهتمام ، أن سام التمان دعا أيضًا إلى إنشاء وكالة حكومية للإشراف على مشاريع الذكاء الاصطناعي على نطاق واسع. ويعتقد أن مثل هذه الوكالة يجب أن تمنح تراخيص لشركات الذكاء الاصطناعي ولديها سلطة إلغاءها في حالة انتهاك قواعد السلامة.اقرأ أيضا: يكتب قادة OpenAI عن مخاطر الذكاء الاصطناعي ، ويقترحون طرقًا للحكم

اعتبارات الشفافية والسلامة

قانون الذكاء الاصطناعي | الاتحاد الأوروبي | سام التمان | أوبن إيه آي تهدد بوقف العمل في أوروبا

واجهت شركة OpenAI انتقادات بسبب افتقارها إلى الشفافية فيما يتعلق بنماذج الذكاء الاصطناعي الخاصة بها. الإصدار الأخير من GPT-4 تسبب في خيبة أمل داخل مجتمع الذكاء الاصطناعي بسبب عدم وجود معلومات حول بيانات التدريب والتكلفة وعملية الإنشاء. إيليا سوتسكيفر ، أحد مؤسسي شركة OpenAI وكبير علماءها، دافع عن هذا الموقف من خلال الاستشهاد بالمنافسة ومخاوف السلامة. شدد Sutskever على الجهد التعاوني والوقت المطلوبين لتطوير نماذج الذكاء الاصطناعي. علاوة على ذلك ، أشار إلى أن السلامة ستصبح أكثر أهمية.

قلنا

As احتدام الجدل الدائر حول لوائح الذكاء الاصطناعي ، وتهدد شركة OpenAI بالتوقف عن العمل في أوروبا لأن قانون الذكاء الاصطناعي في الاتحاد الأوروبي قد أثار اهتمامًا كبيرًا. يهدف التشريع المقترح إلى تحقيق التوازن بين التنظيم والابتكار. وبالتالي ، فإن ضمان ألا تشكل أنظمة الذكاء الاصطناعي مخاطر لا داعي لها مع إتاحة مجال للتقدم. تسلط مخاوف OpenAI الضوء على التحديات التي تواجهها الشركات عند التنقل في الأطر التنظيمية المعقدة. مع اقتراب اعتماد قانون الذكاء الاصطناعي ، ستستمر المناقشات حول مستقبل تنظيم الذكاء الاصطناعي بلا شك في جذب انتباه مجتمع التكنولوجيا وصانعي السياسات على حد سواء.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟