شعار زيفيرنت

قرار اليابان يغذي النقاش حول قوانين الذكاء الاصطناعي وحقوق النشر

التاريخ:

قال مسؤول كبير في الاتحاد الأوروبي يوم الأربعاء إن الاتحاد الأوروبي والولايات المتحدة يتوقعان صياغة مدونة سلوك طوعية بشأن الذكاء الاصطناعي في غضون أسابيع. تأتي هذه الخطوة وسط مخاوف بشأن المخاطر المحتملة للذكاء الاصطناعي على البشرية ، ومع تكثيف الدعوات إلى التنظيم.

قالت نائبة رئيس المفوضية الأوروبية ، مارجريت فيستاجر ، إنه يتعين على الولايات المتحدة والاتحاد الأوروبي تعزيز مدونة سلوك طوعية للذكاء الاصطناعي لتوفير الضمانات أثناء تطوير تشريعات جديدة.

كانت تتحدث في اجتماع لمجلس التجارة والتكنولوجيا بين الاتحاد الأوروبي والولايات المتحدة (TTC) ، والذي يقوده بشكل مشترك مسؤولون أمريكيون وأوروبيون. وقالت إن أي قواعد جديدة بشأن الذكاء الاصطناعي لن تصبح سارية المفعول إلا بعد ثلاث سنوات على الأقل. لذلك ، من المتوقع أن يسد القانون هذه الفجوة.

اقرأ أيضا: رئيس مكافحة الاحتكار بالاتحاد الأوروبي يصعد من خطابه بشأن تنظيم Metaverse والذكاء الاصطناعي

تكنولوجيا الذكاء الاصطناعي التي تغير قواعد اللعبة

نحن بحاجة إلى ذكاء اصطناعي خاضع للمساءلة. قال فيستاجر بعد اجتماع المجلس في السويد ، أسوشيتد برس وذكرت.

"يعلم الجميع أن هذا هو الشيء القوي التالي. لذا في غضون الأسابيع المقبلة ، سنقدم مسودة لقواعد السلوك الخاصة بالذكاء الاصطناعي ".

وقالت إن المسؤولين سيجمعون التعليقات من الشركات التي تطور الذكاء الاصطناعي وتستخدمه ، والجهات الفاعلة الأخرى في الصناعة. يأمل Vestager في أن يكون هناك اقتراح نهائي "قريبًا جدًا ، تلتزم الصناعة بالالتزام به طوعًا".

قال وزير الخارجية الأمريكية أنتوني بلينكين إنه أجرى مناقشة "مكثفة ومثمرة" حول الذكاء الاصطناعي مع نظرائه الأوروبيين في منتدى TTC.

قال بلينكين: "[للمجلس] دور مهم يلعبه في المساعدة على وضع قواعد سلوك طوعية تكون مفتوحة لجميع الدول ذات التفكير المماثل".

يمكن للذكاء الاصطناعي إنهاء الجنس البشري

أثار تطوير الذكاء الاصطناعي مخاوف بشأن إمكانية استخدامه لأغراض ضارة ، مثل التمييز والمراقبة والحرب النووية. كانت هناك أيضًا مخاوف بشأن قدرة الذكاء الاصطناعي على خلق بطالة جماعية.

كما MetaNews سابقا وذكرت، إحدى القضايا الأساسية هي ما وصفه الخبراء بـ "مشكلة التوافق". بشكل أساسي ، تشير المشكلة إلى صعوبة التأكد من أن أهداف نظام الذكاء الاصطناعي وأهدافه تتماشى مع أهداف وغايات المبدعين البشر.

يقول النقاد إن الخطر يكمن في أن نظام الذكاء الاصطناعي قد يطور أهدافه وغاياته التي تتعارض مع أهداف وغايات منشئيها ، مما يؤدي إلى نتائج كارثية. وقع حوالي 350 عالمًا وخبيرًا يوم الثلاثاء بيان الدعوة إلى أن يكون تنظيم الذكاء الاصطناعي أولوية عالمية.

وذكر البيان أن "التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".

البيان من مركز أمان الذكاء الاصطناعي غير الربحي ومقره سان فرانسيسكو. تم التوقيع عليه من قبل الرؤساء التنفيذيين من Google DeepMind و ChatGPT منشئو OpenAI ، إلى جانب شخصيات رئيسية أخرى في أبحاث الذكاء الاصطناعي.

في مايو ، اجتمع قادة ما يسمى بـ G7 في اليابان ودعوا إلى تطوير معايير تقنية للحفاظ على الذكاء الاصطناعي "جديرًا بالثقة". وحثوا على إجراء حوار دولي حول حوكمة الذكاء الاصطناعي وحقوق النشر والشفافية وخطر التضليل الإعلامي.

وفقًا Vestager، هناك حاجة إلى اتفاقيات محددة ، وليس مجرد بيانات عامة. واقترحت أن يساعد الاتحاد الأوروبي والولايات المتحدة المكون من 27 دولة في دفع العملية.

وقالت: "إذا تولى اثنان منا زمام المبادرة مع الأصدقاء المقربين ، أعتقد أنه يمكننا دفع شيء يجعلنا جميعًا أكثر ارتياحًا لحقيقة أن الذكاء الاصطناعي التوليدي موجود الآن في العالم ويتطور بسرعات مذهلة".

قلق في جميع أنحاء العالم

الولايات المتحدة والاتحاد الأوروبي ليسا الوحيدين العاملين على تنظيم الذكاء الاصطناعي. أصدرت إدارة الفضاء الإلكتروني الصينية بالفعل لوائح جديدة تحظر استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لنشر "أخبار وهمية".

في أستراليا ، قال وزير الصناعة والعلوم إد هوسيك إن اللوائح ستصدر قريبًا.

قال ، "هناك نوع من الشعور في المجتمع أنهم يريدون الحصول على التأكيد ... أن التكنولوجيا لا تتقدم بنفسها ولا يتم استخدامها بطريقة تؤدي إلى الإجحاف أو المخاطرة للناس" ، بالنسبة الى لتقارير وسائل الإعلام المحلية.

"لهذا السبب تريد [الحكومة الفيدرالية] إجراء الإصلاحات التالية التي يمكن أن تمنح الناس الثقة بأننا نكبح المخاطر ونزيد الفوائد إلى أقصى حد."

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة