شعار زيفيرنت

الخبراء يحذرون من الانقراض من الذكاء الاصطناعي إذا لم يتم اتخاذ إجراء الآن

التاريخ:

هناك خطاب مفتوح آخر مقنع حول قيام الذكاء الاصطناعي بجولات. هذه المرة ، وقعت مجموعة واسعة من قادة التكنولوجيا ، ونجوم ML ، وحتى عدد قليل من المشاهير لحث العالم على أخذ التهديدات المزعومة على مستوى الانقراض التي يشكلها الذكاء الاصطناعي على محمل الجد. 

بيان أكثر ملاءمة ، رسالة من مركز أمان الذكاء الاصطناعي (CAIS) موقعة من أفراد مثل رواد الذكاء الاصطناعي جيفري هينتونوسام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، ومعلم التشفير مارتن هيلمان ، وكيفن سكوت CTO في Microsoft ، وآخرون جملة تصريحية واحدة توقع نهاية العالم إذا ذهبت أدراج الرياح:

"يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية." 

لماذا باختصار؟ كان الهدف هو "إظهار التحالف الواسع والمتنامي لعلماء الذكاء الاصطناعي وقادة التكنولوجيا والأساتذة المهتمين بمخاطر انقراض الذكاء الاصطناعي. نحن بحاجة إلى اعتراف واسع النطاق بالمخاطر حتى نتمكن من إجراء مناقشات سياسية مفيدة ، "قال مدير CAIS ، دان هندريكس السجل.

لا يشير CAIS إلى الذكاء العام الاصطناعي (AGI) في نطاقه قائمة مخاطر الذكاء الاصطناعي، نلاحظ. أخبرنا هندريكس أن نماذج الجيل الحالي ، مثل ChatGPT ، لا تمثل تهديدًا رهيبًا للبشرية. التحذير هذا الأسبوع حول ما قد يأتي بعد ذلك.

ورأى هندريكس أن "أنواع التهديدات الكارثية التي يشير إليها هذا البيان مرتبطة بأنظمة الذكاء الاصطناعي المتقدمة في المستقبل". وأضاف أن التطورات الضرورية اللازمة للوصول إلى مستوى "التهديد المروع" قد تكون على بعد أقل من سنتين إلى 10 سنوات ، وليس عدة عقود. "نحن بحاجة للاستعداد الآن. ومع ذلك ، فإن أنظمة الذكاء الاصطناعي التي يمكن أن تسبب نتائج كارثية لا تحتاج إلى أن تكون ذكاء اصطناعيًا. 

لأن البشر مسالمون تمامًا على أي حال

واحد مثل التهديد هو تسليح ، أو فكرة أنه يمكن لشخص ما إعادة توظيف الذكاء الاصطناعي الخيري ليكون مدمرًا للغاية ، مثل استخدام روبوت اكتشاف المخدرات لتطوير أسلحة كيميائية أو بيولوجية ، أو استخدام التعلم المعزز للقتال الآلي. ومع ذلك ، فإن البشر قادرون بالفعل على تصنيع هذه الأنواع من الأسلحة ، والتي يمكن أن تقضي على شخص أو حي أو مدينة أو بلد.

يمكن أيضًا تدريب الذكاء الاصطناعي على متابعة أهدافه دون اعتبار للقيم الفردية أو المجتمعية ، كما حذرنا. يمكن أن "يضعف" البشر الذين ينتهي بهم الأمر بالتنازل عن المهارات والقدرات للآلات الآلية ، مما يتسبب في اختلال توازن الطاقة بين أدوات التحكم في الذكاء الاصطناعي وتلك التي تم استبدالها بواسطة الأتمتة ، أو استخدامها لنشر معلومات مضللة ، عمدًا أو وإلا.

مرة أخرى ، لا يجب أن يكون أي من الذكاء الاصطناعي المتورط في ذلك عامًا ، وليس من المبالغة أن نرى إمكانات الجيل الحالي من الذكاء الاصطناعي للتطور لتشكيل أنواع المخاطر التي يثير قلق CAIS. قد يكون لديك آرائك الخاصة حول مدى قدرة البرنامج أو مدى قدرته على التدمير ، وما يمكن أن يحققه بالفعل.

يذهب حجة CAIS إلى أنه من الأهمية بمكان فحص ومعالجة الآثار السلبية للذكاء الاصطناعي التي يتم الشعور بها بالفعل ، وتحويل هذه التأثيرات الموجودة إلى بصيرة. "بينما نكافح مع المخاطر الفورية للذكاء الاصطناعي ... يجب على صناعة الذكاء الاصطناعي والحكومات في جميع أنحاء العالم أيضًا أن تواجه بجدية خطر أن تشكل الذكاء الاصطناعي في المستقبل تهديدًا للوجود البشري" ، قال هندريكس محمد بالوضع الحالي.

لقد تعاون العالم بنجاح للتخفيف من المخاطر المتعلقة بالحرب النووية. وحث Hendrycks على نفس المستوى من الجهد لمواجهة المخاطر التي تشكلها أنظمة الذكاء الاصطناعي المستقبلية ، مع قائمة من قادة الشركات والأكاديميين والفكر الذين يدعمونه. 

المسك ليس على متن الطائرة

ومن الموقعين الآخرين على Google DeepMind العالم الرئيسي إيان جودفيلو ، والفلاسفة ديفيد تشالمرز ودانيال دينيت ، المؤلف والمدون سام هاريس والموسيقي / إيلون ماسك السابق ، غرايمز. بالحديث عن الرجل نفسه ، توقيع ماسك غائب. 

الرئيس التنفيذي لشركة Twitter وكان من بين أولئك الذين وقعوا على رسالة مفتوحة نشرته مؤسسة Future of Life Institute في مارس الماضي تحث أ وقفة ستة أشهر على تدريب أنظمة الذكاء الاصطناعي "أقوى من GPT-4". مما لا يثير الدهشة ، كان توقيع ألتمان ، الرئيس التنفيذي لشركة OpenAI ، غائبًا عن أن خطاب معين ، ظاهريًا لأنه دعا شركته مباشرة. 

أصدرت OpenAI منذ ذلك الحين تحذيراتها الخاصة حول التهديدات التي يشكلها الذكاء الاصطناعي المتقدم ودعوا إلى إنشاء هيئة رقابة عالمية شبيهة بالوكالة الدولية للطاقة الذرية لتنظيم استخدام الذكاء الاصطناعي.

جاءت تلك الدعوة التحذيرية والتنظيمية ، في حالة التوقيت السيئ تاريخياً ، في نفس اليوم الذي جاء فيه ألتمان هدد لسحب OpenAI و ChatGPT معها ، من الاتحاد الأوروبي عبر الكتلة قانون AI. القواعد التي يدعمها هي شيء واحد ، لكن ألتمان أخبر بروكسل أن فكرتهم عن تقييد الذكاء الاصطناعي كانت بمثابة جسر تنظيمي بعيدًا جدًا ، شكرًا جزيلاً لك. 

برلمانيو الاتحاد الأوروبي استجاب بالقول إن شركة OpenAI لن تمليها عليها ، وأنه إذا لم تستطع الشركة الامتثال لقواعد الحوكمة والشفافية الأساسية ، فإن "أنظمتها غير مناسبة للسوق الأوروبية" ، كما أكد النائب الهولندي كيم فان سبارنتاك. 

لقد طلبنا من OpenAI توضيحًا بشأن موقف (مواقف) Altman وسنقوم بتحديث هذه القصة إذا سمعنا مرة أخرى. ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟