شعار زيفيرنت

منظمة غير ربحية تبني موقعًا لتتبع حوادث الذكاء الاصطناعي المتزايدة

التاريخ:

المقابلة الشخصية خطأ صور من دونالد ترامب المدعوم من الناخبين السود المزيفين، وطلاب المدارس المتوسطة الذين يصنعون صورًا إباحية عميقة لزملائهم في الفصل، وبرنامج الدردشة Gemini من Google الفشل لتوليد صور للأشخاص البيض بدقة.

هذه بعض من أحدث الكوارث المدرجة في القائمة قاعدة بيانات حوادث الذكاء الاصطناعي – موقع ويب يراقب جميع الطرق المختلفة التي تسوء بها التكنولوجيا.

تم إطلاق قاعدة بيانات حوادث الذكاء الاصطناعي في البداية كمشروع تحت رعاية الشراكة بشأن الذكاء الاصطناعي، وهي مجموعة تحاول التأكد من أن الذكاء الاصطناعي يفيد المجتمع، وأصبحت الآن منظمة غير ربحية تمولها مختبرات أندررايترز - وهي أكبر وأقدم مؤسسة مستقلة (تأسست عام 1894). مختبر الاختبار في الولايات المتحدة. وهي تختبر جميع أنواع المنتجات - من الأثاث إلى فأرة الكمبيوتر - وقد قام موقعها الإلكتروني بفهرسة أكثر من 600 حادث فريد من نوعه يتعلق بالأتمتة والذكاء الاصطناعي حتى الآن.

قال باتريك هول، الأستاذ المساعد في كلية إدارة الأعمال بجامعة جورج واشنطن، والذي يعمل حاليًا في مجلس إدارة قاعدة بيانات حوادث الذكاء الاصطناعي: "هناك عدم تناسق كبير في المعلومات بين صانعي أنظمة الذكاء الاصطناعي والمستهلكين العامين - وهذا ليس عدلاً". . أخبر السجل: "نحن بحاجة إلى مزيد من الشفافية، ونشعر أن مهمتنا هي فقط مشاركة تلك المعلومات."

تم تصميم قاعدة بيانات حوادث الذكاء الاصطناعي على غرار برنامج مكافحة التطرف العنيف الذي أنشأته المؤسسة غير الربحية ميتري، أو الإدارة الوطنية لسلامة النقل على الطرق السريعة كشفت تقارير موقع الويب علنًا عن نقاط ضعف في الأمن السيبراني وحوادث المركبات. "في أي وقت يقع فيه حادث تحطم طائرة، أو حادث قطار، أو حادث كبير يتعلق بالأمن السيبراني، أصبح من الممارسات الشائعة على مدى عقود تسجيل ما حدث حتى نتمكن من محاولة فهم الخطأ الذي حدث ومن ثم عدم تكراره."

تتم إدارة الموقع حاليًا من قبل حوالي عشرة أشخاص، بالإضافة إلى عدد قليل من المتطوعين والمقاولين الذين يقومون بمراجعة ونشر الحوادث المتعلقة بالذكاء الاصطناعي عبر الإنترنت. هيذر فريز، زميلة بارزة في جامعة جورجتاون مركز الأمن والتكنولوجيا الناشئة ركز على تقييم الذكاء الاصطناعي ومدير قاعدة بيانات حوادث الذكاء الاصطناعي، وادعى أن الموقع فريد من نوعه من حيث أنه يركز على التأثيرات الواقعية الناجمة عن مخاطر وأضرار الذكاء الاصطناعي - وليس فقط نقاط الضعف والأخطاء في البرامج.

تقوم المنظمة حاليًا بجمع الحوادث من التغطية الإعلامية ومراجعة المشكلات التي أبلغ عنها الأشخاص على تويتر. سجلت قاعدة بيانات حوادث الذكاء الاصطناعي 250 حادثة فريدة قبل إصدار ChatGPT في نوفمبر 2022، وهي تدرج الآن أكثر من 600 حادثة فريدة.

إن مراقبة مشاكل الذكاء الاصطناعي بمرور الوقت تكشف عن اتجاهات مثيرة للاهتمام، وقد تسمح للناس بفهم الأضرار الحقيقية الحالية للتكنولوجيا.

كشفت قاعة جامعة جورج واشنطن أن ما يقرب من نصف التقارير الموجودة في قاعدة البيانات مرتبطة بالذكاء الاصطناعي التوليدي. البعض منهم "أشياء مضحكة وسخيفة" مثل المنتجات المراوغة تم بيعه على أمازون بعنوان: "لا أستطيع تلبية هذا الطلب" - وهي علامة واضحة على أن البائع استخدم نموذجًا لغويًا كبيرًا لكتابة الأوصاف - أو حالات أخرى من البريد العشوائي الناتج عن الذكاء الاصطناعي. لكن بعضها "محبط وخطير حقًا" - مثل دهس سيارة أجرة آلية كروز وسحب امرأة تحت عجلاتها في حادث في سان فرانسيسكو.

وأعرب عن أسفه قائلاً: "إن الذكاء الاصطناعي هو في الغالب أسلوب غربي متوحش في الوقت الحالي، والتوجه السائد هو المضي قدمًا بسرعة وتحطيم الأشياء". ليس من الواضح كيف تعمل التكنولوجيا على تشكيل المجتمع، ويأمل الفريق أن تتمكن قاعدة بيانات حوادث الذكاء الاصطناعي من تقديم رؤى حول طرق إساءة استخدامها وتسليط الضوء على العواقب غير المقصودة - على أمل أن يكون المطورون وصانعو السياسات على اطلاع أفضل حتى يتمكنوا من تحسين نماذجهم أو تنظيمها. المخاطر الأكثر إلحاحا.

"هناك الكثير من الضجيج حولنا. يتحدث الناس عن المخاطر الوجودية. أنا متأكد من أن الذكاء الاصطناعي يمكن أن يشكل مخاطر شديدة للغاية على الحضارة الإنسانية، ولكن من الواضح بالنسبة لي أن بعض هذه المخاطر الواقعية أكثر - مثل الكثير من الإصابات المرتبطة بالسيارات ذاتية القيادة، أو، كما تعلمون، إدامة التحيز من خلال الخوارزميات المستخدمة في التمويل الاستهلاكي أو التوظيف. وهذا ما نراه."

"أعلم أننا نفتقد الكثير، أليس كذلك؟ لا يتم الإبلاغ عن كل شيء أو التقاطه بواسطة وسائل الإعلام. وفي كثير من الأحيان، قد لا يدرك الناس حتى أن الضرر الذي يتعرضون له يأتي من الذكاء الاصطناعي. "أتوقع أن ترتفع الأذى الجسدي كثيرًا. نحن نشهد [في الغالب] أضرارًا نفسية وأضرارًا غير ملموسة أخرى تحدث من النماذج اللغوية الكبيرة - ولكن بمجرد أن يكون لدينا الروبوتات التوليدية، أعتقد أن الضرر الجسدي سيرتفع كثيرًا.

يشعر فراس بقلق بالغ إزاء الطرق التي يمكن أن يؤدي بها الذكاء الاصطناعي إلى تآكل حقوق الإنسان والحريات المدنية. وهي تعتقد أن جمع حوادث الذكاء الاصطناعي سيُظهر ما إذا كانت السياسات قد جعلت التكنولوجيا أكثر أمانًا مع مرور الوقت.

وأضاف هول: "عليك قياس الأشياء لإصلاح الأشياء".

تبحث المنظمة دائمًا عن متطوعين وتركز حاليًا على التقاط المزيد من الحوادث وزيادة الوعي. وشدد فريز على أن أعضاء المجموعة ليسوا من أنصار الذكاء الاصطناعي: "من المحتمل أننا نبدو مناهضين للذكاء الاصطناعي إلى حد ما، لكننا لسنا كذلك. نحن في الواقع نريد استخدامه. نريد فقط الأشياء الجيدة."

وافق هول. وقال: "للحفاظ على تقدم التكنولوجيا، يجب على شخص ما القيام بالعمل لجعلها أكثر أمانًا". ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة