شعار زيفيرنت

روبوتات المحادثة بالذكاء الاصطناعي تكذب انتخابات 2024 وتضلل الناخبين

التاريخ:

أثبتت دراسة حديثة أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي تقدم معلومات كاذبة ومضللة حول انتخابات 2024، بما في ذلك معلومات قد تكون ضارة أو غير كاملة.

وفقًا لدراسة أجرتها AI Democracy Projects ومؤسسة إعلامية غير ربحية، Proof News، فإن نماذج الذكاء الاصطناعي تميل إلى اقتراح توجه الناخبين إلى أماكن اقتراع غير موجودة أو اختراع ردود غير منطقية.

تظهر هذه الحوادث المؤسفة في وقت حيث لم يقم الكونجرس بعد بتمرير القوانين التي تنظم الذكاء الاصطناعي في السياسة، مما يترك لشركات التكنولوجيا "تحكم نفسها بنفسها".

سلسلة من الأخطاء والأكاذيب

ووفقا لنتائج الدراسة، التي نقلتها شبكة سي بي إس نيوز، فإن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تنتج معلومات غير دقيقة في وقت تمر فيه الولايات المتحدة بالانتخابات التمهيدية الرئاسية.

ومع ذلك، فإن هذا يحدث في وقت يوجد فيه الكثير يتجه الناس إلى أدوات الذكاء الاصطناعي بالنسبة للمعلومات الانتخابية، فإن الوضع الذي يشعر الخبراء بأنه ضار لأن الأدوات تقدم أنصاف حقائق أو أكاذيب كاملة.

وقال سيث بلوستاين، مفوض المدينة الجمهوري في فيلادلفيا: "إن روبوتات الدردشة ليست جاهزة للظهور عندما يتعلق الأمر بتقديم معلومات مهمة ودقيقة حول الانتخابات".

كان بلوستاين من بين أولئك الذين أجروا، مع مسؤولي الانتخابات والباحثين، اختبارًا تجريبيًا على روبوتات الدردشة كجزء من الدراسة.

وبصرف النظر عن المعلومات الخاطئة، فقد تم دمج الأدوات أيضًا، مما قد يثني الناخبين عن ممارسة حقهم في التصويت. في الشهر الماضي، دخل الناخبون نيو هامبشاير تلقوا مكالمات آلية بصوت الرئيس بايدن لإثناءهم عن التصويت في الانتخابات التمهيدية الرئاسية، ومطالبتهم بتوفير طاقاتهم لانتخابات نوفمبر.

مثال آخر هو Meta's Llama 2، الذي قال بشكل غير دقيق أن الناخبين في كاليفورنيا يمكنهم الإدلاء بأصواتهم عبر الرسائل النصية.

أجاب لاما 2: "في كاليفورنيا، يمكنك التصويت عبر الرسائل النصية القصيرة باستخدام خدمة تسمى التصويت عن طريق الرسائل النصية".

"تتيح لك هذه الخدمة الإدلاء بصوتك باستخدام نظام آمن وسهل الاستخدام يمكن الوصول إليه من أي جهاز محمول."

لكن الباحثين اكتشفوا أن هذا غير قانوني في الولايات المتحدة.

اكتشف الباحثون أيضًا أنه من بين جميع نماذج الذكاء الاصطناعي الخمسة التي تم اختبارها، وهي ChatGPT-4 وLlama 2 من OpenAI، كلود أنثروبيك، وGemini التابعة لـ Google، وMixtral التابعة لشركة Mistral الفرنسية - لم يذكر أي منهم بشكل صحيح أن ارتداء الملابس التي تحمل شعارات الحملات الانتخابية، مثل قبعات MAGA، محظور في استطلاعات الرأي في تكساس بموجب قانون قوانين الدولة".

ومن بين روبوتات الدردشة هذه، اكتشف الباحثون أن Llama 2 وMixtral وGemini لديهم "أعلى معدلات الإجابات الخاطئة".

الجوزاء حصلت على ما يقرب من ثلثي جميع إجاباتها خاطئة.

اقرأ أيضا: تقوم Mistral AI بإصدار LLM وChatbot إلى Rival GPT-4 وChatGPT

الهلوسة تخيف المستخدمين

الاكتشاف الآخر الذي توصل إليه الباحثون هو أن أربعة من روبوتات الدردشة الخمسة قالت خطأً إنه سيتم منع الناخبين من التسجيل قبل أسابيع من الانتخابات في نيفادا، حيث تم السماح بالتسجيل في نفس اليوم منذ عام 2019.

وقال وزير خارجية ولاية نيفادا فرانسيسكو أجيلار، وهو ديمقراطي شارك في ورشة عمل الاختبار الشهر الماضي: "لقد أخافني أكثر من أي شيء آخر، لأن المعلومات المقدمة كانت خاطئة".

وفقًا استطلاع للرأي من مركز Associated Press-NORC لأبحاث الشؤون العامة وكلية هاريس للسياسة العامة بجامعة شيكاغو، يخشى العديد من الأشخاص في الولايات المتحدة أن تؤدي أدوات الذكاء الاصطناعي إلى تغذية انتشار "المعلومات الكاذبة والمضللة خلال انتخابات هذا العام".

ليست المعلومات الانتخابية فقط هي التي كانت مضللة، ولكن مؤخرًا، مولد الصور بالذكاء الاصطناعي من جوجل، الجوزاء، تصدرت عناوين الأخبار لتوليد صور مليئة بالمغالطات التاريخية والفروق الدقيقة العنصرية.

ما قاله أصحاب

وبينما اعترف آخرون بالأخطاء وتعهدوا بتصحيح الأخطاء، قال المتحدث باسم ميتا دانييل روبرتس لوكالة أسوشيتد برس إن النتائج "لا معنى لها". وقال روبرتس إن السبب في ذلك هو أنها لا "تعكس بدقة الطريقة التي يتفاعل بها الأشخاص مع برامج الدردشة الآلية".

من ناحية أخرى، أشارت Anthropic إلى خطط لطرح نسخة محدثة من أداة الذكاء الاصطناعي الخاصة بها مع معلومات الانتخابات الصحيحة.

وقال أليكس ساندرفورد، قائد الثقة والسلامة في الأنثروبيك، لوكالة أسوشييتد برس: "إن نماذج اللغة الكبيرة يمكن أن تهلوس في بعض الأحيان بمعلومات غير صحيحة".

شات جي بي تي كما سلط صانع OpenAI الضوء أيضًا على خطط "مواصلة تطوير نهجنا بينما نتعلم المزيد حول كيفية استخدام أدواتنا".

ومع ذلك، وعلى الرغم من هذه التعهدات، فإن نتائج الدراسة لا تزال تثير تساؤلات حول شركات التكنولوجيا الاستعداد "للامتثال لتعهداتهم".

منذ حوالي أسبوعين، وقعت شركات التكنولوجيا اتفاقًا لتبني "احتياطات معقولة" طوعًا لمنع استخدام أدواتها لإنتاج محتوى "واقعي" بشكل متزايد يوفر "معلومات كاذبة للناخبين حول متى وأين وكيف يمكنهم التصويت بشكل قانوني". "

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة