شعار زيفيرنت

قدمت Microsoft AI إجابات مضللة على أسئلة الانتخابات

التاريخ:

لفتت الدراسات الحديثة الانتباه إلى روبوت الدردشة المدعم بالذكاء الاصطناعي من Microsoft، والذي يحمل حاليًا علامة Microsoft Copilot. ويعود هذا الاهتمام إلى عدم دقتها في تقديم المعلومات المتعلقة بالانتخابات، مما يسلط الضوء على التحديات في مجال الذكاء الاصطناعي سريع التغير. إنه يشكل مشكلة مصداقية للذكاء الاصطناعي في الكشف السياسي العالمي.

أبحاث كشفت دراسة في الدورتين الانتخابيتين الألمانية والسويسرية أن Microsoft Copilot قدمت ردودًا غير صحيحة أو مضللة لحوالي ثلث الاستفسارات الأساسية المتعلقة بالانتخابات. ومن الجوانب البارزة لهذه الأخطاء هو ميل الذكاء الاصطناعي إلى إسناد مصادر معلوماته بشكل خاطئ أو الاستشهاد بها بشكل غير دقيق، مما يؤدي إلى الارتباك واحتمال التضليل.

الانتخابات الأمريكية وأخطاء الذكاء الاصطناعي

ولا تقتصر الأخطاء التي يحركها الذكاء الاصطناعي على السياسة الأوروبية فحسب. تحقيقات في أداء الذكاء الاصطناعي فيما يتعلق بالولايات المتحدة عام 2024 الانتخابات أظهرت أنماطًا مماثلة من المعلومات الخاطئة. في حين أن برنامج Microsoft Copilot يعد بمثابة مساعد أكثر من كونه مصدرًا أساسيًا للمعلومات، إلا أنه لا يمكن التقليل من التأثير المحتمل للذكاء الاصطناعي على نشر المعلومات الانتخابية الخاطئة.

أشار استطلاع للرأي أجرته كلية هاريس للسياسة العامة بجامعة شيكاغو وAP-NORC إلى أن جزءًا كبيرًا من الشعب الأمريكي، حوالي 15%، قد يلجأ إلى الذكاء الاصطناعي للحصول على معلومات حول الانتخابات الرئاسية. هذا الاعتماد على الذكاء الاصطناعي للحصول على المعلومات السياسية لا يخلو من مخاوف مستقلة بشأن إساءة استخدام الذكاء الاصطناعي في نشر معلومات كاذبة أثناء العمليات الانتخابية.

قدمت Microsoft AI إجابات مضللة على أسئلة الانتخابات

قدمت Microsoft AI إجابات مضللة على أسئلة الانتخابات

الجهود المبذولة لتعزيز دقة وموثوقية الذكاء الاصطناعي

تعمل شركات مثل مايكروسوفت على تحسين دقة أدوات الذكاء الاصطناعي الخاصة بها، خاصة في سياق الانتخابات. تعد مسؤولية Microsoft في تحسين برنامج Copilot جزءًا من اتجاه الصناعة الأوسع نحو تعزيز موثوقية المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. وبالتوازي مع هذه الشركات، تحاول الهيئات التنظيمية مثل المفوضية الأوروبية مكافحة التضليل عبر الإنترنت، وخاصة نشر الذكاء الاصطناعي. تنفيذ اللجنة للقرار قانون الخدمات الرقمية يهدف إلى تنظيم المنصات الرقمية وحماية الخطاب العام، مع التأكيد على نزاهة الانتخابات في العصر الرقمي.

تعقيد نماذج لغة الذكاء الاصطناعي

تعد دقة الذكاء الاصطناعي في معالجة اللغة أمرًا معقدًا، كما أشار أمين أحمد، المؤسس المشارك والرئيس التنفيذي للتكنولوجيا لشركة Vectara. نماذج لغة الذكاء الاصطناعي غالبًا ما تواجه صعوبة في الحفاظ على الدقة، حتى عند التعامل مع مستندات فردية. تصبح هذه المشكلة أكثر وضوحًا في جميع أنحاء العالم حيث يحتاج الذكاء الاصطناعي إلى التعامل مع اللغات المختلفة والاختلافات الثقافية. على سبيل المثال، أظهر Microsoft Copilot معدلًا أعلى من الأخطاء في الاستعلامات غير الإنجليزية، مثل الألمانية والفرنسية، مما أثار مخاوف بشأن أداء أدوات الذكاء الاصطناعي التي طورتها الولايات المتحدة في البيئات الدولية.

ردود متنوعة والحاجة إلى التحقق

وتشمل الأخطاء عدم الدقة في مواعيد الانتخابات، وبيانات الاقتراع القديمة، وإدراج المرشحين غير النشطين، وفي بعض الأحيان اختلاق الخلافات. تسلط هذه الأخطاء الضوء على حاجة المستخدمين إلى إجراء تقييم نقدي والتحقق من المعلومات التي تم الحصول عليها من روبوتات الدردشة المدعمة بالذكاء الاصطناعي. يمكن لهذه الأدوات أن تقدم إجابات سريعة، لكن القيود الحالية التي تواجهها في التعامل مع المعلومات المعقدة والمميزة تتطلب اتباع نهج حذر، خاصة في المجالات الحساسة مثل المعلومات الانتخابية.

أبرز جيسون وونغ، المحلل في شركة Gartner، أن مايكروسوفت أجرت حملة تسويقية واسعة النطاق لـ Microsoft Copilot. كشف استطلاع أجرته مؤسسة Gartner مؤخرًا أن 82% من مشتري تكنولوجيا المعلومات حددوا Microsoft Copilot كميزة جديدة داخل Microsoft يتوقعون أن تكون "الأكثر قيمة" لمؤسساتهم.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة