شعار زيفيرنت

اسأل أحد متخصصي أخلاقيات البيانات: هل يمكننا الوثوق بالذكاء الاصطناعي غير القابل للتفسير؟ – تنوع البيانات

التاريخ:

في الشهر الماضي عمودلقد طلبت من القراء إرسال "أسئلتهم الكبيرة" عندما يتعلق الأمر بالبيانات والذكاء الاصطناعي. سؤال هذا الشهر أكثر من إجابة لتلك المكالمة! إنه يشمل مجالات الثقة الهائلة في أدوات الذكاء الاصطناعي وقابلية الشرح.

كيف يمكننا معرفة ما إذا كانت أداة الذكاء الاصطناعي تحقق نتيجة أخلاقية إذا لم تكن لدينا أي فكرة عن كيفية وصولها إلى إجاباتها؟

قبل أن نبدأ في الإجابة على هذا السؤال بشكل مباشر، هناك بعض الأمور المهمة التي يجب أن نتطرق إليها أولاً:

الذكاء الاصطناعي ليس شيئًا واحدًا

هناك مجموعة كاملة من التقنيات التي يتم تسويقها تحت مظلة الذكاء الاصطناعي - كل شيء بدءًا من تقنيات التعرف على الوجه باستخدام رؤية الكمبيوتر إلى أنظمة التوصية إلى أدوات نموذج اللغة الكبيرة من نوع chatbot مثل ChatGPT، على سبيل المثال لا الحصر. إن الطرق المحددة التي تعمل بها هذه التقنيات وما تستخدم من أجله تلعب دوراً في مسألة قابلية التفسير والثقة. بشكل عام، يتضمن التعلم الآلي إيجاد أنماط في الكثير من البيانات من أجل إنتاج نتيجة أو مخرجات. هناك مجموعة من المخاوف الأخلاقية العامة المتعلقة بهذه العملية. ومع ذلك، لمعالجة السؤال بشكل كامل، يجب أن نحاول أن نكون محددين قدر الإمكان بشأن أداة الذكاء الاصطناعي التي نناقشها.

الأخلاق في السياق

على غرار مصطلح الذكاء الاصطناعي، تغطي الأخلاقيات أيضًا مجموعة كاملة من القضايا، واعتمادًا على الموقف المحدد، يمكن أن تصبح بعض المخاوف الأخلاقية أكثر أو أقل وضوحًا. لاستخدام مثال متطرف، فإن معظم الناس سوف يهتمون بشكل أقل بخصوصيتهم في حالة الحياة أو الموت. في حالة وجود شخص مفقود، يكون الاهتمام الأساسي هو تحديد مكان ذلك الشخص. وقد يتضمن ذلك استخدام كل الوسائل الممكنة للعثور عليهم، بما في ذلك الكشف عن الكثير من المعلومات الشخصية لوسائل الإعلام. ومع ذلك، عندما يتم تحديد مكان الشخص المفقود، يتم نشر كل الدعاية حول الوضع يجب ازلته. يتمحور السؤال الأخلاقي الآن حول التأكد من أن القصة لا تتبع الضحية طوال حياته، مما يعرضه لوصمة عار محتملة. في هذا المثال، يتغير الشيء الأخلاقي الذي يجب القيام به تمامًا في ضوء الظروف السياقية.

الوكالة الإنسانية والتفسيرات

لكي يتمكن الشخص من ممارسة وكالته ويكون مسؤولاً بصفته أ الوكيل الأخلاقي، من المهم أن يكون لديك مستوى معين من الفهم حول الموقف. على سبيل المثال، إذا رفض البنك الحصول على قرض، فيجب عليه تزويد مقدم الطلب بشرح لكيفية اتخاذ هذا القرار. وهذا يضمن أن الأمر لم يكن مبنيًا على عوامل غير ذات صلة (ارتداء جوارب زرقاء) أو عوامل خارجة عن سيطرة الشخص (العرق والعمر والجنس وما إلى ذلك) والتي يمكن أن تكون تمييزية. يجب أن يكون الشرح معقولًا ومفهومًا للشخص الذي يحتاج إلى الشرح. وبالتالي، فإن تقديم تفسير تقني للغاية لشخص عادي لن يكون كافيًا. هناك أيضًا جانب من جوانب الكرامة الإنسانية في التفسيرات. احترام الناس يعني معاملتهم بكرامة. 

عناصر الثقة

الثقة متعددة الأوجه. لقد قام مجتمعنا ببناء بنى تحتية تساعد على تعزيز الثقة في استخدام التقنيات. على سبيل المثال، في خمسينيات القرن التاسع عشر، عندما كان المصعد تكنولوجيا جديدة، فقد تم تصميمه بطرق لم تكن آمنة دائمًا. تم استخدام الحبال ككابلات ويمكن أن تتآكل وتنكسر. ومع مرور الوقت، رأينا تصميمات أفضل، بالإضافة إلى أن لدينا عملية للإشراف على عمليات المصاعد. هناك قوانين تتطلب فحوصات السلامة المنتظمة. كيف نعرف أنه تم إجراء فحوصات السلامة؟ نحن نثق في النظام الذي يفرض الامتثال. لم نعد بحاجة إلى التساؤل عما إذا كنا سنصل بأمان إلى الطابق 77 قبل أن ندخل إلى الصندوق المعدني الصغير. والثقة، في هذه الحالة، عبارة عن بناء لتكنولوجيا موثوقة ومصممة بشكل آمن بالإضافة إلى أنظمة مناسبة للرقابة والحوكمة.

على سؤالنا…

مع وضع هذه العناصر في الاعتبار، دعونا نتعمق في سؤالنا. الإجابة المختصرة للغاية وغير المرضية على الأرجح هي "لا يمكننا أن نعرف على وجه اليقين". ومع ذلك، دعونا نحاول ملء بعض التفاصيل حول الأداة والسياق الذي سيساعدنا في الحصول على استجابة أكثر فائدة.

لنفترض أننا مستخدمون نهائيون وأننا نستخدم أداة ذكاء اصطناعي توليدية لمساعدتنا في إنشاء محتوى للعرض التقديمي الذي نقدمه في العمل. كيف يمكننا التأكد من أننا نقوم باختيارات جيدة حتى نتمكن من استخدام هذه الأداة بشكل مسؤول في ظل هذا السياق؟

أخلاقيات كيفية صنعها

هناك قضايا أخلاقية تتعلق بالذكاء الاصطناعي التوليدي ولا يمكننا، كمستخدم نهائي، معالجتها. تم إنشاء معظم الذكاء الاصطناعي التوليدي باستخدام البيانات المكتسبة بشكل مشكوك فيه من الإنترنت. ويتضمن بيانات متحيزة وغير تمثيلية. هناك أيضا قضايا سلسلة توريد العمالة و  القضايا البيئية المتعلقة بتدريب نماذج اللغة الكبيرة. علاوة على ذلك، ليس من الممكن (حاليًا) الحصول عليه تفسير – فهم تقني مفصل لنموذج لغة كبير. بالنسبة للشخص العادي، قد يكون من الكافي التوضيح أن يفهم أن نموذج اللغة الكبير يستخدم أساليب احتمالية لتحديد الكلمة التالية التي تبدو معقولة وأنه سيهدف دائمًا إلى تقديم إجابة حتى لو لم تكن الإجابة دقيقة. 

كمستخدم نهائي، لن تقوم بمعالجة أي من هذه القضايا الأخلاقية. أفضل ما يمكنك فعله هو أن تقرر ما إذا كنت لا تزال ترغب في استخدام الأداة أم لا بالنظر إلى كيفية صنعها. وبمرور الوقت، آمل أن تقوم بعض الشركات بتصميم أدوات أفضل وأكثر مسؤولية لمعالجة هذه القضايا أو أن تتطلب اللوائح إصلاح هذه المشكلات. 

استخدام الذكاء الاصطناعي بشكل مسؤول

على افتراض أنك قررت المضي قدما، فإن الخطوة التالية هي تحمل المسؤولية عن النتائج. وهذا يعني معرفة أن الذكاء الاصطناعي التوليدي لا يفهم أي شيء. كانت هناك العديد من القصص حول كيفية "الهلوسة" للأداة ولماذا لا ينبغي استخدامها لأشياء عالية المخاطر مثل عمل قانوني. في ضوء هذه المعلومات، أين من المنطقي بالنسبة لك استخدام أداة الذكاء الاصطناعي التوليدي؟ ربما يساعد في العصف الذهني. ربما يمكنه إنشاء مخطط تفصيلي أو مساعدتك في المسودة الأولى. 

هناك أيضًا اختلافات بين الذكاء الاصطناعي التوليدي والتي يمكن أن تجعله أكثر أو أقل أمانًا للاستخدام. على سبيل المثال، من المرجح أن يتمتع حل المؤسسة الذي يتم نشره ضمن حدود عملك بقدر أكبر من الخصوصية وحواجز الحماية الأخرى مقارنة بالأداة العامة مثل ChatGPT. إذا كنت تستخدم إحدى أدوات المؤسسة، فيمكنك أن تسأل قسم تكنولوجيا المعلومات في شركتك عن العناية الواجبة التي تم إجراؤها قبل اعتماد الأداة. (تلميح: إذا كنت تشتري الذكاء الاصطناعي، فيجب أن تطرح أسئلة صعبة على البائعين وتبذل العناية الواجبة!) بالإضافة إلى ذلك، يجب أن يكون لدى شركتك السياسات والإجراءات في مكان لاستخدام الأدوات وفقا لتوقعاتهم.

يمكنك أيضًا التحقق مرة أخرى من المخرجات. يمكنك استخدام مصادر أخرى للتحقق من المعلومات. إذا كنت تقوم بإنشاء صور، فيمكنك استخدام مطالبات محددة لضمان حصولك على تنوع أكبر في التمثيل. يكون على دراية بالقوالب النمطية وتأكد من أنك لا تطلب من النظام إنشاء صورة حقوق الطبع والنشر

وأخيرا، ما هي المخاطر التي ينطوي عليها هذا العمل؟ هل هو لعرض تقديمي داخلي أم سيتم استخدام المحتوى الذي تم إنشاؤه في حملة إعلانية وطنية؟ كلما زادت المخاطر، كلما زادت العناية الواجبة والمراجعة التي يجب عليك القيام بها - بما في ذلك إشراك أصحاب المصلحة الخارجيين في شيء يمكن أن يكون له تأثيرات كبيرة.

أرسل لي أسئلتك!

أود حب للتعرف على معضلات البيانات الخاصة بك أو الأسئلة والمآزق المتعلقة بأخلاقيات الذكاء الاصطناعي. يمكنك أن ترسل لي ملاحظة على hello@ethicalalignedai.com أو تواصل معي لينكدين:. سأحافظ على سرية جميع الاستفسارات وأزيل أي معلومات قد تكون حساسة - لذا لا تتردد في إبقاء الأمور على مستوى عالٍ ومجهولة المصدر أيضًا. 

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة