شعار زيفيرنت

ركن الأطفال الرائعين: إدارة البيانات والذكاء الاصطناعي – تنوع البيانات

التاريخ:

مرحبًا! أنا مارك هورسمان ومرحبا بكم ركن الاطفال الرائعين. هذا هو تسجيل الوصول الشهري الخاص بي لمشاركة الأشخاص والأفكار التي أواجهها معك كمبشر للبيانات في DATAVERSITY. (اقرأ عمود الشهر الماضي هنا.) نتحدث هذا الشهر عن التفاعل بين إدارة البيانات والذكاء الاصطناعي (AI). ما الذي نحتاج إلى مراقبته بينما تندفع مؤسساتنا إلى اعتماد حلول الذكاء الاصطناعي مثل ChatGPT وغيرها الكثير؟ ما هي المنافع؟ ما هي المخاطر؟ وفي النهاية سنرى ما هو أطفال رائعون يقولون. 

لقد كان الذكاء الاصطناعي (AI) موجودًا منذ عقود. لم تظهر إلى الوجود فحسب. لكن ما فعلته هو القفز إلى روح العصر الثقافي بطريقة نادرًا ما نرى التكنولوجيا تفعلها. كيف حدث هذا التغيير؟ لقد أصبحت الكثير من الأساليب والنظريات التي وضعها علماء الذكاء الاصطناعي في الأيام الأولى للحوسبة حقيقة واقعة عندما أصبحت القدرة الحاسوبية متاحة بسهولة للتنفيذ على الخوارزميات التي طرحها هؤلاء الحالمون الأوائل. 

مكنت قوة الحوسبة المذكورة أعلاه من إنشاء أدوات ذكاء اصطناعي شائعة مثل ChatGPT وغيرها الكثير. تثير هذه الأدوات الآن أسئلة حول إدارة البيانات. يهتم فريق إدارة البيانات لديك بالامتثال والمخاطر وفي النهاية إنتاج البيانات واستخدامها وتعريفها. عند استخدام الذكاء الاصطناعي، وخاصة نموذج اللغة الكبير (LLM)، لإنتاج المحتوى أو تنظيمه، هناك العديد من التحديات المهمة المتعلقة بإدارة البيانات. 

  • الخصوصية: يمكن أحيانًا استخدام البيانات التي تضعها في النموذج للتدريب المستقبلي، مما يعني أنه يمكن استخدامها في النتائج التي ينشئها المستخدمون الآخرون. وفي العام الماضي كان هناك خرق LLM بحيث كانت بيانات المحادثة متورطة في التسريب. إذا كنت تستخدم بيانات سرية، فقد يكون هذا سلبيًا إلى حد ما. 
  • دقة: يُطلق على المصطلح الخاص بـ LLM الذي يشكل نتائج غير صادقة اسم أ هلوسة. اعتمادًا على النموذج المستخدم، يمكن أن تكون الهلوسة شائعة بنسبة 40% من النتائج. يتطلب هذا بعض إرشادات الاستخدام للمستخدمين لمنع مشكلات الجودة. 
  • التوافق: اعتمادًا على أنواع الأنشطة التي يرغب المستخدمون في المشاركة فيها، قد يتعارض استخدام ChatGPT مع العديد من الضوابط التشريعية، بما في ذلك بيانات القانون العام لحماية البيانات (GDPR) وCCPA وHIPPA وPCI. وهذا بالطبع يختلف باختلاف حالة الاستخدام ولكنه ليس خارج نطاق الاحتمال. مرة أخرى، سيحتاج المستخدمون إلى إرشادات حول استخدام الذكاء الاصطناعي من فريق إدارة البيانات لديهم لاستخدام الأداة دون خوف.  
  • أخلاق: كانت هناك العديد من القصص في الأخبار مؤخرًا عن وجود تحيز متأصل للذكاء الاصطناعي بسبب بيانات التدريب الخاصة به. سواء كانت قصة الذكاء الاصطناعي تبييض طالب معهد ماساتشوستس للتكنولوجيا لجعلها تبدو أكثر احترافية، أو أن أدوات التعرف على الوجه تعمل بشكل جيد فقط مع المستخدمين القوقازيين لأن بيانات التدريب لم تكن بها الكثير من التنوع. الأخلاقيات هي شيء نحتاج إلى مراعاته في كل خطوة عند استخدام أي حل للذكاء الاصطناعي. لا تتمتع الخوارزمية بالقدرة على أن تكون معنوية أو أخلاقية، فالأمر متروك للبشر للتدخل وضمان العدالة في تشغيل أي نموذج. 
  • إثبات المستقبل: هناك الكثير من الهيئات التشريعية التي تتطلع إلى تنظيم استخدام الذكاء الاصطناعي على وجه التحديد، سواء كان ذلك LLM أو خوارزمية التعلم الآلي التي تعمل على تشغيل محرك التوصية. إن مشروع القانون الذي يتطلب أن تتمكن المؤسسة من وصف كيفية اختيار الخوارزمية بناءً على بيانات التعلم قد يكون من الصعب جدًا الحفاظ عليه بالنسبة لبعض المؤسسات. قد لا يجعل هذا من الممكن بشكل معقول استخدام هذه الأدوات في المستقبل إذا كانت الخوارزميات المعنية عبارة عن صندوق أسود كامل. مثال على التشريعات المحتملة هو AIDA يخرج من كندا
  • الظل AI: تعاني المؤسسات من استخدام الموظفين لأدوات الذكاء الاصطناعي خارج مكاتبهم دون دعم السياسات أو الإجراءات أو المبادئ التوجيهية لضمان الخصوصية والدقة والامتثال والمخاوف الأخلاقية المذكورة أعلاه. ابهيشيك جوبتا كتب قطعة مضيئة تسمى "احذروا ظهور الذكاء الاصطناعي للظل" الذي يسلط الضوء على بعض هذه القضايا. باختصار – ضع شيئًا ما في مكانه الصحيح وقم بنشره اجتماعيًا، لأن هذا يمكن أن يحدث في مؤسستك. 

ما هي أطفال رائعون ماذا عن التفاعل بين إدارة البيانات والذكاء الاصطناعي؟ هذا الشهر لدينا طفل ظريف is سارة راسموسن، شريك المشاركة لشركاء First San Francisco. ستقدم سارة عرضًا تقديميًا في Enterprise Data World (EDW) خلال أيام قليلة فقط. ستغطي محاضرتها، "كيف يجب أن يؤثر نضج إدارة البيانات والقدرة على إدارة البيانات على استثمارك في نماذج الذكاء الاصطناعي/تعلم الآلة"، ما يلي: 

  • تقديم نموذج الذكاء الاصطناعي/تعلم الآلة مفككًا، وهو نموذج مجال الموضوع الذي يعرض بالتفصيل الأعمال الأكثر أهمية وشائعة والحوكمة والتكنولوجيا والمكونات ذات الصلة بالبيانات التي تشكل جزءًا من دورة حياته أو تؤثر عليها. 
  • إظهار الحاجة إلى نموذج تشغيل لإدارة البيانات لضمان فهم مدخلات ومخرجات نموذج الذكاء الاصطناعي/التعلم الآلي وإدارتها بشكل استباقي. وهذا يمهد الطريق لتحديد المخاطر التنظيمية والمتعلقة بالسمعة والتغلب عليها وضمان أن الاستخدام الأخلاقي لبيانات الفرد يكون دائمًا في المقدمة. 
  • استكشف أصحاب المصلحة الكبيرين بشكل مدهش في النظام البيئي، داخل المنظمة وخارجها، والتي تؤثر على نجاح النموذج والتي يجب أن يتفاعل معها مطورو النماذج بشفافية. 
  • لخص لماذا التركيز على نضج قدرات إدارة البيانات وإدارتها لدعم نماذج الذكاء الاصطناعي/التعلم الآلي يفيد مجموعة من حالات الاستخدام الأخرى على مستوى المؤسسة. 

تذكر أنه يمكنك الاجتماع أطفال رائعون مثل سارة في أحداث DATAVERSITY: 

تريد أن تصبح واحدة من أطفال رائعون؟ كل ما عليك فعله هو مشاركة أفكارك مع المجتمع! لكي تكون نشطًا في المجتمع، تفضل بحضور ندوات DATAVERSITY عبر الإنترنت والمشاركة في الأحداث والتواصل مع الزملاء ذوي التفكير المماثل. 

في الشهر المقبل، سنناقش الطلب المتزايد على إدارة البيانات الرئيسية - لماذا أصبحت رائجة الآن أكثر من أي وقت مضى؟ ابقوا متابعين!

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة