شعار زيفيرنت

5 مهام برمجية لا يستطيع ChatGPT القيام بها - KDnuggets

التاريخ:

5 مهام برمجية لا يستطيع ChatGPT القيام بها
صورة المؤلف
 

أحب أن أفكر في ChatGPT كإصدار أكثر ذكاءً من StackOverflow. مفيد جدًا، لكنه لن يحل محل المحترفين في أي وقت قريب. باعتباري عالم بيانات سابقًا، أمضيت وقتًا طويلًا في تجربة ChatGPT عندما تم طرحه. لقد تأثرت كثيرًا بقدرتها على الترميز. يمكنه إنشاء تعليمات برمجية مفيدة جدًا من البداية؛ يمكن أن يقدم اقتراحات بشأن الكود الخاص بي. لقد كان جيدًا جدًا في تصحيح الأخطاء إذا طلبت منه مساعدتي في ظهور رسالة خطأ.

ولكن حتماً، كلما قضيت وقتًا أطول في استخدامه، كلما اصطدمت بقيوده أكثر. بالنسبة للمطورين الذين يخشون أن يأخذ ChatGPT وظائفهم، إليك قائمة بما لا يستطيع ChatGPT فعله.

 

5 مهام برمجية لا يستطيع ChatGPT القيام بها

القيد الأول لا يتعلق بقدرتها، بل بالشرعية. أي كود يتم إنشاؤه بواسطة ChatGPT ونسخه ولصقه في منتج الشركة يمكن أن يعرض صاحب العمل لدعوى قضائية قبيحة.

وذلك لأن ChatGPT يسحب بحرية مقتطفات التعليمات البرمجية من البيانات التي تم تدريبه عليها، والتي تأتي من جميع أنحاء الإنترنت. "لقد طلبت من chat gpt إنشاء بعض التعليمات البرمجية لي وتعرفت على الفور على ما حصل عليه GitHub repo من جزء كبير منه،" شرح مستخدم رديت ChunkyHabaneroSalsa.

في نهاية المطاف، ليس هناك معرفة من أين يأتي رمز ChatGPT، ولا الترخيص الذي كان يخضع له. وحتى لو تم إنشاؤه بالكامل من الصفر، فإن أي شيء تم إنشاؤه بواسطة ChatGPT لا يتمتع بحقوق الطبع والنشر في حد ذاته. كما كتب شون هيلمز وجيسون كريسر في بلومبرج لو وضعه، ""العمل المشتق" هو ​​"عمل يعتمد على واحد أو أكثر من الأعمال الموجودة مسبقًا." يتم تدريب ChatGPT على الأعمال الموجودة مسبقًا ويولد مخرجات بناءً على هذا التدريب."

إذا كنت تستخدم ChatGPT لإنشاء التعليمات البرمجية، فقد تجد نفسك في مشكلة مع أصحاب العمل لديك.

إليك اختبار ممتع: اطلب من ChatGPT إنشاء تعليمات برمجية من شأنها إجراء تحليل إحصائي في Python.

هل هذا هو التحليل الإحصائي الصحيح؟ على الاغلب لا. لا يعرف ChatGPT ما إذا كانت البيانات تلبي الافتراضات اللازمة لتكون نتائج الاختبار صالحة. لا يعرف ChatGPT أيضًا ما يريد أصحاب المصلحة رؤيته.

على سبيل المثال، قد أطلب من ChatGPT مساعدتي في معرفة ما إذا كان هناك فرق ذو دلالة إحصائية في تقييمات الرضا عبر الفئات العمرية المختلفة. يقترح ChatGPT اختبار T لعينة مستقلة ولم يجد أي فرق ذي دلالة إحصائية في الفئات العمرية. لكن اختبار t ليس هو الخيار الأفضل هنا لعدة أسباب، مثل حقيقة أنه قد يكون هناك فئات عمرية متعددة، أو أن البيانات لا يتم توزيعها بشكل طبيعي.

 

5 مهام برمجية لا يستطيع ChatGPT القيام بها
صورة من decipherzone.com
 

A عالم بيانات مكدس كامل سيعرف ما هي الافتراضات التي يجب التحقق منها ونوع الاختبار الذي يجب تشغيله، ومن الممكن أن يعطي ChatGPT تعليمات أكثر تحديدًا. لكن ChatGPT من تلقاء نفسه سيُنشئ بكل سرور الكود الصحيح للتحليل الإحصائي الخاطئ، مما يجعل النتائج غير موثوقة وغير قابلة للاستخدام.

بالنسبة لأي مشكلة مثل تلك التي تتطلب المزيد من التفكير النقدي وحل المشكلات، فإن ChatGPT ليس هو الرهان الأفضل.

سيخبرك أي عالم بيانات أن جزءًا من الوظيفة هو فهم وتفسير أولويات أصحاب المصلحة في المشروع. لا يستطيع ChatGPT، أو أي ذكاء اصطناعي في هذا الشأن، فهمها أو إدارتها بشكل كامل.

فمن ناحية، غالبًا ما تتضمن أولويات أصحاب المصلحة اتخاذ قرارات معقدة لا تأخذ في الاعتبار البيانات فحسب، بل أيضًا العوامل البشرية وأهداف العمل واتجاهات السوق.

على سبيل المثال، في إعادة تصميم التطبيق، قد تجد أن فريق التسويق يريد إعطاء الأولوية لميزات مشاركة المستخدم، ويسعى فريق المبيعات للحصول على ميزات تدعم البيع المتبادل، ويحتاج فريق دعم العملاء إلى ميزات دعم أفضل داخل التطبيق لمساعدة المستخدمين.

يمكن لـ ChatGPT توفير المعلومات وإنشاء التقارير، لكنه لا يمكنه اتخاذ قرارات دقيقة تتوافق مع المصالح المتنوعة - والمتنافسة أحيانًا - لأصحاب المصلحة المختلفين.

بالإضافة إلى ذلك، تتطلب إدارة أصحاب المصلحة في كثير من الأحيان درجة عالية من الذكاء العاطفي - القدرة على التعاطف مع أصحاب المصلحة، وفهم مخاوفهم على المستوى البشري، والاستجابة لمشاعرهم. يفتقر ChatGPT إلى الذكاء العاطفي ولا يمكنه إدارة الجوانب العاطفية للعلاقات مع أصحاب المصلحة.

قد لا تفكر في ذلك على أنه مهمة ترميز، لكن عالم البيانات الذي يعمل حاليًا على الكود الخاص بإطلاق الميزة الجديدة يعرف مدى نجاحه مع أولويات أصحاب المصلحة.

لا يستطيع ChatGPT التوصل إلى أي شيء جديد حقًا. يمكنه فقط إعادة مزج وإعادة صياغة ما تعلمه من بيانات التدريب الخاصة به.

 

5 مهام برمجية لا يستطيع ChatGPT القيام بها
صورة من theinsaneapp.com
 

هل تريد معرفة كيفية تغيير حجم وسيلة الإيضاح على الرسم البياني R الخاص بك؟ لا توجد مشكلة - يمكن لـ ChatGPT الاستفادة من آلاف إجابات StackOverflow على الأسئلة التي تطرح نفس الشيء. ولكن (باستخدام مثال طلبت من ChatGPT إنشاءه)، ماذا عن شيء من غير المرجح أن يكون قد صادفه من قبل، مثل تنظيم مائدة مجتمعية حيث يجب أن يحتوي طبق كل شخص على مكون يبدأ بنفس الحرف كاسم عائلته وتريد للتأكد من وجود تشكيلة جيدة من الأطباق.

عندما اختبرت هذه المطالبة، أعطتني بعض أكواد Python التي قررت الاسم كان يجب أن يتطابق اسم الطبق مع الاسم الأخير، ولا حتى يلتقط متطلبات المكونات بشكل صحيح. لقد أراد مني أيضًا أن أتوصل إلى 26 فئة من الأطباق، واحدة لكل حرف من الحروف الأبجدية. لم تكن إجابة ذكية، ربما لأنها كانت مشكلة جديدة تمامًا.

وأخيرًا وليس آخرًا، لا يستطيع ChatGPT البرمجة بشكل أخلاقي. فهو لا يمتلك القدرة على إصدار أحكام قيمية أو فهم الآثار الأخلاقية لجزء من التعليمات البرمجية بالطريقة التي يفعلها الإنسان.

يتضمن الترميز الأخلاقي النظر في كيفية تأثير الكود على مجموعات مختلفة من الأشخاص، والتأكد من أنه لا يشكل تمييزًا أو يسبب ضررًا، واتخاذ قرارات تتوافق مع المعايير الأخلاقية والأعراف المجتمعية.

على سبيل المثال، إذا طلبت من ChatGPT كتابة رمز لنظام الموافقة على القروض، فقد ينتج نموذجًا يعتمد على البيانات التاريخية. ومع ذلك، لا يمكنها فهم الآثار المجتمعية لهذا النموذج الذي يحتمل أن يحرم المجتمعات المهمشة من القروض بسبب التحيز في البيانات. سيكون الأمر متروكًا للمطورين البشريين لإدراك الحاجة إلى العدالة والإنصاف، والبحث عن التحيزات في البيانات وتصحيحها، والتأكد من توافق المدونة مع الممارسات الأخلاقية.

تجدر الإشارة إلى أن الأشخاص ليسوا مثاليين في ذلك أيضًا - فهناك شخص ما يقوم بالتشفير أداة التوظيف المتحيزة في أمازون، وقام شخص ما بترميز ملف تصنيف صور جوجل التي حددت السود على أنهم غوريلا. لكن البشر أفضل في ذلك. يفتقر ChatGPT إلى التعاطف والضمير والتفكير الأخلاقي اللازم للترميز الأخلاقي.

يستطيع البشر فهم السياق الأوسع، والتعرف على التفاصيل الدقيقة للسلوك البشري، وإجراء مناقشات حول الصواب والخطأ. نحن نشارك في المناقشات الأخلاقية، ونوازن بين إيجابيات وسلبيات نهج معين، ونتحمل المسؤولية عن قراراتنا. عندما نرتكب الأخطاء، يمكننا أن نتعلم منها بطريقة تساهم في نمونا الأخلاقي وفهمنا.

لقد أحببت Redditor Empty_Experience_10's أخذ عليه: "إذا كان كل ما تفعله هو البرنامج، فأنت لست مهندس برمجيات ونعم، سيتم استبدال وظيفتك. إذا كنت تعتقد أن مهندسي البرمجيات يحصلون على رواتب عالية لأنهم يستطيعون كتابة التعليمات البرمجية، فهذا يعني أن لديك سوء فهم أساسي لمعنى أن تكون مهندس برمجيات.

لقد وجدت أن ChatGPT رائع في تصحيح الأخطاء، وبعض مراجعة التعليمات البرمجية، كما أنه أسرع قليلاً من البحث عن إجابة StackOverflow. لكن الكثير من "البرمجة" هو أكثر من مجرد إدخال لغة بايثون في لوحة المفاتيح. إنها معرفة أهداف عملك. إنه فهم مدى الحرص الذي يجب أن تكون عليه في القرارات الخوارزمية. إنها بناء علاقات مع أصحاب المصلحة، وفهم ما يريدونه حقًا ولماذا، والبحث عن طريقة لجعل ذلك ممكنًا.

إنها رواية القصص، وهي معرفة متى تختار مخططًا دائريًا أو رسمًا بيانيًا شريطيًا، وهي فهم السرد الذي تحاول البيانات إخبارك به. يتعلق الأمر بالقدرة على توصيل الأفكار المعقدة بعبارات بسيطة يمكن لأصحاب المصلحة فهمها واتخاذ القرارات بناءً عليها.

لا يستطيع ChatGPT القيام بأي من ذلك. طالما يمكنك، وظيفتك آمنة.
 
 

نيت روزيدي هو عالم بيانات وفي استراتيجية المنتج. وهو أيضًا أستاذ مساعد يقوم بتدريس التحليلات ، وهو مؤسس ستراتا سكراتش، وهي منصة تساعد علماء البيانات على الاستعداد لمقابلاتهم مع أسئلة مقابلة حقيقية من الشركات الكبرى. تواصل معه تويتر: StrataScratch or لينكدين:.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة