شعار زيفيرنت

AI Weekly: اليوتوبيا التقنية في مكان العمل وخطر الأتمتة المفرطة

التاريخ:

في كثير من الأحيان ، يكتب VentureBeat قصة عن شيء يجب أن يختفي. قبل بضع سنوات ، جادل زميلي بلير هانلي فرانك بذلك أنظمة الذكاء الاصطناعي مثل Einstein و Sensei و Watson يجب أن تذهب لأن الشركات تميل إلى المبالغة في الوعود بنتائج منتجاتها وخدماتها. لقد ركضت في الدجال AI و استعلاء البيض.

هذا الأسبوع ، قدمت سلسلة من الأحداث عند تقاطع مكان العمل والذكاء الاصطناعي دعمًا للحجة القائلة بأن اليوتوبيا التقنية لا مكان لها في العالم الحديث. من بين علامات التحذير في العناوين الرئيسية قطعة تم تداولها على نطاق واسع من قبل أ فاينانشال تايمز الصحفي الذي قالت إنها كانت مخطئة في التفاؤل بشأن الروبوتات.

تصف المراسل كيف كانت معتادة على أن تكون متفائلة تقنيًا ، لكن في سياق تقاريرها وجدت أن الروبوتات يمكنها حشر الأشخاص في نظامهم وإجبارهم على العمل بوتيرة الروبوت. في المقال ، تستشهد تحليل مركز التقارير الاستقصائية لسجلات أمازون الداخلية التي وجدت حالات إصابة بشرية كانت أعلى في منشآت أمازون التي بها روبوتات منها في المنشآت التي لا تحتوي على روبوتات.

وكتبت الصحفية التي تُدعى سارة أوكونور: "إن نزع الصفة الإنسانية وتكثيف العمل ليسا حتميين". املأ اختيارك لنكتة Terminator هنا.

هذا الأسبوع أيضًا: نقلت بي بي سي عن الرئيس التنفيذي لشركة HireVue كيفن باركر قوله إن منظمة العفو الدولية أكثر حيادية من المحاور البشري. بعد مواجهة معارضة على جبهات متعددة ، أعلنت HireVue الشهر الماضي أنها لن تستخدم تحليل الوجه في تحليل مقابلات الفيديو المدعوم بالذكاء الاصطناعي لمرشحي الوظائف. حصلت Microsoft Teams على تقنية مماثلة هذا الأسبوع للتعرف عليها وتسليط الضوء عليها من يستمتع بمكالمة فيديو.

قام المدققون الخارجيون بفحص Al المستخدم بواسطة HireVue وشركة برامج التوظيف Pymetrics ، التي تشير إلى الذكاء الاصطناعي على أنه "خال تمامًا من التحيز ،"ولكن يبدو أن العمليات لديها أثاروا أسئلة أكثر مما أجابوا.

و نشر VentureBeat مقالاً حول ورقة بحثية مع تحذير: أمام شركات مثل Google و OpenAI بضعة أشهر لمواجهة العواقب المجتمعية السلبية للنماذج اللغوية الكبيرة التي تطلقها قبل أن تديم القوالب النمطية أو تحل محل الوظائف أو تستخدم لنشر معلومات مضللة.

ما هو مهم لفهم هذه الورقة ، الذي كتبه باحثون في OpenAI و Stanford ، هو أنه قبل انتشار نقد نماذج اللغات الكبيرة على نطاق واسع ، وجدت عمليات تدقيق مجموعة البيانات والبحوث عيوبًا كبيرة في رؤية الكمبيوتر الكبيرة مجموعات البيانات التي مضى عليها أكثر من عقد ، مثل ImageNet و  80 مليون صورة صغيرة. تحليل لمجموعات بيانات الوجه يعود تاريخها إلى أربعة عقود وجدت أيضا ممارسات مشكوك فيها أخلاقيا.

بعد يوم من نشر هذا المقال ، مؤسس شركة OpenAI جريج بروكمان قام بتغريد ما بدا أنه تأييد لأسبوع عمل مدته 90 ساعة. قم بتشغيل الرياضيات على ذلك. إذا كنت تنام سبع ساعات في الليلة ، فسيكون لديك حوالي أربع ساعات يوميًا للقيام بأي شيء غير العمل - مثل ممارسة الرياضة أو تناول الطعام أو الراحة أو قضاء الوقت مع أسرتك.

لا يجب أن تعني نهاية اليوتوبيا التقنية موت الآراء المتفائلة حول الطرق التي يمكن للتكنولوجيا أن تحسن بها حياة البشر. لا يزال هناك الكثير من الناس الذين يؤمنون بذلك يمكن للزراعة الداخلية أن تغير حياة الناس للأفضل أو أن التعلم الآلي يمكنه تسريع الجهود المبذولة معالجة تغير المناخ.

قدمت مارجريت ميتشل ، القائدة المشاركة لأخلاقيات الذكاء الاصطناعي في Google ، مؤخرًا حجة لتصميم الذكاء الاصطناعي الذي يضع الصورة الأكبر في الاعتبار. في بريد إلكتروني تم إرساله إلى قادة الشركة قبل ذلك وضع قيد التحقيق، قالت إن النظر في الأخلاق والإدماج هو جزء من التفكير طويل الأمد لتحقيق نتائج مفيدة على المدى الطويل.

الفكرة هي تحديد أبحاث الذكاء الاصطناعي الآن، يجب أن ننظر إلى المكان الذي نريد أن نكون فيه في المستقبل ، وأن نعمل بشكل عكسي من المستقبل المثالي إلى هذه اللحظة ، في الوقت الحالي ، من أجل معرفة ما يجب العمل عليه اليوم ، "قال ميتشل. "عندما يمكنك تأسيس تفكيرك البحثي في ​​كل من التبصر وفهم المجتمع ، فإن أسئلة البحث التي يجب التركيز عليها حاليًا تسقط من هناك."

مع وضع هذا النوع من التفكير طويل المدى في الاعتبار ، قام فريق الذكاء الاصطناعي الأخلاقي في Google وباحثو Google DeepMind بإنتاج إطار عمل لتنفيذ عمليات تدقيق الخوارزمية الداخلية، شكك في حكمة الحجم عند معالجة القضايا المجتمعية ، ودعوا إليها تغيير الثقافة في مجتمع التعلم الآلي. كما دعا باحثو Google إعادة بناء صناعة الذكاء الاصطناعي وفقًا لمبادئ مناهضة الاستعمار و كوير AI وتقييم الإنصاف باستخدام علم الاجتماع ونظرية العرق النقدي. وباحثو الذكاء الاصطناعي الأخلاقيون أكد مؤخرا لا يمكن ببساطة نقل العدالة الخوارزمية من الدول الغربية إلى الدول غير الغربية أو تلك الموجودة في الجنوب العالمي ، مثل الهند.

قد يؤدي موت اليوتوبيا التقنية إلى إدراك المبدعين لأنظمة الذكاء الاصطناعي أنهم قد يحتاجون إلى العمل مع المجتمعات ، وتأثيراتهم التكنولوجية ، والقيام بأكثر من مجرد الالتزام باللوائح الضئيلة الموجودة حاليًا. يمكن أن يفيد هذا شركات التكنولوجيا وكذلك عامة الناس. كما قال الرئيس التنفيذي لشركة Parity ، رومان شودري ، لموقع VentureBeat في قصة حديثة عنه ما تحتاجه الشركات الناشئة في مجال التدقيق الحسابي لتحقيق النجاح، يمكن أن يكون للسلوك غير الأخلاقي سمعة وتكاليف مالية تتجاوز أي تشعبات قانونية.

قد يكون الافتقار إلى التنظيم الشامل هو السبب في أن بعض الحكومات والمجموعات الوطنية مثل Data & Society و منظمة التعاون والتنمية في الميدان الاقتصادي أدوات التقييم الحسابي لتشخيص مستويات المخاطر لأنظمة الذكاء الاصطناعي.

تم العثور على العديد من التقارير والاستطلاعات الأتمتة في ارتفاع خلال الجائحة، وأحداث الأسبوع الماضي تذكرني بعمل الأستاذ والاقتصادي بمعهد ماساتشوستس للتكنولوجيا دارون أسيموغلو ، الذي وجد بحثه أن روبوتًا واحدًا يمكن أن يحل محل 3.3 وظيفة بشرية.

In شهادة أمام الكونجرس الخريف الماضي حول الدور الذي سيلعبه الذكاء الاصطناعي في الانتعاش الاقتصادي في الولايات المتحدة ، حذر أسيموغلو اللجنة من مخاطر الأتمتة المفرطة. أ 2018 ورقة المكتب الوطني للبحوث الاقتصادية (NBER) يقول Acemoglu ، الذي شارك في تأليفه ، إن الأتمتة يمكن أن تخلق وظائف ومهام جديدة ، كما فعلت في الماضي ، لكنها تقول إن الأتمتة المفرطة قادرة على تقييد نمو سوق العمل ، ومن المحتمل أن تكون بمثابة عائق في نمو الإنتاجية لعقود.

"الذكاء الاصطناعي عبارة عن منصة تكنولوجية واسعة ذات وعد كبير. يمكن استخدامه لمساعدة الإنتاجية البشرية وإنشاء مهام بشرية جديدة ، ولكن يمكن أن يؤدي إلى تفاقم نفس الاتجاهات إذا استخدمناها فقط للأتمتة ، "قال للجنة الميزانية بمجلس النواب. "الأتمتة المفرطة ليست تطورا حتميا. إنها نتيجة اختيارات ، ويمكننا اتخاذ خيارات مختلفة ".

لتجنب الأتمتة المفرطة ، دعا Acemoglu وزميله الباحث في جامعة بوسطن ، باسكوال ريستريبو ، في مقال NBER هذا لعام 2018 ، إلى إصلاحات قانون الضرائب الأمريكي ، لأنه يفضل حاليًا رأس المال على العمالة البشرية. كما أنهم يدعون إلى مؤسسات أو سياسات جديدة أو معززة لضمان الازدهار المشترك ، وكتبوا: "إذا لم نجد طريقة لتحقيق الازدهار المشترك من مكاسب الإنتاجية التي يولدها الذكاء الاصطناعي ، فهناك خطر من أن رد الفعل السياسي لهذه التقنيات الجديدة قد إبطاء تبنيها وتطويرها أو حتى إيقافها تمامًا ".

تتضمن أحداث هذا الأسبوع تعقيدات مثل عمل الروبوتات والبشر معًا ونماذج لغوية بمليارات من المعلمات ، ولكن يبدو أنها تطرح سؤالًا بسيطًا: "ما هو الذكاء؟" بالنسبة لي ، فإن العمل لمدة 90 ساعة في الأسبوع ليس بالذكاء. ولا يتم تكريس التحيز أو الصور النمطية مع النماذج اللغوية أو عدم مراعاة تأثير الأتمتة المفرطة. يأخذ الذكاء الحقيقي في الاعتبار التكاليف والعواقب طويلة المدى ، والسياق التاريخي والاجتماعي ، وكما عبرت سارة أوكونور ، يتأكد من أن "الروبوتات تعمل لصالحنا ، وليس العكس."

لتغطية منظمة العفو الدولية ، أرسل نصائح إخبارية إلى خاري جونسون و كايل ويجرس ومحرر AI سيث كولانر - وتأكد من الاشتراك في النشرة الأسبوعية لمنظمة العفو الدولية وقم بوضع إشارة مرجعية على قناة الذكاء الاصطناعي الخاصة بنا ، آلة.

شكرا للقراءة،

خاري جونسون

كاتب أول في منظمة العفو الدولية

VentureBeat

تتمثل مهمة VentureBeat في أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول التكنولوجيا التحويلية والمعاملات. يقدم موقعنا معلومات أساسية حول تقنيات واستراتيجيات البيانات لإرشادك وأنت تقود مؤسساتك. ندعوك لتصبح عضوًا في مجتمعنا ، للوصول إلى:

  • معلومات محدثة عن الموضوعات التي تهمك
  • رسائلنا الإخبارية
  • محتوى رائد الفكر وإمكانية وصول مخفضة إلى أحداثنا الثمينة ، مثل Transform
  • ميزات الشبكات والمزيد

تصبح عضوا

المصدر: https://venturebeat.com/2021/02/12/ai-weekly-techno-utopianism-in-the-workplace-and-the-threat-of-excessive-automation/

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة