شعار زيفيرنت

الملكية الفكرية جزء لا يتجزأ من تنظيم الذكاء الاصطناعي ، والخطأ في الأمر سيوفر المزيد من القوة لشركات التكنولوجيا الكبرى

التاريخ:

مجمع حقوق التأليف والنشر الروبوت الشريرتدرس الحكومات في جميع أنحاء العالم كيف يمكنها - ويجب عليها - تنظيم تطوير ونشر تقنيات الذكاء الاصطناعي (AI) القوية والمدمرة بشكل متزايد. أستراليا ليست استثناء. في 1 يونيو 2023 ، أ أعلنت الحكومة الأسترالية الإفراج عن صحيفتين تهدف إلى المساعدة في "ضمان نمو تقنيات الذكاء الاصطناعي (AI) في أستراليا بشكل آمن ومسؤول". أول هؤلاء هو تقرير الاستجابة السريعة: الذكاء الاصطناعي التوليدي، الذي تم تكليفه من قبل المجلس الوطني للعلوم والتكنولوجيا الأسترالي بناءً على طلب من وزير الصناعة والعلوم ، إد هوسيك ، في فبراير الماضي. ال تقرير الاستجابة السريعة يقيم المخاطر والفرص المحتملة فيما يتعلق بالذكاء الاصطناعي ، ويهدف إلى توفير أساس علمي للمناقشات حول الطريق إلى الأمام. الورقة الثانية هي الذكاء الاصطناعي الآمن والمسؤول في أستراليا ورقة مناقشة والتي ، وفقًا للبيان الإعلامي للوزير ، "تستطلع الاستجابات التنظيمية والحوكمة الحالية في أستراليا وخارجها ، وتحدد الثغرات المحتملة وتقترح عدة خيارات لتعزيز الإطار الذي يحكم الاستخدام الآمن والمسؤول للذكاء الاصطناعي."

تسعى ورقة المناقشة للحصول على تعليقات حول كيف يمكن لأستراليا معالجة المخاطر المحتملة للذكاء الاصطناعي. ويقدم نظرة عامة على حوكمة وتنظيم الذكاء الاصطناعي على الصعيدين المحلي والدولي ، ويحدد الثغرات المحتملة والآليات الإضافية - بما في ذلك اللوائح والمعايير والأدوات والأطر والمبادئ وممارسات الأعمال - لدعم تطوير واعتماد الذكاء الاصطناعي. يركز على ضمان استخدام الذكاء الاصطناعي بأمان ومسؤولية ، لكنه لا يأخذ في الاعتبار جميع القضايا المتعلقة بالذكاء الاصطناعي ، مثل آثار الذكاء الاصطناعي على سوق العمل والمهارات ، أو الأمن القومي ، أو استخدامات الذكاء الاصطناعي الخاصة بالجيش.

مجال رئيسي آخر هو صراحة استبعاد من هذه المشاورة ملكية فكرية. وهذا ، في رأيي ، عيب خطير. يبدو أنه يفترض أن IP يمكن فصله بطريقة ما عن القضايا الأخرى التي تغطيها ورقة المناقشة. هذا افتراض خاطئ ، لا سيما فيما يتعلق بالممارسات التجارية. في العالم المعاصر ، تقع الملكية الفكرية في صميم العديد من الممارسات التجارية ، ويمكن أن تكون القوانين واللوائح التي نضعها حول الملكية الفكرية هي الفرق بين ممارسة تجارية قابلة للاستمرار وممارسة لا يمكن الدفاع عنها. وليست كل ممارسة تجارية قد يتم تمكينها بموجب قوانين الملكية الفكرية مرغوبة بالضرورة أو ذات فائدة صافية للمجتمع. إذا فشلنا في النظر في التفاعل بين قوانين الملكية الفكرية وممارسات الأعمال وأشكال التنظيم الأخرى ، فإننا نجازف بارتكاب أخطاء قد يكون من الصعب للغاية التراجع عنها في المستقبل.

تمت المطالبة بهذه المقالة من خلال عملية التشاور الأسترالية ، ولكنها لا تتعلق بها في المقام الأول (على الرغم من أنني سأعود إلى ذلك في النهاية). يتعلق الأمر بكيفية عمل حقوق الملكية الفكرية وأشكال التنظيم الأخرى لتركيز مستويات متزايدة من القوة في أيدي عدد قليل من شركات التكنولوجيا الكبرى - مثل Microsoft (من خلال شراكتها مع OpenAI) و Google و Amazon - التي نشأت في في السنوات الأخيرة كلاعبين مهيمنين في الذكاء الاصطناعي وتقنياته التمكينية. بناءً على التطورات الأخيرة ، أعتقد أنه تم بالفعل تمهيد الطريق لتنفيذ بالضبط أنواع القوانين واللوائح التي من شأنها أن تفيد هذه الشركات بأكبر قدر ممكن ، تحت ستار حماية المبتكرين وصانعي المحتوى وعامة الناس من التهديدات المختلفة. ليتم تقديمها بواسطة منظمة العفو الدولية.

عاصفة كاملة تختمر. يمكن أن تتحد اللوائح المرهقة حول تطوير أنظمة الذكاء الاصطناعي وتدريبها ونشرها مع القيود القائمة على بروتوكول الإنترنت على استخدام بيانات التدريب ، وعلى مخرجات الذكاء الاصطناعي ، للاستفادة من ميزة أغنى الشركات في العالم وأفضلها مواردًا. تتغذى العاصفة من الضجيج وإثارة الخوف التي ، على الرغم من أن الكثير منها قد يكون حسن النية ، إلا أنه يخدم مصالح التكنولوجيا الكبيرة. 

حقوق الملكية الفكرية وفن السرقة

يبدو أنه كلما تم توسيع أو "تعزيز" قوانين الملكية الفكرية ، فإن المشرعين والسلطات ذات الصلة قد أشادوا بذلك باعتباره مفيدًا للمبدعين والمبتكرين. ومع ذلك ، فإن الواقع يختلف تمامًا عن هذا النموذج المثالي الطوباوي. في كتابهم الأخير ، Chokepoint الرأسماليةوريبيكا جيبلين وكوري دوكتورو يشرحون الطرق التي لا تعد ولا تحصى التي يستخدمها عدد ضئيل من الشركات العملاقة في اقتناص نصيب الأسد من الأرباح عبر الصناعات الإبداعية والإنترنت من خلال إنشاء "نقاط اختناق" بين المبدعين والمستهلكين. كل واحد منا يساهم بعملتنا المكتسبة بشق الأنفس إلى Google (بما في ذلك YouTube) ، Facebook / Meta ، Apple ، Amazon ، Spotify ، العلامات الثلاثة الرئيسية التي تتحكم في تسجيل الموسيقى ونشرها ، الشركات الخمس التي تتحكم في النشر التجاري للكتب ، الشركة الوحيدة (iHeartMedia) التي تهيمن على البث الإذاعي الأمريكي وتنشر بشكل متزايد مخالبها في جميع أنحاء العالم ، والشركة الوحيدة (Live Nation Entertainment) التي تنشط في تنظيف صناعة الموسيقى الحية. ولا يوجد مكان قريب بما فيه الكفاية من أموالنا - وربما أقل بكثير مما تعتقد - ينتهي به الأمر في الحسابات المصرفية للفنانين المبدعين الذين نعتقد أننا ندعمهم من خلال رعايتنا.

(الإفصاح الكامل: يقع مكتب ريبيكا بالقرب من مكتبي بكلية الحقوق في ملبورن. لكن هذا ليس سبب إخباري بذلك Chokepoint الرأسمالية كتاب ممتاز وجذاب وعليك شرائه وقراءته. في حال كنت تتساءل ، فقد دفعت مقابل نسختي بنفسي - ومن المفارقات ، في إصدار Kindle!)

لم يكن إطالة مدة أو نطاق أو قوة قوانين حقوق الطبع والنشر - على الأقل في العصر الحديث - ذا فائدة للغالبية العظمى من المبدعين لأعمال حقوق النشر القيمة. كما قال Giblin و Doctorow ببراعة ، "إن منح المزيد من حقوق الطبع والنشر للمبدعين الذين يكافحون ضد المشترين الأقوياء يشبه تقديم المزيد من أموال الغداء لطفلك الذي يتعرض للتنمر". لا يزال المتنمرون يسرقون أموال غداء طفلك ، لكن الآن يجعل هؤلاء المتنمرين أكثر ثراءً! هذا هو بالضبط ما حدث عندما ثبت أن أخذ عينات الموسيقى كان انتهاكًا لحقوق الطبع والنشر. قد تعتقد أن هذا كان سيشكل خبراً ساراً للفنانين الذين تم أخذ عينات من أعمالهم ، بينما ، في الواقع ، كان ذلك في الغالب أخبارًا رائعة للعلامات القوية التي ادعت أو اكتسبت على الفور ملكية الحقوق ذات الصلة وبدأت في تفريغ العين- سقي رسوم الترخيص ، مع استخدام المحاسبة الإبداعية وشروط العقد الاستغلالية للاحتفاظ بمعظم العائدات لأنفسهم.

في الذكاء الاصطناعي ، يعتبر التحكم في المحتوى قوة

نحن نشهد بالفعل علامات على كيفية ظهور نقاط الاختناق في مجال تقنية الذكاء الاصطناعي. على سبيل المثال ، فيما يتعلق بصناعة الرسوم التوضيحية للأسهم ، هناك بعض الأدلة أن أعمال ترخيص الصور يهيمن عليها عدد صغير نسبيًا من مقدمي الخدمة: بشكل أساسي Shutterstock ؛ Getty Images (بما في ذلك iStock) ؛ و Adobe Stock. تعمل اثنتان من هذه الشركات بالفعل مع أنظمة الذكاء الاصطناعي التوليدية ، وإن كان ذلك بطرق مختلفة إلى حد كبير.

من ناحية ، أبرمت Shutterstock شراكة مع OpenAI في تدريب واستخدام OpenAI نظام الذكاء الاصطناعي التوليدي للنص إلى الصورة DALL-E. بموجب هذا الترتيب ، يوفر Shutterstock صورًا (ونصًا وصفيًا مرتبطًا بها) من قاعدة بياناته لاستخدامها بواسطة OpenAI في تدريب نماذج DALL-E. وفي الوقت نفسه ، يمكن لمستخدمي Shutterstock الوصول إلى DALL-E لإنشاء صور بناءً على المطالبات النصية. على الرغم من أن هذا قد يؤدي إلى خسارة إيرادات الفنانين إذا اختار المستخدمون صورًا مخصصة تم إنشاؤها بواسطة الذكاء الاصطناعي بدلاً من أعمال الفنانين ، فقد وعد Shutterstock بتعويض الفنانين عن استخدام عملهم في تدريب نماذج الذكاء الاصطناعي (من المفترض أن يكون ذلك من رسوم الترخيص المدفوعة إلى Shutterstock بواسطة OpenAI).

من ناحية أخرى، رفعت Getty Images دعوى قضائية ضد Stability AI بسبب (من بين أمور أخرى) انتهاك حقوق النشرالاستقرار AI يصف نفسه باعتبارها "الشركة الرائدة عالميًا في مجال الذكاء الاصطناعي التوليدي مفتوح المصدر" بهدف "تعظيم إمكانية الوصول إلى الذكاء الاصطناعي الحديث لإلهام الإبداع والابتكار العالميين". تم إصدار النسخة الأولى من نموذجها التحويلي للنص إلى صورة ، Stable Diffusion ، في أغسطس 2022. تزعم Getty Images أن Stability AI قد تورط في "انتهاك صارخ للملكية الفكرية لـ Getty Images على نطاق مذهل" من خلال نسخ أكثر من 12 مليون صورة من قاعدة بياناته بدون إذن أو تعويض. 

لا يمكن أن يكون التناقض بين نماذج الأعمال الخاصة بـ OpenAI و Stability AI أكثر وضوحًا. OpenAI - على الرغم من اسمها - ليست سوى مفتوحة ، ولم تصدر كود مصدر DALL-E أو نماذج مدربة للجمهور. محتويات مجموعات بيانات التدريب الخاصة بها غير معروفة ، وكذلك تفاصيل صفقتها مع Shutterstock. يحتوي هذا على كل السمات المميزة لنقطة الاختناق في الصنع. من ناحية ، لدينا فنانون يسعون إلى كسب لقمة العيش من صورهم ، بينما لدينا من ناحية أخرى المستهلكون المحتملون لخدمات الذكاء الاصطناعي التوليفية. وفي المنتصف ، OpenAI - حارس البوابة لخدمات الذكاء الاصطناعي التوليدية الخاصة بها - بالشراكة مع Shutterstock - المتحكم في واحدة من أكبر مجموعات صور الأسهم على هذا الكوكب - مع فرصة محتملة لقفل جانبي السوق ، إذا هم فقط يمكن أن يصبحوا مهيمنين بما فيه الكفاية.

وفي الوقت نفسه ، فتحت شركة Stability AI (التي تقدم أيضًا خدمات ذكاء اصطناعي مدفوعة الأجر) شفرة المصدر ونماذجها ، والتي تم تدريبها بوضوح باستخدام النصوص والصور المأخوذة من الإنترنت (بما في ذلك ، على ما يُزعم ، موقع Getty Images على الويب) مع تجاهل واضح لأي قضايا حقوق التأليف والنشر التي قد يثيرها هذا. يساعد إصدار النماذج المدربة الشركات الأخرى على دخول السوق ، حتى لو لم يكن لديهم الموارد المالية أو الحاسوبية لتدريب النماذج بأنفسهم ( تم الإبلاغ عن أن عمليات Stability AI ونفقات السحابة تجاوزت 50 مليون دولار أمريكي، قبل جمع 101 مليون دولار أمريكي في تمويل المشاريع في أكتوبر 2022). ولكن إذا نجحت Getty Images في إثبات انتهاك حقوق الطبع والنشر الخاصة بها في تدريب النماذج ، فمن المحتمل أنه سيتعين سحبها ، مما يؤدي إلى تقطع السبل بأي شخص كان يحاول بناء مشروع تجاري قائم على نماذج Stability AI المفتوحة. وهذا من شأنه أن يعيد نصيب الأسد من القوة إلى مجمعي حقوق الطبع والنشر ، وشركات الذكاء الاصطناعي الكبيرة ، التي تم جمع أموالها ، والتي هي الأفضل لتقديم صفقات جذابة لهم.

ألاحظ ، بشكل عابر ، أن دعاوى جماعية لانتهاك حقوق الطبع والنشر قد تم إطلاقها أيضًا في الولايات المتحدة بواسطة مطوري البرامج ضد GitHub و Microsoft و OpenAIو من قبل فنانين ضد Stability AI و DeviantArt و Midjourney. ربما يتعين على المدعين في هذه الحالات توخي الحذر فيما يرغبون فيه - في حين أنهم قد يسعون للحصول على السيطرة والتعويض للمبدعين ، فإن أي نجاح قد يحققونه من المرجح أن يصب في مصلحة مجمعي حقوق الطبع والنشر.

طوبى للمخوفين ، لأنهم سيؤثرون الهلع!

هناك القليل الذي يشجع على العمل المتسرع وغير المدروس بشكل أكثر فاعلية من الخوف وعدم اليقين والشك (FUD). ولم يكن هناك نقص في FUD الناتج عن التطورات الأخيرة في الذكاء الاصطناعي. بالطبع ، كان الكثير من هذا نتيجة لمستوى مفهوم من الجهل العام حول هذه التقنيات شديدة التعقيد ، وكيفية عملها. لكن بعض الخوف يُثار من قبل أشخاص ربما كنت تعتقد أنه يجب أن يعرفوا بشكل أفضل ، والذين تضفي أوراق اعتمادهم وسمعتهم تعليقاتهم بسلطة وتأثير معززين.

ربما تكون قد سمعت قصة حديثة عن خطاب ألقاه العقيد تاكر 'سينكو' هاميلتون ، رئيس اختبار وعمليات الذكاء الاصطناعي بالقوات الجوية الأمريكية ، في قمة القدرات القتالية الجوية والفضائية المستقبلية ، حيث روى حكاية حول محاكاة تم فيها قتلت طائرة بدون طيار يتحكم فيها الذكاء الاصطناعي "مشغلها" (المحاكي) عندما تدخلت في هدفها الرئيسي ("قتل العدو") من خلال محاولة الأمر بذلك ليس لقتل العدو. المشكلة الوحيدة في هذه القصة أنها لم تحدث بالفعل - نفت القوات الجوية الأمريكية ذلك لاحقًا ، وقال العقيد هاميلتون منذ ذلك الحين إنه "أخطأ في الكلام"، وأنه كان يقدم فقط "تجربة فكرية" افتراضية نشأت خارج الجيش. ال المشكلة مع ومع ذلك ، فإن هذه المشكلة في القصة هي أن بعض وسائل الإعلام اختارت اللعب على عدم الثقة العامة للتشكيك في النفي - على سبيل المثال ، ذهب السجل مع "من يعلم؟"، في حين news.com.au ، كما هو متوقع إلى حد ما ، احتفظ بعنوانه الأصلي المثير للقلق ("طائرة بدون طيار AI تقتل مشغلها في المحاكاة") ، وقللت من أهمية الإنكار باعتباره "التحكم في الضرر"، وضع اللوم بشكل مباشر على القوات الجوية الأمريكية بدلاً من فشل الصحافة الذي هو في الواقع.

لسوء الحظ ، في هذه المرحلة ، أصبح الصحفيون والجمهور مهيئين بالفعل لتصديق هذه الأنواع من القصص ، بدلاً من معاملتهم بالشك الذي يستحقونه. 

متى قيل لنا أن أكثر من 1,000 شخص ، بما في ذلك Elon Musk والعديد من "خبراء الذكاء الاصطناعي"، قد وقعت على رسالة مفتوحة نشرها معهد مستقبل الحياة بما في ذلك المخاوف من أن "العقول غير البشرية ... قد يفوقنا عددًا في نهاية المطاف ، ويتفوقون علينا ، ويتقادمون ، ويحلون محلنا" وأننا "نجازف بفقدان السيطرة على حضارتنا" ، فليس من المستغرب أن يستنتج الكثير منا أن هذه تهديدات حقيقية وحالية.

متى قيل لنا عن دراسة أجرتها جامعة ستانفورد وجدت أن أكثر من ثلث الباحثين يعتقدون أن الذكاء الاصطناعي يمكن أن يؤدي إلى "كارثة على المستوى النووي"الطرق أو قيل لنا أن أحد "عرّاب الذكاء الاصطناعي" ، جيفري هينتون ، قد استقال من منصبه في Google من أجل التحدث بحرية عن التهديدات التي يشكلها الذكاء الاصطناعي ، ومقارنتها بـ "الأسلحة النووية" ، ليس من غير المعقول افتراض أن الذكاء الاصطناعي يشكل تهديدًا يمكن مقارنته بالأسلحة النووية. بعد كل شيء ، إذا كان جيفري هينتون لا يعرف أشياءه حول هذا الموضوع ، فمن يعرف ؟!

متى تم إخبارنا عن مهندسي Microsoft - الذين عملوا مع GPT-4 لأشهر قبل إصداره للجمهور أثناء دمجه في محرك بحث Bing - وخلصوا إلى أن GPT-4 تظهر علامات مبكرة على "الذكاء العام الاصطناعي" (AGI)، إذن لماذا لا نعتقد أننا بصدق الآن على وشك تطوير الذكاء الاصطناعي العام؟ على الرغم من الإنصاف ، كان هناك عدد من وسائل الإعلام - بما في ذلك نائبأطلقت حملة نيويورك تايمزو الشرق الأوسط، من بين أمور أخرى - التي سعت إلى وجهات نظر بديلة وتعاملت مع ادعاءات "رفع الحاجب" هذه بالشك الذي تستحقه بحق.

من الصعب أن نفهم سبب قيام العديد من الأشخاص ذوي الخبرة والمعرفة بدور نذير هلاكنا الوشيك على أيدي أجهزة افتراضية فائقة الذكاء. من المؤكد أنهم ليسوا كل شيء بالنسبة لعمالقة التكنولوجيا ، ويبدو أن معظمهم مخلصون تمامًا. ربما هناك شيء ما التفسير الذي قدمه المحلل الكمبري للذكاء الاصطناعي ألبرتو روميرو، الذي يفترض بشكل مقنع أن هناك عنصرًا من عناصر التفكير الجماعي شبه الديني متضمن: "إنهم من نوع غير عادي مع إيمان غير مألوف ... مبني على منطق سطحي ولكن يصعب كشف زيفه والذي أقنعوا به أنفسهم ليكونوا متنبئين في العصر الحديث بمستقبل في أفضل حالاته بشكل استثنائي المجيد ، وفي أسوأ حالاته ، الفصل الختامي.

مهما كانت الدوافع ، فإن إثارة الخوف كانت فعالة ، وهي تلعب بشكل جيد في أيدي شركات التكنولوجيا الكبرى التي استثمرت حتى الآن أكثر - وتأمل بطبيعة الحال في تحقيق أقصى استفادة من تكنولوجيا الذكاء الاصطناعي.

حذار من Geeks Bearing Grifts

نظرًا لأن كل FUD يحيط الآن بالذكاء الاصطناعي ، فإن الحكومات تتعرض لضغوط متزايدة (يُنظر إليها على أنها) تتخذ إجراءات لحماية المواطنين المعنيين من الأضرار المحتملة التي قد يسببها الذكاء الاصطناعي. في 16 مايو 2023 ، الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، يمثل أمام اللجنة القضائية الفرعية التابعة لمجلس الشيوخ الأمريكي، اقترح أن "حكومة الولايات المتحدة قد تنظر في مزيج من متطلبات الترخيص والاختبار لتطوير وإصدار نماذج الذكاء الاصطناعي التي تتجاوز عتبة القدرات." يبدو ذلك غريبا. منذ متى كانت شركات التكنولوجيا الأمريكية تعمل بشكل علني صالح من الخضوع للوائح حكومية إضافية؟ ما لم يفيدهم بالطبع. في الواقع ، كلما رأيت أشخاصًا أو منظمات قوية بالفعل تضغط من أجلها الأكثر من ذلك التنظيم ، فهو رهان آمن بشكل عام المستأجرون. لنرى كيف يمكن تطبيق ذلك هنا ، نحتاج إلى إلقاء نظرة عن كثب على أحدث التقنيات في نماذج اللغات الكبيرة (LLMs) ، مثل GPT-3 و GPT-4 ، والاتجاه الذي يبدو أن التكنولوجيا تتطور فيه .

حتى الآن ، اعتمد تطوير المزيد من LLMs الأكثر إثارة للإعجاب في الغالب على مبدأ "الأكبر هو الأفضل". في ورقتهم لعام 2020 التي تقدم GPT-3 ، نماذج اللغة هم متعلمون قليلو الطلقات، كشف باحثو OpenAI أن النموذج الذي يقوم عليه الإصدار المجاني الأولي من ChatGPT يحتوي على 175 مليار معلمة ، وتم تدريبه على مجموعة بيانات تضم 300 مليار رمز (في هذا السياق ، يكون "الرمز المميز" عادةً كلمة أو جزء من كلمة أو رمز الترقيم في النص المستخدم للتدريب). تختلف تقديرات متطلبات التدريب الفعلية ، ولكن من المؤكد أن هناك حاجة إلى نظام أساسي للأجهزة يحتوي على الآلاف من وحدات المعالجة المتطورة (بقيمة تصل إلى 10,000 دولار لكل قطعة) ، مع قياس أوقات التدريب بالأسابيع ، وإجمالي تكاليف الحساب التي تم قياسها في ملايين الدولارات - كلها ، في حالة OpenAI ، قدمتها وتمولها Microsoft.

القليل جدًا معروف على وجه اليقين حول GPT-4. كما ورد في OpenAI's التقرير الفني GPT-4، [g] نظرًا لكل من المشهد التنافسي والآثار الأمنية للنماذج واسعة النطاق مثل GPT-4 ، لا يحتوي هذا التقرير على مزيد من التفاصيل حول البنية (بما في ذلك حجم النموذج) ، والأجهزة ، وحساب التدريب ، وبناء مجموعة البيانات ، وطريقة التدريب ، أو مشابه.' ولكن في حديث قدم في معهد ماساتشوستس للتكنولوجيا في 22 مارس 2023، أشار سيباستيان بوبيك من Microsoft (الذي ترأس الفريق المسؤول عن دمج GPT-4 في Bing) إلى أن حجم النموذج في حدود تريليون معلمة ، أي حوالي ستة أضعاف حجم GPT-3. مع التقدم في الأجهزة وتقنيات التدريب ، من المحتمل أن عدد وحدات المعالجة ووقت التدريب لن يكونا قد زادا بهذا المقدار. ومع ذلك ، فإن التكاليف الحسابية لأي شخص آخر لتدريب مثل هذا النموذج من شبه المؤكد أن تتجاوز بكثير عشرة ملايين دولار. وهذا لا يشمل التطوير والاختبار المسبقين - فأنت لا تقوم ببناء وتدريب أحد هذه النماذج الضخمة بنجاح في محاولتك الأولى!

أثناء تشغيل نموذج مدرب مسبقًا يتطلب موارد أقل بكثير من تدريب النموذج ، فإن متطلبات الأجهزة لتشغيل GPT-4 مهمة أيضًا. نموذج تريليون معلمة (على الأرجح) يتطلب XNUMX تريليون بايت ، أي XNUMX تيرابايت ، من الذاكرة - وليس مساحة التخزين / محرك الأقراص (على الرغم من ذلك أيضًا) ، ولكن الذاكرة الفعلية - عند الاستخدام ، بالإضافة إلى ذاكرة إضافية لتخزين المدخلات والمخرجات وبيانات العمل الأخرى. إذا تم تنفيذه باستخدام نفس وحدات المعالجة المتطورة المستخدمة في التدريب (على الأرجح وحدات معالجة الرسومات NVIDIA A100 بسعة 80 جيجابايت) ، فإن التكلفة الإجمالية للمكونات لبناء منصة أجهزة مناسبة لخدمة مثيل واحد من النموذج ستكون في حدود مليون دولار ، وستكون ذروة استهلاك الطاقة الناتجة حوالي 20 كيلو واط (مما يجعل تكييف الهواء اللائق مطلبًا أساسيًا أيضًا). ولخدمة آلاف المستخدمين في وقت واحد مع أوقات استجابة سريعة ، من المحتمل أن يحتاج إعداد الجهاز هذا إلى تكرار عشرات ، إن لم يكن مئات ، من المرات. لا عجب إذن أن OpenAI تجعل المستخدمين يدفعون مقابل الوصول المتميز إلى ChatGPT ، واستخدام واجهة برمجة التطبيقات ، وأن المستخدمين الذين لا يدفعون يتحملون الأداء المنخفض!

النقطة النهائية ، بالطبع ، هي أن عددًا قليلاً جدًا من المستخدمين النهائيين سيكونون في وضع يسمح لهم باستضافة مثيلهم الخاص لنموذج مثل GPT-4. بدلاً من ذلك ، سيعتمدون على مزودي الخدمات السحابية لاستضافة النماذج ، وتقديم خدمات متنوعة ، بنقاط أسعار مختلفة ، اعتمادًا على متطلبات المستخدم من حيث المعايير مثل الأداء وخصوصية البيانات والأمان. وأكبر مزودي الحوسبة السحابية هم بالطبع Microsoft (عبر نظامها الأساسي Azure) و Amazon (عبر Amazon Web Services و AWS) و Google (عبر Google Cloud Platform و GCP). من شأن ذلك أن يمنح هذه الشركات سيطرة افتراضية على توفير هذه الأنواع من خدمات الذكاء الاصطناعي.

ولكن ماذا لو كان من الممكن بناء نماذج أصغر غير مسجلة الملكية قادرة على تحقيق أداء مشابه لنماذج الوحش مثل GPT-4؟ كما يحدث ، هذا هو بالضبط الاتجاه الذي يسير فيه البحث حول LLM خارج OpenAI. في بحث نُشر في فبراير 2023 ، LLaMA: نماذج لغة أساسية مفتوحة وفعالة، أبلغ باحثو Meta (أي Facebook) عن نماذج تدريب بها ما لا يقل عن سبعة مليارات من المعلمات لتحقيق أداء مشابه لأكبر LLMs. علاوة على ذلك ، فقد فعلوا ذلك باستخدام "مجموعات البيانات المتاحة للجمهور حصريًا ، دون اللجوء إلى مجموعات بيانات خاصة ولا يمكن الوصول إليها" (كما فعلت OpenAI مع نماذج GPT الخاصة بها). وهم يزعمون أن إصدارًا من نموذج LLaMA يحتوي على 13 مليار معلمة يتفوق في الأداء على 175 مليار معلمة نموذج GPT-3 في معظم المعايير. 

لا تزال تكلفة التدريب لهذه النماذج الأصغر مرتفعة للغاية ، حيث تبلغ حوالي 5 ملايين دولار أمريكي (بافتراض 21 يومًا من التدريب على 2,048 وحدة معالجة رسومات A100 ، كما ورد في ورقة LLaMA). ولكن في "FU" ضخمة لـ OpenAI ، قامت Meta بفتح مصدر رمز التدريب الخاص بها ، وأصدرت جميع نماذجها المدربة لمجتمع البحث. بينما كان ينوي القيام بذلك بطريقة خاضعة للرقابة ، فإن المدربين تم تسريب أوزان النموذج بسرعة على الإنترنت، وإتاحتها للجميع.

تأتي نماذج LLaMA بشروط ترخيص تقيد الاستخدام التجاري. ومع ذلك ، هناك بالفعل مشاريع ، مثل RedPajama، جاريًا لتكرار نتائج Meta وإنشاء نماذج غير مثقلة بهذه القيود. في الوقت نفسه ، هناك عدد من الجهود الجارية لتمكين هذه النماذج الأصغر من العمل على سلعة رخيصة (نسبيًا) وأجهزة من فئة المستهلك. يمكنك الآن ، إذا كنت ترغب في ذلك ، تشغيل روبوت الدردشة الخاص بك المستند إلى LLM في المنزل ، على جهاز كمبيوتر تقل قيمته عن 3000 دولار. لن تكون جيدة مثل ChatGPT (جرب Q8-Chat من Intel على منصة Hugging Face للتعرف على ما هو ممكن في النهاية المنخفضة) ، ولكنه سيكون كذلك كله لك، خاص وآمن تمامًا ، وأفضل بكثير من أي شيء رأيته قبل نوفمبر 2022!

أتوقع أن هذه المشاريع البحثية المجتمعية ستنتصر ، ونتيجة لذلك ستفشل "Big AI" (مثل OpenAI / Microsoft و Google) في تأسيس احتكار شبه احتكار للخدمات المستندة إلى الذكاء الاصطناعي التي يأملونها بوضوح. ليحصل. (ولكن لصالح التوازن ، ألاحظ أنه لا يشارك الجميع تفاؤلي.) هناك شيء واحد فقط ، في رأيي ، يمكن أن يوقف هذا "إضفاء الطابع الديمقراطي" على LLM من الحدوث: التنظيم. إذا قدمت حكومة الولايات المتحدة بالفعل نظامًا للترخيص والاختبار لـ `` نماذج الذكاء الاصطناعي التي تتجاوز عتبة القدرات '' (مهما كان ذلك يعني) ، فلن تشكل عقبة حقيقية أمام شركات مثل OpenAI - لقد أمضوا بالفعل سنوات بناء سمعة باعتبارها "أمناء مسؤولين" على التكنولوجيا الخاصة بهم، ومن الواضح أن لديهم النفوذ الاقتصادي والسياسي لاختراق أي روتين تنظيمي. من ناحية أخرى ، ستواجه الشركات الصغيرة والمجموعات البحثية والمشاريع المجتمعية عقبات كبيرة في إثبات أوراق اعتمادها وحسن نيتها من أجل الحصول على الموافقة التنظيمية لتطوير ونشر أنظمة الذكاء الاصطناعي الخاصة بها.

ومع ذلك ، من المقلق أن مطحنة FUD تعمل لصالح منظمة العفو الدولية الكبيرة. في 6 يونيو 2023 ، أرسل عضوان من أعضاء اللجنة الفرعية للخصوصية والتكنولوجيا والقانون في مجلس الشيوخ خطابًا [PDF ، 187 كيلوبايت] إلى الرئيس التنفيذي لشركة Meta Mark Zuckerberg. تشير الرسالة ، دون أدنى شك ، إلى أن "تسرب" أوزان نموذج LLaMA كان نتيجة متوقعة وربما مقصودة ، وتطلب معلومات حول كيفية تقييم [Meta] لخطر إطلاق LLaMA ، وما هي الخطوات التي تم اتخاذها لمنع إساءة استخدام النموذج ، وكيف تقوم [ميتا] بتحديث سياساتها وممارساتها على أساس التوافر غير المقيد [للنموذج]. ' إن الآثار المترتبة على الأسئلة العديدة التي طُرحت على زوكربيرج في خطاب أعضاء مجلس الشيوخ واضحة - إذا لم يكن من الممكن الوثوق بالشركات للتصرف بمسؤولية فيما يتعلق بنماذج الذكاء الاصطناعي القوية ، فستحتاج الحكومة إلى التدخل لتنظيم سلوكها.

من الذي سيستفيد أكثر من حقوق الملكية الفكرية المتعلقة بالذكاء الاصطناعي؟

بالعودة إلى المناقشة حول الملكية الفكرية ، يمكن قول الشيء نفسه عن أي مقترحات "لتعزيز" حقوق الملكية الفكرية. قد يُزعم أن هذا لحماية مصالح المبدعين والمبتكرين ، ولكن في الواقع قد يمنح المزيد من القوة لشركات التكنولوجيا الكبيرة التي تحتكر القلة والتي ستسعى مرة أخرى إلى اكتساب وتجميع جميع الحقوق التي يمكنهم الحصول عليها ، وبتكلفة زهيدة. يمكنهم ، واستخدامها لاستخراج الإيجارات من بقيتنا في كل مرة نريد استخدام التكنولوجيا التي يتحكمون فيها.

إذا كان الترخيص مطلوبًا لاستخدام مواد حقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي ، فإن الأشخاص الوحيدين الذين سيكونون قادرين على تدريب نماذج الذكاء الاصطناعي هم أولئك الذين لديهم المال والنفوذ للتفاوض و / أو التقاضي و / أو الدفع مقابل الحصول على تراخيص لأحجام هائلة من المحتوى . التاريخ - و Chokepoint الرأسمالية - يعلمنا أن المبدعين لن يكونوا المستفيدين الرئيسيين من هذه التراخيص. يتم التحكم بالفعل في حقوق الموسيقى الأكثر قيمة من خلال عدد قليل من شركات التسجيل. إن حقوق الكتب الأكثر قيمة يتحكم فيها بالفعل عدد قليل من الناشرين ؛ يتم التحكم بالفعل في المحتوى الإخباري والتلفزيوني والأفلام الأكثر قيمة من قبل عدد قليل من الشركات الإعلامية ؛ يتم التحكم في قواعد بيانات الصور الأكثر فائدة وجيدة التنظيم من قبل عدد قليل من شركات الصور المالية ؛ ويتم إنشاء الجزء الأكبر من المحتوى المتبقي الموجود على الإنترنت من قبل الأفراد والشركات الذين قاموا ، ضمنيًا إن لم يكن صراحة ، بالتخلي عنه للعالم ليقوم به كما يحلو له.

لذا ، أولاً وقبل كل شيء ، فإن حماية استخدام مواد حقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي تضيف ببساطة مصدرًا آخر للدخل للشركات التي تستغل بالفعل نماذج الأعمال الخانقة ، دون أن يفيد مبدعو هذه المواد بشكل كبير. بمعنى آخر ، إنه يوفر فقط المزيد من أموال الغداء التي يمكن سرقتها من الأطفال الذين يتعرضون للتنمر!

ينطبق الأمر نفسه على الاعتراف بالذكاء الاصطناعي كمؤلف أو مخترع ، ومنح حقوق التأليف والنشر وبراءات الاختراع للإبداعات التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وجهة نظر ساذجة - مثل تلك التي روج لها Ryan Abbott و مشروع المخترع الاصطناعي - سيكون من شأنه أن "تحفيز إنشاء الملكية الفكرية من خلال تشجيع تطوير أجهزة الكمبيوتر الإبداعية، وإدراك قدرة أجهزة الكمبيوتر على "تجاوز المخترعين البشريين كمصدر أساسي للاكتشافات الجديدة". ولكن ، مرة أخرى ، تخبرنا التجربة أن حقوق الملكية الفكرية الأكثر قيمة لا ينتهي بها المطاف في نهاية المطاف إلى حيازة منشئوها من البشر ، ولكن من قبل الشركات التي توظف المبدعين البشريين أو التي تكتسب الحقوق لاحقًا. لقد ناقشت بالفعل أمثلة لمجمعي حقوق الطبع والنشر ، بينما توجد في مجال براءات الاختراع كيانات لتأكيد براءات الاختراع (PAEs) - أو أحيانًا ، على نحو مزعج ، "متصيدو" براءات الاختراع - الذين يجمعون الحقوق من أجل استخراج رسوم الترخيص من المنتهكين المزعومين. إذا كان بإمكان الذكاء الاصطناعي أن يخترع ، وقررنا منح حقوق براءات الاختراع للاختراعات التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، فهل لا نقوم فقط بإنشاء نموذج عمل جديد لـ "كيانات توليد براءات الاختراع"؟ 

قد يكون أبوت على حق. قد يؤدي منح حقوق التأليف والنشر وبراءات الاختراع للإبداعات التي يتم إنشاؤها آليًا إلى تحفيز تطوير الآلات الإبداعية. لكن هذه ليست النقطة الأكثر أهمية. ما يهم هو من يمتلك ويشغل تلك الحواسيب الإبداعية ومن يستفيد من إبداعاتها.

الخلاصة - الحاجة إلى نهج متكامل 

فقط لكي أكون واضحًا ، في حال بدا الأمر كما لو أنني أدافع عن فوضى الذكاء الاصطناعي ، وعدم التدخل تمامًا ، والخالية من التنظيم - لا شيء أبعد عن الحقيقة. نحتاج تمامًا إلى تنظيم الذكاء الاصطناعي. لكن أكثر ما يحتاج إلى التنظيم هو كيف يتم استخدامهعلى عكس كيفية تطويرها وتدريبها وتوزيعها. ليس هناك شك في أن الذكاء الاصطناعي يشكل مخاطر حقيقية على المجتمع البشري ورفاهيته ، مثل فقدان الوظائف ، وانتهاكات الخصوصية ، والتزييف العميق ، والتحيز الخوارزمي ، وأتمتة الأسلحة. يجب معالجة هذه المخاوف من خلال الاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي ، وسنطلب بلا شك تشريعات ولوائح لضمان عمل الشركات والباحثين والأفراد ضمن حدود متفق عليها - وأن هناك عواقب إذا لم يفعلوا ذلك.

لكن من غير المجدي محاولة إعادة الجني إلى الزجاجة من خلال محاولة التحكم في كيفية تطوير الذكاء الاصطناعي وتدريبه ومن قبل من. هذا ببساطة لا يمكن أن يعمل. بينما تفتقر معظم الشركات الصغيرة والمؤسسات البحثية والأفراد إلى الأموال والموارد اللازمة لبناء وتدريب نماذج ذكاء اصطناعي أكبر وأكثر تعقيدًا ، لا يوجد نقص في الجهات الفاعلة السيئة - بما في ذلك المنظمات الإجرامية والدول القومية المارقة - التي لديها القدرة على القيام بذلك. إذا قمنا بتجريم تدريب نماذج الذكاء الاصطناعي ، فلن يقوم سوى المجرمين بتدريب نماذج الذكاء الاصطناعي. سيتم استبعاد أي شخص آخر ، وسيكون تحت رحمة عدد صغير نسبيًا من شركات التكنولوجيا المهيمنة التي تم منحها التفويض و / أو القادرة على تأمين الوصول إلى الكميات الكبيرة من بيانات التدريب المطلوبة.

مع إصدار الكود مفتوح المصدر والنماذج المدروسة مسبقًا - سواء عن قصد أو بغير قصد - نشهد أولى علامات دمقرطة الذكاء الاصطناعي المعقد. ومع ذلك ، يريد اثنان من أعضاء مجلس الشيوخ المنتخبين ديمقراطياً من مارك زوكربيرج أن يشرح الخطوات التي اتخذتها Meta "لتتبع توزيع LLaMA وإعادة تعيين الغرض منها وإنهاء استخدامها ... بما في ذلك أي إشعارات إزالة وفقًا لقانون الألفية الجديدة لحقوق طبع ونشر المواد الرقمية ، وخطابات الإيقاف والكف ، أو جهود مماثلة." وإذا كانت القوانين الحالية غير مناسبة ، فأنا متأكد من أن أعضاء مجلس الشيوخ يمكن أن يبتكروا قوانين جديدة. على الرغم من أنني لا أرغب في وضع الأفكار في رؤوسهم ، فماذا عن جعلها إلزامية إضافة رمز التتبع والقتل إلى جميع النماذج الموزعة ، وتطبيق التشفير وإدارة الحقوق الرقمية (DRM) ، حتى محاولة فك تشفير وعكس هندسة نماذج عمل إجرامي محتمل؟ هل يوقف ذلك المجرمين أو عملاء العدو؟ لا ، لكن الأمر سيتوقف عن أي شخص آخر.

لذا ، إذا كان هذا هو المستقبل الذي نريده جميعًا ، فيجب علينا بكل الوسائل تنظيم تطوير وتدريب وتوزيع نماذج الذكاء الاصطناعي ، وضبط قوانين الملكية الفكرية لدينا لتأمين حقوق مدخلات التدريب ومخرجات النماذج المنتشرة. في الماضي القريب ، نجح هذا النوع من النهج جيدًا للتكنولوجيا الكبيرة ، ولكن ليس جيدًا للمجتمع على نطاق أوسع.

لكن بالعودة إلى المشاورات الأسترالية ، تقول الحكومة إن استبعاد الملكية الفكرية في ورقة المناقشة الحالية لا بأس به ، لأنها تتناول الملكية الفكرية في مبادرات أخرى ، مثل المائدة المستديرة الوزارية حول حق المؤلف، ومجموعة عمل الذكاء الاصطناعي التابعة لمجموعة سياسة الملكية الفكرية الأسترالية التابعة للملكية الفكرية. في حين أن كل هذا جيد جدًا ، لا تتضمن أي من هاتين المجموعتين تمثيلًا واسعًا لأصحاب المصلحة المهتمين بتكنولوجيا الذكاء الاصطناعي. يشمل المشاركون في المائدة المستديرة الوزارية معظم اللاعبين الكبار المعتادون في صناعات حق المؤلف ، مثل المذيعين العام والخاص والمؤسسات الإخبارية ، والهيئات التمثيلية للفيلم ، والموسيقى ، والفنون الأدائية ، وصناعات النشر ، ووكالة حقوق النشر. من الصعب الحصول على معلومات عن مجموعة سياسة الملكية الفكرية في أستراليا. كل ما أعرفه عن ذلك ، من خلال زملائي المحترفين ، هو أنه يضم ممثلين عن الجمعيات المهنية في مجال الملكية الفكرية FICPI ​​أستراليا و معهد محامي البراءات والعلامات التجارية الأسترالي (IPTA).

لذلك سيتعين عليك تبرير شكوكي في أن مبادرات الملكية الفكرية هذه ستولي الاعتبار الكافي للتفاعل بين قوانين الملكية الفكرية والإجراءات التنظيمية الأخرى وممارسات الأعمال. إن مراجعة دور قوانين الملكية الفكرية بمعزل عن غيرها ، في رأيي ، خطأ. حقوق الملكية الفكرية متضمنة مباشرة عبر خط أنابيب الذكاء الاصطناعي ، بدءًا من اختيار بيانات التدريب وتجميعها وحتى المخرجات الناتجة من النموذج النهائي المُدرَّب. لذلك يجب أيضًا دمجها في أي نهج لتنظيم الذكاء الاصطناعي ، لتجنب العواقب والتفاعلات غير المتوقعة بين قوانين الملكية الفكرية والجوانب الأخرى للإطار التنظيمي.

من خلال اتباع نهج مجزأ ، فإننا نجازف بإفساد تنظيم الذكاء الاصطناعي. لمرة واحدة ، دعونا نحاول عدم القيام بذلك.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة