شعار زيفيرنت

اتهم GitHub بتغيير إخراج مساعد الطيار لتجنب حقوق الطبع والنشر

التاريخ:

يُزعم أن GitHub قام بضبط مساعد برمجة Copilot الخاص به لإنشاء اختلافات طفيفة في رمز التدريب المبتلع لمنع وضع علامة على المخرجات كنسخة مباشرة من البرنامج المرخص.

ظهر هذا التأكيد يوم الخميس في شكوى معدلة [PDF] ضد Microsoft و GitHub و OpenAI على Copilot's موثق الميل لإعادة إنتاج التعليمات البرمجية المرخصة مفتوحة المصدر والمنشورة بشكل عام للمطورين.

الدعوى، قدمت في البداية في نوفمبر الماضي نيابة عن أربعة مدعين غير محددين ("J. Doe") ، يدعي أن Copilot - أداة اقتراح رمز تم إنشاؤها من نموذج Codex الخاص بـ OpenAI وتم تسويقها بواسطة GitHub من Microsoft - تم تدريبها على التعليمات البرمجية المنشورة بشكل عام بطريقة تنتهك قانون حقوق النشر ومتطلبات ترخيص البرامج وأنه يقدم رمز الآخرين على أنه رمز خاص به.

Microsoft و GitHub و OpenAI حاول لرفض القضية ، ولكن تمكنت فقط من التخلص من بعض المطالبات. ترك القاضي قضايا حقوق النشر والتراخيص الرئيسية كما هي ، وسمح للمدعين بإعادة تقديم عدة مطالبات أخرى بمزيد من التفاصيل.

الشكوى المعدلة - التي تغطي الآن ثماني تهم بدلاً من اثنتي عشرة - تحتفظ بالاتهامات بانتهاك قانون الألفية الجديدة لحقوق طبع ونشر المواد الرقمية ، وخرق العقد (انتهاكات ترخيص المصدر المفتوح) ، والإثراء غير العادل ، ومطالبات المنافسة غير العادلة.

ويضيف العديد من الادعاءات الأخرى بدلاً من تلك التي تمت إعادتها للمراجعة: خرق العقد (بيع المواد المرخصة في انتهاك لسياسات GitHub) ، والتدخل المتعمد في العلاقات الاقتصادية المحتملة والتدخل الإهمال في العلاقات الاقتصادية المحتملة.

تضيف الشكوى المنقحة "J. Doe "المدعي الذي يُزعم أن مساعد الطيار قد أعاد إنتاجه. وهي تتضمن عينة من التعليمات البرمجية التي كتبها المدعون والتي من المفترض أن Copilot قد نسخها حرفياً ، على الرغم من أنه تم تنقيح عينات الشفرة من أجل المحكمة فقط من أجل منع التعرف على المدعين.

سمح القاضي المشرف على القضية للمدعين بالبقاء مجهولين في ملفات المحكمة بسبب تهديدات ذات مصداقية بالعنف [PDF] موجه لمحاميهم. السجل يفهم أن المدعين معروفون للمدعى عليهم.

خطة ماكرة؟

جاء في الإيداع القانوني يوم الخميس أنه في يوليو 2022 ، رداً على الانتقادات العامة لـ Copilot ، قدمت GitHub مرشح Copilot قابل للتعديل بواسطة المستخدم يسمى "الاقتراحات المطابقة للرمز العام" لتجنب رؤية اقتراحات البرامج التي تكرر عمل الآخرين.

"عند تمكين عامل التصفية ، يتحقق GitHub Copilot من اقتراحات الكود مع الكود المحيط الذي يبلغ حوالي 150 حرفًا مقابل الرمز العام على GitHub" ، وثائق GitHub ويوضح. "إذا كان هناك تطابق أو شبه مطابق ، فلن يظهر الاقتراح لك."

ومع ذلك ، تؤكد الشكوى أن المرشح لا قيمة له أساسًا لأنه يتحقق فقط من المطابقات الدقيقة ولا يفعل شيئًا لاكتشاف المخرجات التي تم تعديلها بشكل طفيف. في الواقع ، يشير المدعون إلى أن GitHub تحاول الإفلات من انتهاكات حقوق النشر والتراخيص من خلال تغيير إخراج Copilot بحيث لا يبدو أنه قد تم نسخه بالضبط.

تقول الشكوى المعدلة: "في أيدي GitHub ، يعد الميل إلى اختلافات تجميلية صغيرة في إخراج Copilot ميزة وليست خطأ". "تعني هذه الاختلافات التجميلية الصغيرة أن GitHub يمكنها أن تقدم لعملاء Copilot نسخًا معدلة غير محدودة من المواد المرخصة دون تشغيل مرشح الكود الحرفي الخاص بـ Copilot."

يشير ملف المحكمة إلى أن نماذج التعلم الآلي مثل Copilot لها معلمة تتحكم في مدى اختلاف المخرجات.

"فيما يتعلق بالمعلومات والاعتقاد ، قام GitHub بتحسين إعداد درجة حرارة Copilot لإنتاج اختلافات تجميلية صغيرة من المواد المرخصة قدر الإمكان ، بحيث يمكن لـ GitHub تسليم التعليمات البرمجية لمستخدمي Copilot التي تعمل بنفس طريقة الشفرة الحرفية ، مع ادعاء أن Copilot لا تنتج سوى رمز حرفي واحد بالمائة من الوقت "، تقول الشكوى المعدلة. "مساعد الطيار هو طريقة بارعة لقرصنة البرامج."

أصر GitHub من Microsoft في رسالة بريد إلكتروني على خلاف ذلك.

قال متحدث باسم الشركة: "نعتقد اعتقادًا راسخًا أن الذكاء الاصطناعي سيغير الطريقة التي يبني بها العالم البرمجيات ، مما يؤدي إلى زيادة الإنتاجية والأهم من ذلك ، مطورين أكثر سعادة". السجل. "نحن على ثقة من أن Copilot يلتزم بالقوانين المعمول بها ونحن ملتزمون بالابتكار بمسؤولية مع Copilot منذ البداية. سنستمر في الاستثمار والدعوة لتجربة مطور المستقبل المدعوم بالذكاء الاصطناعي. "

لم ترد شركة أوبن إيه آي على طلب للتعليق. ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟