Zephyrnet-Logo

GitHub wird vorgeworfen, die Copilot-Ausgabe variiert zu haben, um Urheberrechte zu umgehen

Datum:

GitHub soll seinen Copilot-Programmierassistenten so optimiert haben, dass geringfügige Variationen des aufgenommenen Trainingscodes generiert werden, um zu verhindern, dass die Ausgabe als direkte Kopie lizenzierter Software gekennzeichnet wird.

Diese Behauptung erschien am Donnerstag in der geänderte Beschwerde [PDF] gegen Microsoft, GitHub und OpenAI über Copilot dokumentiert Vorliebe für die Reproduktion öffentlich veröffentlichter, Open-Source-lizenzierter Codes von Entwicklern.

Die Klage, ursprünglich im November letzten Jahres eingereicht behauptet im Namen von vier nicht identifizierten („J. Doe“) Klägern, dass Copilot – ein Code-Vorschlagstool, das auf dem Codex-Modell von OpenAI basiert und von Microsofts GitHub kommerzialisiert wird – auf öffentlich veröffentlichte Codes in einer Weise trainiert wurde, die gegen das Urheberrecht und Softwarelizenzierungsanforderungen verstößt und dass es den Code anderer Leute als seinen eigenen darstellt.

Microsoft, GitHub und OpenAI versucht den Fall abzuweisen, schaffte es aber nur einige Behauptungen abschütteln. Der Richter ließ die wesentlichen Urheberrechts- und Lizenzfragen unberührt und erlaubte den Klägern, mehrere andere Ansprüche mit detaillierteren Angaben erneut einzureichen.

In der geänderten Klageschrift, die nun acht statt zwölf Anklagepunkte umfasst, werden weiterhin Vorwürfe wegen Verstoßes gegen den Digital Millennium Copyright Act, Vertragsbruch (Verstöße gegen Open-Source-Lizenzen), unlautere Bereicherung und Ansprüche wegen unlauterem Wettbewerb erhoben.

Anstelle der zur Überprüfung zurückgeschickten Vorwürfe werden mehrere weitere Vorwürfe hinzugefügt: Vertragsbruch (Verkauf lizenzierter Materialien unter Verstoß gegen die Richtlinien von GitHub), vorsätzliche Beeinträchtigung künftiger Wirtschaftsbeziehungen und fahrlässige Beeinträchtigung künftiger Wirtschaftsbeziehungen.

Die überarbeitete Beschwerde fügt einen zusätzlichen „J. Doe“-Kläger, dessen Code Copilot angeblich reproduziert hat. Und es enthält von den Klägern geschriebene Beispielcodes, die Copilot angeblich wörtlich reproduziert hat, allerdings nur für das Gericht – die Codebeispiele wurden redigiert, um zu verhindern, dass die Kläger identifiziert werden.

Der für den Fall zuständige Richter hat den Klägern aus diesem Grund gestattet, in den Gerichtsakten anonym zu bleiben glaubwürdige Androhung von Gewalt [PDF] an ihren Anwalt gerichtet. Das Register geht davon aus, dass die Kläger den Beklagten bekannt sind.

Ein raffinierter Plan?

In der Klageschrift vom Donnerstag heißt es, dass GitHub im Juli 2022 als Reaktion auf öffentliche Kritik an Copilot einen vom Benutzer anpassbaren Copilot-Filter namens „Vorschläge, die mit öffentlichem Code übereinstimmen“ eingeführt hat, um zu vermeiden, dass Softwarevorschläge angezeigt werden, die die Arbeit anderer Leute duplizieren.

„Wenn der Filter aktiviert ist, prüft GitHub Copilot Codevorschläge mit dem umgebenden Code von etwa 150 Zeichen mit öffentlichem Code auf GitHub“, heißt es in der Dokumentation von GitHub , erklärt. „Wenn es eine Übereinstimmung oder Beinahe-Übereinstimmung gibt, wird Ihnen der Vorschlag nicht angezeigt.“

In der Beschwerde wird jedoch behauptet, dass der Filter im Wesentlichen wertlos sei, da er nur nach exakten Übereinstimmungen suche und nichts unternehme, um leicht veränderte Ausgaben zu erkennen. Tatsächlich behaupten die Kläger, dass GitHub versucht, Urheberrechts- und Lizenzverletzungen zu entgehen, indem es die Ausgabe von Copilot so verändert, dass sie nicht den Anschein erweckt, als sei sie exakt kopiert worden.

„In den Händen von GitHub ist die Neigung zu kleinen kosmetischen Abweichungen in der Ausgabe von Copilot ein Feature und kein Fehler“, heißt es in der geänderten Beschwerde. „Diese kleinen kosmetischen Abweichungen bedeuten, dass GitHub Copilot-Kunden unbegrenzt modifizierte Kopien lizenzierter Materialien liefern kann, ohne jemals den Verbatim-Code-Filter von Copilot auszulösen.“

In der Gerichtsakte wird darauf hingewiesen, dass Modelle für maschinelles Lernen wie Copilot über einen Parameter verfügen, der das Ausmaß der Ausgabevariationen steuert.

„Nach bestem Wissen und Gewissen hat GitHub die Temperatureinstellung von Copilot optimiert, um so oft wie möglich kleine kosmetische Variationen der lizenzierten Materialien zu produzieren, sodass GitHub Copilot-Benutzern Code liefern kann, der genauso funktioniert wie wörtlicher Code, und gleichzeitig Copilot beansprucht.“ erzeugt nur in einem Prozent der Fälle wörtlichen Code“, heißt es in der geänderten Beschwerde. „Copilot ist eine geniale Methode der Softwarepiraterie.“

GitHub von Microsoft beharrte in einer E-Mail auf etwas Gegenteiligem.

„Wir sind fest davon überzeugt, dass KI die Art und Weise, wie die Welt Software erstellt, verändern wird, was zu höherer Produktivität und vor allem zu glücklicheren Entwicklern führen wird“, sagte ein Unternehmenssprecher Das Register. „Wir sind davon überzeugt, dass Copilot die geltenden Gesetze einhält, und wir haben uns von Anfang an dazu verpflichtet, gemeinsam mit Copilot verantwortungsvoll Innovationen voranzutreiben. Wir werden weiterhin in die KI-gestützte Entwicklererfahrung der Zukunft investieren und uns dafür einsetzen.“

OpenAI antwortete nicht auf eine Anfrage nach einem Kommentar. ®

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?