Zephyrnet-Logo

Apple verbietet die interne Nutzung von ChatGPT

Datum:

Apple ist das jüngste Unternehmen, das die interne Nutzung von ChatGPT und ähnlichen Produkten verbietet, ironischerweise gerade zu dem Zeitpunkt, als der OpenAI-Chatbot in Form einer mobilen App auf iOS kommt. 

Die Nachricht über den Umzug wurde gestern von bekannt gegeben The Wall Street Journal, die ein internes Apple-Dokument überprüfte, in dem die Mitarbeiter über das Verbot informiert wurden. Dem Dokument zufolge stimmen Apples Bedenken mit denen anderer Unternehmen überein, die ebenfalls die interne Verwendung von ChatGPT verboten haben, nämlich dass die KI vertrauliche interne Informationen preisgeben könnte, die mit ihr geteilt werden. 

Apple Berichten zufolge das automatisierte Codierungstool von GitHub gesperrt, Copilot, sowie. Seit einiger Zeit kursieren Gerüchte über Apples KI-Pläne, wobei das Unternehmen möglicherweise an einem eigenen LLM arbeitet, um mit ChatGPT und Google Bard zu konkurrieren.

Cupertino ist mit seiner Entscheidung, die Verwendung des von Microsoft unterstützten Chatbots zu verbieten, keineswegs allein: Er schließt sich einer ständig wachsenden Zahl an Liste von Unternehmen wie Amazon und einer Reihe von Banken, darunter JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank und dergleichen. 

Auch der Apple-Konkurrent Samsung hat aufgrund von Pannen zweimal beschlossen, ChatGPT aus der internen Nutzung auszuschließen. Samsung hat im März ein Verbot der Nutzung von ChatGPT durch Mitarbeiter aufgehoben, aber in weniger als einem Monat war es soweit enthüllt Koreanischen Medien zufolge hatten Samsung-Mitarbeiter ChatGPT um Hilfe bei der Behebung von Quellcodefehlern, der Behebung von Software zur Erfassung von Mess- und Ertragsdaten und der Umwandlung von Besprechungsnotizen in Protokolle gebeten. 

Samsung wieder auferlegt Anfang dieses Monats wurde das ChatGPT-Verbot verhängt, um zu verhindern, dass sich ähnliche Vorfälle wiederholen.

Das Problem mit ChatGPT-, Google Bard- und LLM-Bots besteht darin, dass die in sie eingespeisten Daten häufig zur weiteren Schulung der Bots verwendet werden, was nach Warnung des britischen Spionagedienstes GCHQ leicht zur Offenlegung vertraulicher Geschäftsinformationen führen kann erbrochen wenn andere ähnliche Fragen stellen. 

Abfragen sind auch für Bot-Anbieter wie OpenAI und Google sichtbar, die möglicherweise selbst die in ihre Sprachmodelle eingespeisten Inhalte überprüfen, wodurch das Risiko besteht, dass streng gehütete Unternehmensgeheimnisse preisgegeben werden.

Es passieren auch Unfälle

Neben dem Risiko, dass ein Bot vertrauliche Informationen weitergibt, wenn er versucht, anderen zu helfen, besteht auch die Möglichkeit, dass Unternehmen wie OpenAI einfach nicht die beste Software programmieren.

Im März OpenAI zugelassen Das ist ein Fehler in der Open-Source-Bibliothek redis-py Dadurch wurden Teile der Tête-à-Têtes von Leuten mit ChatGPT für andere Benutzer sichtbar. Dieser Fehler, so der leitende Datenanalyst bei Kaspersky Vlad Tushkanov, sollte uns daran erinnern, dass LLM-Chatbots den Benutzern keine wirkliche Privatsphäre bieten.

„ChatGPT warnt beim Anmelden, dass ‚Gespräche möglicherweise von unseren KI-Trainern überprüft werden‘ … Daher hätten die Benutzer von Anfang an keinerlei Erwartungen an den Datenschutz haben dürfen, wenn sie die ChatGPT-Webdemo nutzen“, sagte Tushkanov. 

OpenAI letzten Monat hinzugefügt die Möglichkeit für ChatGPT-Benutzer, den Chatverlauf zu deaktivieren, wodurch nicht nur ein Chat in der Seitenleiste der ChatGPT-Benutzeroberfläche ausgeblendet wird, sondern auch verhindert wird, dass Chats mit deaktiviertem Verlauf zum Trainieren der OpenAI-Modelle verwendet werden.

OpenAI sagte, dass Konversationen weiterhin 30 Tage lang gespeichert werden, wenn der Verlauf deaktiviert ist, und dass es die Möglichkeit haben wird, sie „bei Bedarf zur Überwachung auf Missbrauch zu überprüfen, bevor sie dauerhaft gelöscht werden“, sagte das von Microsoft unterstützte Unternehmen.

In derselben Ankündigung sagte OpenAI auch, dass es bald eine Geschäftsversion von ChatGPT einführen wird, die Unternehmen mehr Kontrolle über die Nutzung ihrer Daten bietet. OpenAI sagte damit, dass dies bedeute, dass ChatGPT-Geschäftsgespräche nicht zum Trainieren seiner LLMs verwendet würden. 

Wir haben OpenAI einige zusätzliche Fragen zu ChatGPT Business gestellt, z. B. ob OpenAI-Mitarbeiter weiterhin Chats anzeigen können und wann es veröffentlicht werden könnte, und werden diese Geschichte aktualisieren, wenn wir etwas hören. ®

spot_img

Neueste Intelligenz

spot_img