Zephyrnet-Logo

Die Science of Love-App hasst das Startup für maschinelles Lernen in Korea nach unachtsamem Flüstern von Daten

Datum:

In Kürze Ein koreanisches KI-Startup ist unter Beschuss geraten, nachdem es private Nachrichten seiner Benutzer mit privaten und vertraulichen Informationen zum Trainieren eines Chatbots gelöscht hat.

Die Science of Love-App von Scatter Labs im Google Play Store wurde mit einem Stern bewertet schlechte Bewertungen über das Problem. Die App verwendet maschinelles Lernen, um Texte zu analysieren, die auf KakaoTalk, einem beliebten Messaging-Dienst, ausgetauscht werden. Scatter Labs sammelte jahrelang die Gespräche der Leute, um seinen eigenen Chatbot, bekannt als Lee Luda, zu trainieren.

Lee Luda wurde jedoch letzten Monat vorübergehend geschlossen, nachdem er Hassreden und die persönlichen Daten der Menschen verbreitet hatte. Der Bot nannte Lesben ekelhaft und gab echte Telefonnummern bekannt.

Darüber hinaus hat das Unternehmen die Trainingsdaten von Lee Luda auf GitHub hochgeladen und die Informationen weiter veröffentlicht. gemäß zur koreanischen Online-Nachrichtenseite Pulse. Die Daten wurden inzwischen gelöscht, und die Benutzer sind wütend, dass ihre Nachrichten gelöscht wurden.

Scatter Labs hat unsere Anfragen nach Kommentaren nicht zurückgegeben.

Seien Sie vorsichtig bei teuren AI-Coding-Bootcamps

Eine Person, die vorgibt, der Projektmanager von AI Fluency zu sein, einer Organisation, die einen maschinellen Lernkurs für Anfänger für 1,280 USD (~ 926 GBP) anbietet, wollte, dass wir einen „Rabattcode“ vergeben Reg Leser. „Wir wollten allen Studenten von einen Sonderrabatt von 485 USD gewähren Das Register“, Sagte uns der Sprecher der Organisation, Matt Hanson, diese Woche in einer E-Mail. "Der Kurspreis war zuvor: 1280 USD - mit Rabatt: 695 USD (~ 502 £)."

Ein kurzer Blick auf die Website sollte jedoch Alarmglocken auslösen. Es gibt nur wenige Informationen über die Ausbilder, die angeblich Alumni renommierter Institutionen sind: MIT, Stanford University, Harvard University und Oxford University. Wer auch immer die Website gestaltet hat, hat aus einem öffentlichen Medium-Beitrag auch ein Bild gestohlen, das wie eine Zoom-Klasse aussieht.

Screenshot

Kein guter Blick. Klicken um zu vergrößern. Quelle: AI Fluency

Als wir Eugene Korsunskiy kontaktierten, der Assistenzprofessor für Ingenieurwissenschaften an der Dartmouth University ist und oben rechts im Bild abgebildet ist, sagte er, er habe noch nie von AI Fluency gehört und ihm nicht die Erlaubnis gegeben, sein Foto zu verwenden. Das Bild wurde jetzt durch ein anderes allgemeines Besprechungsbild ersetzt, das von der Zoom-Website stammt.

AI Fluency gibt an, dass es sie seit 2015 gibt, aber die Website wurde am 27. Dezember 2020 erstellt. Es gibt auch keine öffentlichen Informationen, die belegen, dass das Unternehmen schon so lange besteht. Hanson wollte sich anfangs mit uns unterhalten, aber nachdem wir Fragen zu den Ausbildern und der Firma gestellt hatten, verstummte er.

Maschinelles Lernen ist ein schwieriges und ansprechendes Feld, wenn man die Gehälter der Ingenieure berücksichtigt. Online-Kurse sind beliebt, aber seien Sie vorsichtig mit solchen, die behaupten, sie könnten Sie mit Experten verbinden und Sie beschäftigungsfähiger machen. Es wird viel mehr als nur ein paar Lektionen dauern, besonders wenn Sie ein Anfänger sind.

Universitäten benötigen mehr Rechenleistung, um massive Sprachmodelle wie GPT-3 zu studieren

Die Fähigkeit von GPT-3, rassistische, sexistische Sprache sowie falsche Informationen zu generieren, hat Entwickler alarmiert, insbesondere seit OpenAI versucht, sein Tool zur Texterstellung zu kommerzialisieren.

Welche Auswirkungen wird das Modell auf unsere Gesellschaft haben, sobald es verfügbar ist? Forscher von OpenAI, dem Stanford Institute for Human-Centered Artificial Intelligence und anderen Universitäten haben ein Treffen abgehalten, um zu diskutieren, wie sich die Technologie auf Bereiche wie das Internet und die Wirtschaft auswirken könnte. Die Diskussion wurde zu einem zusammengefasst Krepppapier [PDF] auf arXiv.

Experten befürchten, dass das Modell einige Aufgaben und Aufgaben automatisieren könnte, die Lesen und Schreiben umfassen, und es ist möglich, dass Inhaltsschreiber oder studentische Aufsätze durch maschinengenerierten Text ersetzt werden. Sie waren auch besorgt über das Potenzial, riesige Mengen gefälschter Texte in Form von Tweets, Nachrichtenartikeln oder Propaganda auszuspucken, die schwer zu überprüfen sind.

Schauen Sie sich auch diese gruselige Unterhaltung eines Reddit-Benutzers an behauptet kam von GPT-3, wo die Maschine angeblich über die Freuden des Mordes spricht. ®

Quelle: https://go.theregister.com/feed/www.theregister.com/2021/02/15/in_brief_ai/

spot_img

Neueste Intelligenz

spot_img