Zephyrnet-Logo

Die Grenze zwischen realer und KI-Erstellung ist für das Auge zu schmal

Datum:

Da Entwickler generativer KI ihre Modelle immer weiter verfeinern, wird es laut Forschern auch immer schwieriger, zwischen echten Bildern und KI-Kreationen zu unterscheiden.

Eine Studie von Forschern des University of Waterloo festgestellt, dass es den Menschen schwerfällt, ein Bild einer realen Person und das einer KI-generierten Person zu erkennen.

Unter dem erwarteten Schwellenwert

Im Rahmen der Studie stellten Forscher der University of Waterloo 20 Teilnehmern 260 unbeschriftete Bilder zur Verfügung. Die Hälfte der Bilder zeigten echte Menschen aus Google Bilder, während die andere Hälfte mit Tools wie Dall-E und KI erstellt wurde Stable Diffusion .

Anschließend wurden die Teilnehmer gebeten, die Bilder zu kennzeichnen, um ihre Antworten zu begründen, wenn sie real oder KI-generiert waren.

Obwohl 61 % der Teilnehmer den Unterschied zwischen echten Bildern und KI-generierten Bildern erkennen konnten, lag dieser Wert immer noch weit unter der erwarteten Schwelle von 85 %.

Bei der Betrachtung der Bilder achteten die Teilnehmer auf Details wie Augen, Finger, Zähne und andere Indikatoren, die bei der Suche nach KI-Indikatoren Bilder erzeugten, aber „ihre Einschätzungen waren nicht immer korrekt.“

„Die Leute sind nicht so geschickt darin, die Unterscheidung zu treffen, wie sie denken“ sagte die Hauptautorin der Studie, Andrea Pocol, die auch Doktorandin in Informatik an der Universität ist.

Während Internetnutzer die Bilder im Vorbeigehen betrachten, sagten die Waterloo-Forscher, dass sie den Teilnehmern Zeit ließen, die Bilder zu analysieren.

„Leute, die einfach nur Unheil treiben oder keine Zeit haben, werden diese Hinweise nicht verstehen“, sagte Pocol.

Lies auch: Leonardo-CEO betont in Davos die Dummheit der Benutzer gegenüber KI-Bedrohungen

Missbrauch der Technologie

Ihr StudieDie in der Zeitschrift Advances in Computer Graphics erschienene Studie mit dem Titel „Seeing Is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media“ hebt auch die Risiken hervor, die mit den Fortschritten in der generativen KI-Technologie verbunden sind .

Mit Besorgnis stellten die Forscher außerdem fest, wie schnell sich die generative KI-Technologie verändert und von Tag zu Tag ausgefeilter wird. Wissenschaftliche Forschung und Gesetzgebung können mit den Entwicklungen in der generativen Industrie nicht Schritt halten.

Pocol sagte, KI-Bilder würden immer realer, was es für manche Menschen schwierig mache, leicht zwischen echten und KI-generierten Bildern zu unterscheiden. Dies, so Pocol, schaffe einen fruchtbaren Boden für schlechte Akteure, die die Technologie ausnutzen, um Bosheit zu verbreiten und Desinformation aufrechtzuerhalten oder Menschen zu täuschen.

„Desinformation ist nicht neu, aber die Instrumente der Desinformation haben sich ständig verändert und weiterentwickelt“, sagte Pocol.

„Es könnte an einem Punkt angelangt sein, an dem Menschen, egal wie gut sie ausgebildet sind, immer noch Schwierigkeiten haben werden, echte Bilder von Fälschungen zu unterscheiden.“ Deshalb müssen wir Instrumente entwickeln, um dies zu erkennen und entgegenzuwirken. Es ist wie ein neues KI-Wettrüsten.“

Die Forscher haben auch die Herausforderungen erkannt, die die Technologie insbesondere bei der Verbreitung von Deepfakes mit sich bringt.

Die Technologie in falschen Händen

Da normale Menschen Schwierigkeiten haben, zwischen echten und gefälschten Bildern zu unterscheiden, wächst die Angst vor einer zunehmenden Verbreitung von Deepfakes. Experten haben davor gewarnt, dass böswillige Akteure die generative KI-Technologie ausnutzen werden, um Wahlfälschungen zu verbreiten und so Wähler in die Irre zu führen.

Das Zentrum zur Bekämpfung des digitalen Hasses (CCDH), eine gemeinnützige Organisation, die Online-Hassreden überwacht, hat dies bereits getan gewarnt in ihrem Bericht, dass KI-gestützte Bildgeneratoren die Fehlinformationen zur Wahl 2024 verschlimmern.

„Die Möglichkeit, dass solche KI-generierten Bilder als ‚Fotobeweis‘ dienen könnten, könnte die Verbreitung falscher Behauptungen verschärfen und eine erhebliche Herausforderung für die Wahrung der Integrität von Wahlen darstellen“, so CCDH-Forscher in ihrem Bericht.

Dies geschieht jedoch inmitten einer Ankündigung, dass etwa 20 große Technologieunternehmen, darunter OpenAI, Microsoft und Stabilitäts-KI unterzeichnete eine Vereinbarung zusammenarbeiten, um zu verhindern, dass betrügerische KI-Inhalte „die in diesem Jahr weltweit stattfindenden Wahlen beeinträchtigen“.

spot_img

Neueste Intelligenz

spot_img