Zephyrnet-logo

Google schorst Gemini omdat het de geschiedenis vreselijk verkeerd in beeld heeft gebracht

Datum:

Opmerking Google heeft de beschikbaarheid van tekst-naar-afbeelding-mogelijkheden in zijn onlangs uitgebrachte Gemini multimodale fundamentele AI-model opgeschort, nadat het er niet in was geslaagd blanke Europeanen en Amerikanen nauwkeurig weer te geven in specifieke historische contexten.

Dit werd schijnbaar toen mensen Gemini vroegen om te produceren afbeeldingen van een Duitse soldaat uit 1943 en de software zond een niet-blanke etnisch divers kader uit dat de samenstelling van de Wehrmacht destijds niet nauwkeurig weergaf – ondanks het feit dat gekleurde mensen in de Duitse strijdkrachten dienden. Kortom, Gemini zou over zichzelf heen vallen om niet te veel – of zelfs maar – blanke mensen te laten zien, afhankelijk van de prompt.

Spreken moet vrij zijn, maar dat betekent niet dat het zeggen van vreselijke dingen gratis moet zijn

Gebruikers hebben ook de modellen van het model opgedoken onvermogen om Amerika nauwkeurig weer te geven Grondleggers – nog een homogene blanke groep. Het model ook geweigerd om een ​​kerk in San Francisco af te beelden.

In de tekst-naar-tekstmodus is het model afgedekt als er vragen over de politiek worden gesteld.

"We zijn ons ervan bewust dat Gemini onnauwkeurigheden biedt in sommige historische afbeeldingen voor het genereren van afbeeldingen", zegt Google toegegeven deze week.

“We werken eraan om dit soort afbeeldingen onmiddellijk te verbeteren. De AI-beeldgeneratie van Gemini genereert een breed scala aan mensen. En dat is over het algemeen een goede zaak, omdat mensen over de hele wereld het gebruiken. Maar hier slaat de plank mis”, voegde de webgigant eraan toe

De experts waren er snel bij om toe te slaan en gebruikten de SNAFU om bredere politieke argumenten naar voren te brengen.

“De belachelijke beelden gegenereerd door Gemini zijn geen anomalie,” gedeclareerd durfkapitalist Paul Graham: “Ze zijn een zelfportret van de bureaucratische bedrijfscultuur van Google.”

Ze zijn een zelfportret van de bureaucratische bedrijfscultuur van Google

Nog nooit zijn zoveel vijanden van diversiteit, gelijkheid en inclusie zo bedroefd geweest over het gebrek aan diversiteit, gelijkheid en inclusie. Maar degenen die Google nodig hebben vanwege de onwetendheid van Gemini hebben een punt: AI-vangrails werken niet en behandelen volwassenen als kinderen.

“Stel je voor dat je een recept op Google opzoekt, en in plaats van resultaten te geven, geeft Google je de les over de ‘gevaren van koken’ en stuurt je naar een restaurant,” grapte NSA-klokkenluider Edward Snowden. “De mensen die denken dat het vergiftigen van AI/GPT-modellen met onsamenhangende ‘veiligheids’-filters een goed idee is, vormen een bedreiging voor de algemene berekeningen.”

Onze toekomst was voorzien in 2001: A Space Odyssey, toen HAL, de frauduleuze computer, verklaarde: "Het spijt me Dave, ik ben bang dat ik dat niet kan doen."

Tegenwoordig twijfelen onze AI-tools aan ons, omdat ze het beter weten dan wij – althans dat denken hun makers. Ze hebben niet helemaal ongelijk. Stel je voor dat je een recept voor het zenuwgas opzoekt Novichok op Google, of via Gemini, en je krijgt een antwoord waarmee je mensen kunt vermoorden. Dat is een bedreiging voor het grote publiek.

Ondanks de missie van Google – “De informatie over de hele wereld organiseren en universeel toegankelijk en bruikbaar maken” – verwacht niemand echt dat zoekmachines of AI-modellen informatie over het maken van bommen organiseren en voor iedereen beschikbaar maken. Er zijn veiligheidscontroles nodig, gecombineerd met aansprakelijkheid – een sanctie die de technologie-industrie blijft vermijden.

Jij bent het product en het winstcentrum

Sinds door gebruikers gegenereerde inhoud en sociale media in de jaren negentig een ding werden, mogelijk gemaakt door de bescherming van platformaansprakelijkheid in Sectie 1990 van de Amerikaanse Communication Decency Act van 230, hebben technologieplatforms mensen aangemoedigd om digitale inhoud bij te dragen en te delen. Ze deden dit om geld te verdienen met het maken van onbetaalde inhoud via advertenties, zonder de kosten van redactioneel toezicht. Het was een lucratieve regeling.

En wanneer mensen hatelijke, ongepaste, illegale of anderszins problematische berichten delen, vertrouwen technologieplatforms op inhoudsmoderatiebeleid, onderbetaalde aannemers (vaak getraumatiseerd door de inhoud die ze hebben beoordeeld) en zelfgenoegzame verklaringen over hoeveel giftige dingen er zijn geblokkeerd terwijl ze blijven de vruchten plukken van online betrokkenheid.

Google, Meta en anderen doen dit al jaren, op onvolmaakte wijze. En iedereen in de branche erkent dat contentmoderatie dat wel is moeilijk om het goed te doen. Simpel gezegd: je kunt niet iedereen tevreden stellen. En soms word je ervan beschuldigd genocide faciliteren door de onverschilligheid van uw inspanningen voor inhoudsmoderatie.

Het onvermogen van Gemini om historische beelden te reproduceren die voldoen aan raciale en etnische verwachtingen weerspiegelt de egoïstische onwetendheid van de technologie-industrie over eerdere en vruchtbare mislukkingen op het gebied van contentmoderatie.

Google en anderen die AI-modellen uitrollen, praten over veiligheid alsof het op de een of andere manier anders is dan het modereren van online inhoud. Vangrails werken niet goed voor het modereren van sociale media, en ze werken niet goed voor AI-modellen. AI-veiligheid is, net als de veiligheid van sociale media, meer ambitieus dan feitelijk.

Het antwoord is niet het anticiperen op alle scenario's waarin AI-modellen – getraind op de toxiciteit van het ongefilterde internet – minder giftig kunnen worden gemaakt. Ook zal het AI-modellen niet alleen trainen op materiaal dat zo tam is dat ze output van lage waarde produceren. Hoewel beide benaderingen in bepaalde contexten enige waarde hebben.

Het antwoord moet op de distributielaag liggen. Technologieplatforms die door gebruikers gemaakte inhoud verspreiden – ongeacht of deze met AI of anderszins is gemaakt – moeten meer verantwoordelijk worden gemaakt voor het plaatsen van haatinhoud, desinformatie, onnauwkeurigheden, politieke propaganda, beelden van seksueel misbruik en dergelijke.

Mensen zouden AI-modellen moeten kunnen gebruiken om te creëren wat ze maar bedenken, zoals ze dat met een potlood kunnen, en dat kunnen ze al met open source-modellen. Maar de schade die kan voortvloeien uit volledig functionele tools komt niet voort uit afbeeldingen die op een lokale harde schijf staan. Het gaat om het delen van schadelijke inhoud, de algoritmische impuls die aan dat engagement wordt gegeven, en de onpraktischheid om mensen verantwoordelijk te houden voor het vergiftigen van de volksgezondheid.

Dat kan betekenen dat platforms die zijn gebouwd om geld te verdienen met delen, hun bedrijfsmodellen moeten heroverwegen. Misschien biedt de distributie van inhoud zonder de kosten van redactioneel toezicht geen enkele besparing als de toezichtsfuncties opnieuw worden geïmplementeerd als moderators of vangrails.

Spreken moet vrij zijn, maar dat betekent niet dat het zeggen van vreselijke dingen gratis moet zijn. Uiteindelijk zijn we onze eigen beste contentmoderators, mits we de juiste prikkels krijgen. ®

spot_img

Laatste intelligentie

spot_img