Zephyrnet-logo

Kunstmatige intelligentie is een risico

Datum:

Opmerking Kunstmatige intelligentie, dat wil zeggen grote fundamentele modellen die tekst voorspellen en afbeeldingen en spraak kunnen categoriseren, lijkt meer op een verplichting dan op een troef.

Tot nu toe is de schade aan de dollar beperkt gebleven. In 2019 reed een Tesla-chauffeur die zijn voertuig bestuurde met behulp van de Autopilot-software van de autofabrikant door rood licht en raakte een ander voertuig. De inzittenden kwamen om het leven en de Tesla-automobilist vorige week ook bestelde om $ 23,000 aan restitutie te betalen.

Tesla werd rond dezelfde tijd uitgegeven een terugroepactie van twee miljoen voertuigen om de Autopilot-software te herzien als reactie op een onderzoek van de Amerikaanse National Highway Traffic Safety Administration (NHTSA), waaruit bleek dat de veiligheidscontroles van de Autopilot ontbraken.

Drieëntwintigduizend dollar is niet veel voor twee levens, maar de betrokken families dienen civiele claims in tegen de bestuurder en tegen Tesla, dus de kosten kunnen stijgen. En er wordt gezegd dat dat er tenminste is een tiental rechtszaken waarbij Autopilot in de VS betrokken is.

Ondertussen in de zorgsector UnitedHealthcare wordt aangeklaagd omdat het nH Predict AI-model dat het heeft verworven via de aankoop van Navihealth in 2020 naar verluidt de noodzakelijke postacute zorg aan verzekerde senioren heeft ontzegd.

Beperkingen vereist

Bedrijven die AI-modellen en -diensten verkopen, begrijpen duidelijk dat er een probleem is. Ze verwijzen naar ‘vangrails’ die rond fundamentele modellen zijn geplaatst om hen te helpen op hun weg te blijven – zelfs als deze dat wel zijn werk niet erg goed. Dit soort voorzorgsmaatregelen zouden onnodig zijn als deze modellen dit niet zouden bevatten materiaal voor seksueel misbruik van kinderen en een arsenaal aan andere giftige inhoud.

Het is alsof AI-ontwikkelaars die van schrijver Alex Blechman lezen virale post over technologiebedrijven die het waarschuwende verhaal ‘Don’t Create the Torment Nexus’ interpreteerden als een productroadmap en zeiden: ‘Ziet er goed uit.’

Natuurlijk zijn er oudere literaire referenties die bij AI passen, zoals Mary Shelley’s Frankenstein of Pandora’s Box – een bijzonder goede match gezien het feit dat AI-modellen vaak zwarte dozen worden genoemd vanwege het gebrek aan transparantie over trainingsmateriaal.

Tot nu toe heeft de ondoorgrondelijkheid van commerciële modellen, bezaaid met schadelijke inhoud, niet al te veel tol geëist van bedrijven. Er is een recente aanspraak maken op door Chris Bakke, oprichter en CEO van Laskie (dit jaar overgenomen door een bedrijf dat zichzelf X noemt), dat een GM-chatbot die werd gebruikt door een autodealer in Watsonville, Californië, werd overgehaald om een ​​Chevy Tahoe uit 2024 te verkopen voor € 1 met een beetje snelle engineering. Maar de dealer zal deze belofte waarschijnlijk niet nakomen.

Toch is het risico van het vertrouwen op AI-modellen groot genoeg Kopen Google Reviews, Microsoft en antropisch hebben aangeboden klanten te vrijwaren van auteursrechtclaims (die talrijk zijn en grotendeels onopgelost). Dat doe je niet tenzij er kans is op aansprakelijkheid.

Regulatie

De autoriteiten proberen nog steeds uit te vinden hoe de aansprakelijkheid voor AI moet worden beoordeeld. Kijk eens hoe de Europese Commissie de kwestie heeft geformuleerd terwijl zij werkt aan het formuleren van een werkbaar juridisch kader voor kunstmatige intelligentie:

“De huidige aansprakelijkheidsregels, en met name de nationale regels op basis van schuld, zijn niet aangepast om schadevergoedingsclaims te behandelen voor schade veroorzaakt door op AI gebaseerde producten/diensten”, aldus de Commissie. zei [PDF] vorig jaar. “Volgens dergelijke regels moeten slachtoffers een onrechtmatig handelen/nalaten bewijzen van een persoon die de schade heeft veroorzaakt. De specifieke kenmerken van AI, waaronder autonomie en ondoorzichtigheid (het zogenaamde ‘black box’-effect), maken het moeilijk of onbetaalbaar om de aansprakelijke persoon te identificeren en de vereisten voor een succesvolle aansprakelijkheidsclaim te bewijzen.”

En Amerikaanse wetgevers hebben dat ook gedaan voorgestelde een tweeledig AI-raamwerk om “ervoor te zorgen dat AI-bedrijven aansprakelijk kunnen worden gesteld via handhaving van toezichthoudende instanties en particuliere actierechten wanneer hun modellen en systemen de privacy schenden, burgerrechten schenden of anderszins merkbare schade veroorzaken.”

Raak niet te opgewonden als u leidinggevenden van AI-bedrijven achter de tralies ziet: de betrokkenheid van leiders uit de AI-industrie bij dit proces suggereert dat eventuele regels die opduiken ongeveer net zo effectief zullen zijn als andere regelgevingskaders die door lobbyisten zijn ontkracht.

Maar opwinding is een deel van het probleem: er is zoveel hype over stochastische papegaaien, zoals AI-modellen worden genoemd.

AI-modellen hebben in sommige contexten echte waarde, zoals opgemerkt door beveiligingsbedrijf Socket, dat daarvoor ChatGPT heeft gebruikt hulp vlag softwarekwetsbaarheden. Ze hebben wonderen verricht op het gebied van spraakherkenning, vertaling en beeldherkenning, ten koste van transcribenten en CAPTCHA-puzzels. Ze hebben veteranen uit de industrie eraan herinnerd hoe leuk het was om mee te spelen Eliza, een vroege chatbot. Ze zien eruit alsof ze echt nuttig zijn bij beslissingsondersteunende banen, op voorwaarde dat er een mens in de kring zit. En ze hebben complexe bezweringen op de opdrachtregel, met hun diverse vlaggen en parameters, omgezet in even complexe tekstprompts die alinea's lang kunnen doorgaan.

Maar de automatisering die AI mogelijk maakt, brengt kosten met zich mee. In een recente dit artikel Voor het sciencefictionvakblad Locus betoogde auteur en activist Cory Doctorow: “AI-bedrijven wedden er impliciet op dat hun klanten AI zullen kopen voor automatisering met grote gevolgen, brandweerlieden, en als gevolg daarvan fysieke, mentale en economische schade aan hun eigen klanten zullen toebrengen. , en op de een of andere manier aan de aansprakelijkheid voor deze schade ontsnappen.”

Doctorow is sceptisch over het bestaan ​​van een zinvolle markt voor AI-diensten in hoogwaardige bedrijven vanwege de risico’s en is van mening dat we ons in een AI-bubbel. Hij wijst naar GM Cruise als voorbeeld en merkt op dat het bedrijfsmodel van het zelfrijdende autobedrijf – in twijfel als gevolg van een verwonding aan een voetganger en een terugroepactie – komt neer op het vervangen van elke chauffeur met een laag loon door 1.5 duurdere toezichthouders op afstand, zonder de mogelijkheid van ongelukken en daarmee samenhangende rechtszaken uit te sluiten.

Overbelasten

Er is in ieder geval enig potentieel voor bedrijven met een lage waarde die verband houden met AI. Deze omvatten het maandelijks betalen voor toegang tot een API voor onnauwkeurige chat, het genereren van algoritmische afbeeldingen die de stijlen van artiesten zonder toestemming overnemen, of honderden genereren van nepnieuwssites (of boeken) op een manier dat "overstroomt de zone'met desinformatie.

Het lijkt onwaarschijnlijk dat Arena Group dat is aanspraak maken op dat het AI-platform de tijd die nodig is om artikelen voor publicaties als Sports Illustrated te maken met 80-90 procent kan verkorten, zal de lezerstevredenheid, merkloyaliteit of inhoudskwaliteit verbeteren. Maar misschien zal het genereren van meer artikelen dan menselijkerwijs mogelijk is in de honderden titels van het bedrijf leiden tot meer pageviews door bots en meer programmatische advertentie-inkomsten van advertentiekopers die te naïef zijn om door te dringen.

Een deel van het probleem is dat de belangrijkste AI-promotoren – Amazon, Google, Nvidia en Microsoft – cloudplatforms exploiteren of GPU-hardware verkopen. Zij zijn de verkopers van de AI-goudkoorts, die alleen maar hun clouddiensten of hun nummerverwerkingskit willen verkopen. Ze waren allemaal aan boord voor de blockchain-express en cryptocurrency-suprematie totdat die illusie verdween.

Ze zijn zelfs nog enthousiaster over het helpen van bedrijven bij het uitvoeren van AI-workloads, nuttig of anderszins. Ze zijn simpelweg bezig met cloud-seeding, in de hoop bedrijven naar hun rent-a-processor-activiteiten te drijven. Op dezelfde manier hopen start-ups op het gebied van machinaal leren zonder infrastructuur dat luchtige praatjes over transformationele technologie de waardering van hun bedrijf zullen opdrijven om vroege investeerders te belonen.

De AI-rage kan ook gedeeltelijk worden toegeschreven aan de voortdurende inspanningen van de technologie-industrie om de vraag ‘Wat komt er daarna?’ te beantwoorden. in een tijd van langdurige stilstand. Apple, Kopen Google Reviews, Amazone, meta, Microsoft en Nvidia hebben allemaal hun best gedaan om betekenisvolle concurrentie te voorkomen, en sinds het begin van het cloud- en mobiele tijdperk halverwege de jaren 2000 hebben ze dat redelijk goed gedaan. Niet dat concurrentiebeperkend gedrag iets nieuws is – denk aan de sector uit 2010 nederzetting met het Amerikaanse ministerie van Justitie over de overeenkomsten tussen Adobe, Google, Intel, Intuit en Pixar om te voorkomen dat talent van elkaar wordt afgepakt.

Microsoft maakte veel gebruik van zijn AI-integratie met Bing, lang overschaduwd door Google Search, en beweerde dat het “zoeken opnieuw uitvinden.” Maar sindsdien is er niet veel veranderd – Bing naar verluidt is er niet in geslaagd enig marktaandeel van Google af te pakken, in een tijd waarin het wijdverbreide sentiment heerst dat Google Zoeken – nu ook gelardeerd met AI – steeds erger is geworden.

Laat 2024 maar komen

Om erachter te komen wat er daarna komt, zullen we moeten wachten tot het ministerie van Justitie en toezichthouders elders in de wereld veranderingen doorvoeren. antitrust handhaving en rechtszaken. Want hoewel Google de zoekdistributie – via deals met Apple en anderen – en digitale reclame – via zijn deal met Meta (in de VS opgeruimd, nog steeds onderzocht in Europa en het Verenigd Koninkrijk) en andere activiteiten gepikeerd in het belang van het ministerie van Justitie – noch de zoeksector, noch de advertentiesector lijken vatbaar voor nieuwe uitdagers, ongeacht hoeveel AI-saus er wordt toegevoegd.

AI is niet alleen een risico in financiële zin, maar ook in ethische zin. Het belooft loonbesparingen – ondanks extreem zijn duur qua training en ontwikkeling en milieubelasting – terwijl de onverschilligheid ten opzichte van menselijke arbeid, intellectueel eigendom, schadelijke output en informatienauwkeurigheid wordt aangemoedigd. AI nodigt bedrijven uit om mensen buiten beschouwing te laten wanneer zij vaak waarde toevoegen die niet duidelijk uit een balans blijkt.

Er is ruimte voor AI om echt nuttig te zijn, maar het moet worden ingezet om mensen te helpen in plaats van ze weg te werken. ®

spot_img

Laatste intelligentie

spot_img