Zephyrnet-logo

Toptechtalent waarschuwt in open brief voor de bedreiging van het menselijk bestaan ​​door AI

Datum:

Meer dan 1,000 van de toptalenten in de technologie – waaronder CEO Elon Musk, mede-oprichter van Apple Steve Wozniak en politicus Andrew Yang – hebben een open brief ondertekend waarin ze AI-pioniers aansporen om de AI-ontwikkelingsrace een halt toe te roepen, vanwege het potentiële gevaar voor de mensheid.

“Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn risico's zullen beheersbaar zijn”, aldus de open brief, gepubliceerd op de site van het Future of Life Institute, gedeeltelijk. “Daarom roepen we alle AI-labs op om per direct minimaal 6 maanden te pauzeren met het trainen van AI-systemen die krachtiger zijn dan GPT-4.”

Het potentiële gevaar van ongecontroleerde training van grote leermodellen (LLM's), zoals uiteengezet in de brief, is niets minder dan dat mensen volledig worden vervangen door intelligentere AI-systemen. 

Real-Life SkyNet? Het gevaar van AI voor de mensheid ontleden

“Hedendaagse AI-systemen worden nu mens-competitief bij algemene taken, en we moeten ons afvragen: moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid?” vraagt ​​de brief. “Moeten we alle banen automatiseren, ook de vervullende? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal kunnen overtreffen, te slim af zijn, achterhaald zijn en ons kunnen vervangen? Moeten we het risico lopen de controle over onze beschaving te verliezen?”

Mogelijke schade door geavanceerde AI baart zelfs de voorstanders ervan zorgen: Greg Brockman, CEO van ChatGPT, die OpenAI heeft gemaakt, vertelde onlangs aan een menigte bij SXSW dat hij bezorgd was over het vermogen van AI om zowel desinformatie te verspreiden als cyberaanvallen lanceren. Maar die zorgen staan ​​ver af van die angsten AI kan bewust worden.

Voor alle duidelijkheid: de pauze van zes maanden is bedoeld om beleidsmakers en AI-veiligheidsonderzoekers de tijd te geven om veiligheidsparameters rond de technologie te plaatsen, aldus de brief. De Pauzeer Giant AI Experiments-brief benadrukt dat de groep niet oproept om alle AI-ontwikkeling stop te zetten, maar eerder wil dat ontwikkelaars stoppen met de haast om nieuwe mogelijkheden uit te rollen zonder volledig inzicht te hebben in de potentiële schade ervan.

Toch zouden sceptici kunnen kijken naar CEO's zoals Musk, met potentiële commerciële belangen op het spel bij vertraging OpenAI's ontwikkeling van GPT-5, en doe de open brief van Pause AI af als weinig meer dan een public relations-truc.

"We moeten een beetje achterdochtig zijn over de bedoelingen hier - veel van de auteurs van de brief hebben commerciële belangen in hun eigen bedrijven die de kans krijgen om de vooruitgang van OpenAI bij te houden", zei Chris Doman, CTO van Cado Security in een verstrekte verklaring naar Donker Lezen. "Eerlijk gezegd is het waarschijnlijk dat OpenAI het enige bedrijf is dat momenteel een AI-systeem traint dat krachtiger is dan GPT-4, aangezien ze momenteel GPT-5 trainen."

Zal de open brief "Pause AI" iets doen?

Afgezien van de namen van beroemdheden, maken de uiteenlopende achtergronden en publieke standpunten van de ondertekenaars de brief de moeite waard om serieus te nemen, volgens Dan Shiebler, onderzoeker bij Abnormal Security. Onder de ondertekenaars bevinden zich inderdaad enkele van de slimste academische geesten op het gebied van AI, waaronder John Hopfield, emeritus hoogleraar van Princeton University en de uitvinder van associatieve neurale netwerken, en Max Tegmark, hoogleraar natuurkunde aan het MIT Center for Artificial Intelligence & Fundamental Interactions. .

"Het interessante aan deze brief is hoe divers de ondertekenaars en hun motivaties zijn”, zei Shiebler in een verklaring aan Dark Reading. “Elon Musk heeft vrij uitgesproken dat hij gelooft dat [kunstmatige algemene intelligentie] (computers die uitzoeken hoe ze zichzelf kunnen verbeteren en daardoor in capaciteit exploderen) een dreigend gevaar is, terwijl AI-sceptici zoals Gary Marcus duidelijk naar deze brief komen vanuit een andere hoek.” 

Echter, uUiteindelijk voorspelt Shiebler niet dat de brief iets zal doen om de ontwikkeling van AI te vertragen.

"De kat is uit de zak bij deze modellen, 'zei Shiebler. “De beperkende factor bij het genereren ervan is geld en tijd, en beide zullen snel afnemen. We moeten bedrijven voorbereiden om deze modellen veilig te gebruiken, niet proberen de klok stil te zetten bij hun ontwikkeling.”

Toch is het een goede zaak om een ​​licht te werpen op de veiligheids- en ethische overwegingen, volgens John Bambenek, hoofddreigingsjager bij Netenrich.

"Hoewel het twijfelachtig is dat iemand iets zal pauzeren, is er een groeiend besef dat het nadenken over de ethische implicaties van AI-projecten ver achterblijft bij de snelheid van ontwikkeling", zei hij via e-mail. "Ik denk dat het goed is om opnieuw te beoordelen wat we doen en welke diepgaande gevolgen het zal hebben."

spot_img

Laatste intelligentie

spot_img