Zephyrnet-logo

Experts waarschuwen voor uitsterven door AI als er nu geen actie wordt ondernomen

Datum:

Er is weer een onheilspellende open brief over AI die de ronde doet. Deze keer hebben een groot aantal technische leiders, ML-sterren en zelfs enkele beroemdheden zich aangemeld om de wereld aan te sporen de vermeende uitstervingsbedreigingen van kunstmatige intelligentie serieuzer te nemen. 

Meer toepasselijk een statement, het bericht van het Center for AI Safety (CAIS) ondertekend door personen als AI-pionier Jeffrey Hinton, OpenAI CEO Sam Altman, versleutelingsgoeroe Martin Hellman, Microsoft CTO Kevin Scott en anderen is een enkele verklarende zin apocalyps voorspellen als er geen acht op wordt geslagen:

"Het verkleinen van het risico van uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere risico's op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog." 

Waarom zo kort? Het doel was “om de brede en groeiende coalitie van AI-wetenschappers, technologieleiders en professoren te demonstreren die zich zorgen maken over de risico’s van het uitsterven van AI. We hebben brede erkenning van de belangen nodig, zodat we nuttige beleidsdiscussies kunnen voeren”, zei CAIS-directeur Dan Hendrycks. Het register.

CAIS maakt geen melding van kunstmatige algemene intelligentie (AGI) in zijn lijst met AI-risico's, we noteren. En modellen van de huidige generatie, zoals ChatGPT, vormen geen apocalyptische bedreiging voor de mensheid, vertelde Hendrycks ons. De waarschuwing deze week gaat over wat komen gaat.

"De soorten catastrofale bedreigingen waarnaar deze verklaring verwijst, houden verband met toekomstige geavanceerde AI-systemen", meende Hendrycks. Hij voegde eraan toe dat de noodzakelijke vorderingen die nodig zijn om het niveau van "apocalyptische dreiging" te bereiken, slechts twee tot tien jaar verwijderd kunnen zijn, niet enkele decennia. "We moeten ons nu voorbereiden. AI-systemen die catastrofale gevolgen kunnen hebben, hoeven echter geen AGI's te zijn', zei hij. 

Omdat mensen toch volkomen vredig zijn

Een zo'n bedreiging is bewapening, of het idee dat iemand welwillende AI zou kunnen hergebruiken om zeer destructief te zijn, zoals het gebruik van een bot voor het ontdekken van medicijnen om chemische of biologische wapens te ontwikkelen, of het gebruik van wapening voor machinegebaseerde gevechten. Dat gezegd hebbende, mensen zijn al behoorlijk in staat om dat soort wapens te maken, waarmee een persoon, buurt, stad of land kan worden uitgeschakeld.

We zijn gewaarschuwd dat AI ook kan worden getraind om zijn doelen na te streven zonder rekening te houden met individuele of maatschappelijke waarden. Het kan mensen "verzwakken" die uiteindelijk vaardigheden en capaciteiten afstaan ​​aan geautomatiseerde machines, waardoor een machtsongelijkheid ontstaat tussen de controllers van AI en degenen die door automatisering worden verdreven, of kan worden gebruikt om opzettelijk of opzettelijk desinformatie te verspreiden. anders-.

Nogmaals, geen van de AI die daarbij betrokken is, hoeft algemeen te zijn, en het is niet zo moeilijk om het potentieel te zien voor de huidige generatie AI om te evolueren om het soort risico's te vormen waar CAIS zich zorgen over maakt. U kunt uw eigen mening hebben over hoe echt destructief of capabel de software zou kunnen of zullen zijn, en wat het daadwerkelijk zou kunnen bereiken.

Het is van cruciaal belang, zo luidt het argument van CAIS, om de negatieve effecten van AI die al worden gevoeld, te onderzoeken en aan te pakken, en om die bestaande effecten om te zetten in vooruitziende blik. "Terwijl we worstelen met directe AI-risico's... moeten de AI-industrie en regeringen over de hele wereld ook serieus het risico onder ogen zien dat toekomstige AI's een bedreiging kunnen vormen voor het menselijk bestaan," Hendrycks zei in een verklaring.

“De wereld heeft met succes samengewerkt om de risico's van een nucleaire oorlog te beperken. Hetzelfde niveau van inspanning is nodig om de gevaren van toekomstige AI-systemen aan te pakken”, drong Hendrycks aan, met een lijst van zakelijke, academische en opinieleiders die hem steunden. 

Musk is niet aan boord

Andere ondertekenaars zijn Google DeepMind hoofdwetenschapper Ian Goodfellow, filosofen David Chalmers en Daniel Dennett, auteur en blogger Sam Harris en muzikant/Elon Musk's ex, Grimes. Over de man zelf gesproken, de handtekening van Musk ontbreekt. 

De Twitter-CEO was onder degenen die een ondertekenden open brief gepubliceerd door het Future of Life Institute afgelopen maart waarin wordt aangedrongen op een pauze van zes maanden over de training van AI-systemen "krachtiger dan GPT-4." Het is niet verwonderlijk dat de handtekening van Altman, CEO van OpenAI, ontbrak dat bepaalde brief, zogenaamd omdat het zijn bedrijf er direct uit riep. 

OpenAI is sindsdien uitgegeven zijn eigen waarschuwingen over de bedreigingen van geavanceerde AI en riep op tot de oprichting van een wereldwijde waakhond, vergelijkbaar met de Internationale Organisatie voor Atoomenergie, om het gebruik van AI te reguleren.

Die waarschuwing en regelgevende oproep, in het geval van een historisch slechte timing, kwam op dezelfde dag Altman bedreigd om OpenAI, en ChatGPT daarmee, uit de EU over de blokkades te trekken AI-wet. De regels die hij steunt zijn één ding, maar Altman vertelde Brussel dat hun idee van AI-beperking een regelgevende brug te ver was, heel erg bedankt. 

EU-parlementariërs gereageerd door te zeggen dat ze niet zouden worden gedicteerd door OpenAI, en dat als het bedrijf niet kan voldoen aan basisregels voor bestuur en transparantie, "hun systemen niet geschikt zijn voor de Europese markt", beweerde het Nederlandse EP-lid Kim van Sparrentak. 

We hebben OpenAI om opheldering gevraagd over de positie(s) van Altman en zullen dit verhaal updaten als we iets horen. ®

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?