Zephyrnet-logo

De adviseurs van de Indiase premier zeggen dat AI 'massale schizofrenie' kan veroorzaken

Datum:

De Indiase Economische Adviesraad van de premier (EACPM) heeft een document opgesteld waarin wordt gewaarschuwd dat de huidige mondiale AI-regelgeving waarschijnlijk ineffectief zal zijn, en heeft aanbevolen de technologie te reguleren met alternatieve tactieken – zoals die op de financiële markten worden gebruikt.

De Raad maakt zich grote zorgen over AI. Het document waarschuwt: “Door een combinatie van surveillance, overtuigende berichtenuitwisseling en het genereren van synthetische media zou kwaadaardige AI steeds meer informatie-ecosystemen kunnen controleren en zelfs op maat gemaakte bedrieglijke realiteiten kunnen fabriceren om menselijk gedrag af te dwingen, wat massale schizofrenie kan veroorzaken.”

De organisatie bekritiseert de Amerikaanse benadering van AI als te afstandelijk, die van Groot-Brittannië als risicovol door pro-innovatie en laissez-faire te zijn, en de AI-regels van de EU als gebrekkig omdat de lidstaten van het blok versplinteren en verschillende accenten en toepassingen van het blok aannemen. handhavingsmaatregelen.

Het document stelt ook dat de neiging van China om te reguleren met “een almachtig gecentraliseerd bureaucratisch systeem” gebrekkig is – zoals blijkt uit “de waarschijnlijke oorsprong van laboratoriumlekken van COVID-19.”

We kijken hier door de spiegel, mensen.

(Voor de goede orde: het Amerikaanse bureau van de directeur van de nationale inlichtingendienst heeft dat gedaan geen enkele aanwijzing gevonden dat het virus uit een Chinees laboratorium is gelekt.)

Maar we dwalen af.

De Raad suggereert dat AI moet worden beschouwd als een “gedecentraliseerd zelforganiserend systeem [dat evolueert] door middel van feedbackloops, faseovergangen en gevoeligheid voor initiële omstandigheden” en noemt andere voorbeelden van dergelijke systemen – zoals niet-lineaire entiteiten op de financiële markten, het gedrag van mierenkolonies of verkeerspatronen.

“Traditionele methoden schieten tekort vanwege het niet-lineaire, onvoorspelbare karakter van AI. AI-systemen lijken op Complex Adaptive Systems (CAS), waarbij componenten op onvoorspelbare manieren op elkaar inwerken en evolueren.” uitgelegd [PDF] de raad.

De Raad vertrouwt niet graag op “ex-ante” maatregelen, omdat het onmogelijk is om vooraf te weten welk risico een AI-systeem met zich meebrengt – het gedrag ervan is het resultaat van te veel factoren.

Het document stelt daarom voor dat India vijf regelgevende maatregelen neemt:

  • Het plaatsen van leuningen en scheidingswanden, wat ervoor moet zorgen dat AI-technologieën hun beoogde functie niet overschrijden en geen inbreuk maken op gevaarlijke gebieden – zoals de besluitvorming over nucleaire bewapening. Als ze op de een of andere manier de vangrail in één systeem doorbreken, zijn de scheidingswanden er om ervoor te zorgen dat het zich niet verspreidt.
  • Zorgen voor handmatige overschrijvingen en autorisatie-chokepoints die mensen de controle houden en hen veilig houden met meervoudige authenticatie en een gelaagd beoordelingsproces voor menselijke besluitvormers.
  • Transparantie en uitlegbaarheid met maatregelen zoals open licenties voor kernalgoritmen om een ​​auditvriendelijke omgeving te bevorderen, regelmatige audits en beoordelingen, en gestandaardiseerde ontwikkelingsdocumentatie.
  • Aparte verantwoordelijkheid via vooraf gedefinieerde aansprakelijkheidsprotocollen, verplichte gestandaardiseerde incidentrapportage en onderzoeksmechanismen.
  • Het opzetten van een gespecialiseerd regelgevend orgaandat een breed mandaat krijgt, een feedbackgestuurde aanpak hanteert, het gedrag van AI-systemen monitort en volgt, geautomatiseerde waarschuwingssystemen integreert en een nationaal register opzet.

De Raad adviseerde om naar andere CAS-systemen te kijken voor ideeën over hoe zijn ideeën te verwezenlijken – in de eerste plaats op de financiële markten.

“Inzichten uit het besturen van chaotische systemen zoals de financiële markten demonstreren haalbare reguleringsbenaderingen voor complexe technologieën”, merkt het document op, wat suggereert dat toegewijde AI-toezichthouders gemodelleerd zouden kunnen worden naar financiële toezichthouders zoals het Indiase SEBI of het Amerikaanse SEC.

Net zoals deze instanties handelsstops opleggen wanneer markten in gevaar zijn, zouden toezichthouders soortgelijke ‘knelpunten’ kunnen invoeren waar AI onder controle zou worden gebracht. Verplichte financiële rapportage is een goed model voor het soort openbaarmaking dat AI-exploitanten zouden moeten indienen.

De zorgen van de auteurs worden gevoed door de overtuiging dat de toenemende alomtegenwoordigheid van AI – gecombineerd met de ondoorzichtigheid van de werking ervan – betekent dat kritieke infrastructuur, defensieoperaties en vele andere terreinen in gevaar zijn.

Tot de gevaren die zij schetsen behoren onder meer ‘op hol geslagen AI’, waarbij systemen zichzelf recursief kunnen verbeteren buiten de menselijke controle om en ‘niet aansluiten bij het menselijk welzijn’, en het vlindereffect – een scenario ‘waarin kleine veranderingen kunnen leiden tot aanzienlijke, onvoorziene gevolgen’.

“Daarom kan een systeem van ondoorzichtige staatscontrole over algoritmen, trainingssets en modellen met als doel de belangen te maximaliseren tot catastrofale gevolgen leiden”, waarschuwde de Raad.

In het document wordt opgemerkt dat de voorgestelde regelgeving ertoe kan leiden dat sommige scenario's moeten worden uitgesloten.

“Misschien zullen we nooit een superverbonden internet van alles toestaan”, geeft de Raad toe. Maar het concludeert dat de mensheid wellicht meer te winnen heeft bij strenge regelgeving.

“Degenen die AI-tools maken, zullen zich niet gemakkelijk laten afschrikken vanwege veronderstelde onbedoelde gevolgen – en daarmee een ex-ante 'Skin in the Game' invoegen. Mensen zullen overheersings- en autorisatiebevoegdheden behouden. Regelmatig verplichte audits zullen de verklaarbaarheid moeten afdwingen.” ®

spot_img

Laatste intelligentie

spot_img