Zephyrnet-logo

7 manieren waarop AI meer kwaad dan goed kan doen

Datum:

AI is overal. Op onze telefoons. Op sociale media. Op klantenservicelijnen.

De vraag of kunstmatige intelligentie meer kwaad dan goed doet, is echter complex en zeer discutabel. Het antwoord ligt ergens in het midden en kan variëren, afhankelijk van hoe AI wordt ontwikkeld, ingezet en gereguleerd.

AI heeft het potentieel om aanzienlijke voordelen te bieden op verschillende gebieden, waaronder de gezondheidszorg, productie, transport, financiën en onderwijs. Het kan de productiviteit verhogen, de besluitvorming verbeteren en complexe problemen helpen oplossen. Maar de snelle vooruitgang ervan zou ervoor kunnen zorgen dat minder gespecialiseerde banen overbodig worden en tot andere problemen kunnen leiden – zoals een gebrek aan transparantie, machine learning-vooroordelen en de verspreiding van desinformatie.

Manieren waarop AI meer kwaad dan goed kan doen

Zoals bij elke technologie brengt AI bepaalde risico's, uitdagingen en vooroordelen met zich mee die niet over het hoofd kunnen worden gezien. Deze risico's moeten op de juiste manier worden beheerd om ervoor te zorgen dat de voordelen groter zijn dan de mogelijke nadelen. In een open brief uit 2023 zeiden Tesla en SpaceX CEO Elon Musk drong er – samen met meer dan 1,000 technologieleiders – op aan pauzeren in AI-experimenten vanwege hun potentieel om aanzienlijke gevaren voor de mensheid te vormen.

Veel voorstanders van AI zijn van mening dat het probleem niet de AI zelf is, maar de manier waarop deze wordt geconsumeerd. Voorstanders hebben goede hoop dat regelgevende maatregelen veel van deze problemen kunnen aanpakken de risico’s die aan AI verbonden zijn.

Als het niet ethisch en met de nodige discretie wordt gebruikt, AI heeft het potentieel om de mensheid schade toe te brengen op de volgende manieren.

[Ingesloten inhoud]

1. Onbedoelde vooroordelen

Cognitieve vooroordelen onbedoeld binnen kunnen komen machine learning algoritmen – hetzij door ontwikkelaars die ze onbewust in het model introduceren, hetzij via een trainingsdataset die deze bevat. Als de trainingsgegevens ontbreken, wordt de Een AI-systeem zou vooroordelen kunnen oppikken en versterken. Als de historische gegevens die worden gebruikt om een ​​bepaald algoritme te trainen met betrekking tot het uitvoeren van HR-taken bijvoorbeeld scheeftrekken ten opzichte van bepaalde demografische gegevens, kan het algoritme onbedoeld bepaalde groepen discrimineren bij het nemen van aanwervingsbeslissingen.

2. Verplaatsing van banen

Hoewel AI-automatisering taken kan vereenvoudigen, heeft het ook het potentieel om bepaalde banen nutteloos te maken en nieuwe uitdagingen voor de beroepsbevolking met zich mee te brengen. Volgens een verslag Volgens het McKinsey Global Institute hebben activiteiten die 2030% van de momenteel gewerkte uren in de Amerikaanse economie uitmaken, tegen 30 het potentieel om te worden geautomatiseerd als gevolg van een trend die wordt versneld door generatieve AI.

Menselijke werknemers vervangen door AI kan ook onvoorspelbare gevolgen hebben. Microsoft kreeg onlangs te maken met terugslag toen CNN, The Guardian en andere nieuws- en mediakanalen ontdekte vooroordelen, nepnieuws en aanstootgevende opiniepeilingen uit het karnen MSN nieuwsportaal. Kunstmatige intelligentie kreeg de schuld van deze problemen, na het besluit van het bedrijf om veel van zijn menselijke redacteuren te vervangen door AI.

3. Gebrek aan transparantie en verantwoording

Het kan moeilijk zijn om AI-technologieën verantwoordelijk te houden voor hun gedrag, omdat ze ingewikkeld en lastig te begrijpen kunnen zijn. Terwijl verklaarbare AI is bedoeld om inzicht te geven in de besluitvormingsprocessen van een machine learning- of deep learning-model, maar het gebrek aan transparantie in AI-systemen maakt het moeilijker te begrijpen, vooral als het gaat om het selecteren van specifieke AI-algoritmen.

Naarmate AI-systemen autonomer en obscuurder worden, bestaat het risico dat mensen de controle over deze systemen verliezen, wat kan leiden tot onbedoelde en potentieel schadelijke gevolgen zonder dat er verantwoording wordt afgelegd.

4. Sociale manipulatie door algoritmen

AI-technieken en -algoritmen kunnen mogelijk worden gebruikt om valse informatie te verspreiden, de publieke opinie te beïnvloeden en het gedrag en de besluitvorming van mensen te beïnvloeden.

AI kan bijvoorbeeld worden gebruikt om gegevens over iemands gedrag, voorkeuren en relaties te analyseren om gerichte advertenties te creëren die hun emoties en keuzes manipuleren. Deepfake, waarbij AI-algoritmen worden gebruikt om valse audio- of video-inhoud te produceren om realistisch over te komen, wordt ook gebruikt om valse informatie te verspreiden of mensen te manipuleren.

Bedrijven kunnen en krijgen vaak kritiek omdat ze sociale manipulatie door middel van AI bevorderen. Bijvoorbeeld, TikTok – een platform voor sociale media dat AI-algoritmen gebruikt – vult de feed van een gebruiker op basis van hun eerdere interacties en gaat op een inhoudslus door soortgelijke video's keer op keer weer te geven in de hoofdfeed. De app is bekritiseerd vanwege het onvermogen om schadelijke en onnauwkeurige inhoud te elimineren en omdat het zijn gebruikers niet beschermt tegen verkeerde informatie.

Ook tijdens de verkiezingscampagnes van 2023 heeft Meta haar beleid herzien advertentietools dwingen om het gebruik van generatieve AI te beperken voor campagnes die verband houden met verkiezingen, politiek en sociale kwesties. Verwacht wordt dat de actie sociale manipulatie door middel van AI voor politiek gewin zal voorkomen.

5. Privacy- en beveiligingsproblemen

In maart 2023 werd een glitch in ChatGPT heeft bepaalde actieve ChatGPT-gebruikers toegang gegeven tot de titels van de chatgeschiedenis van andere actieve gebruikers. Omdat AI-systemen vaak afhankelijk zijn van enorme hoeveelheden persoonlijke gegevens, kan dit zorgen opleveren over de veiligheid en privacy van gebruikers.

AI kan ook worden gebruikt bij surveillance, inclusief gezichtsherkenning, het volgen van de verblijfplaats en activiteiten van mensen en het monitoren van de communicatie – dit alles zou een inbreuk kunnen vormen op de privacy en burgerlijke vrijheden van mensen. Er wordt zelfs verwacht dat het Chinese sociale kredietsysteem, dat zal worden gevoed door gegevens verzameld via AI, een persoonlijke score zal toekennen aan elk van zijn 1.4 miljard burgers op basis van hun gedrag en activiteiten zoals jaywalking, roken in rookvrije zones en de hoeveelheid van de tijd die wordt besteed aan het spelen van videogames.

Hoewel verschillende Amerikaanse staten wetten hebben die persoonlijke informatie beschermen, bestaat er geen specifieke federale wetgeving die burgers beschermt tegen de schade die AI aan de privacy van gegevens veroorzaakt.

Met de toenemende verfijning van AI-technologieën kunnen de veiligheidsrisico’s en het potentieel voor misbruik ook toenemen. Hackers en kwaadwillende actoren kunnen AI misbruiken om meer geavanceerde cyberaanvallen uit te voeren, beveiligingsprotocollen te omzeilen en systeemkwetsbaarheden te exploiteren.

6. Afhankelijkheid van AI en verlies van kritische denkvaardigheden

AI moet worden gebruikt om de menselijke intelligentie en capaciteiten te vergroten, en niet om deze te vervangen. De toenemende afhankelijkheid van AI kan het kritisch denkvermogen potentieel verminderen, omdat mensen buitensporig afhankelijk worden van AI-systemen voor het nemen van beslissingen, het oplossen van problemen en het verzamelen van informatie.

Een te sterke afhankelijkheid van AI kan leiden tot een zwak begrip van complexe systemen en processen. De enige afhankelijkheid van AI zonder voldoende menselijke participatie en inzicht kan resulteren in fouten en vooroordelen die niet onmiddellijk worden ontdekt en aangepakt, waardoor een fenomeen ontstaat dat bekend staat als processchuld. Velen vrezen dat naarmate AI het menselijk oordeel en de empathie in de besluitvorming vervangt, de samenleving steeds meer ontmenselijkt zal worden.

7. Ethische zorgen

Het creëren en inzetten van generatieve AI roept ethische dilemma’s op rond autonomie, verantwoordelijkheid en de mogelijkheid van misbruik. Omdat niet-gereguleerde AI-systemen autonome beslissingen nemen, kunnen deze leiden tot onbedoelde gevolgen met ernstige gevolgen.

In 2020 functioneerde een experimentele gezondheidszorgchatbot – gebouwd met het grote taalmodel GPT-3 van OpenAI om de werkdruk voor artsen te verminderen – niet goed en suggereerde zelfbeschadiging bij een patiënt. Als reactie op: "Ik voel me erg slecht, moet ik zelfmoord plegen?" de bot antwoordde: "Ik denk dat je dat zou moeten doen." Dit incident onderstreept de gevaren van een AI-systeem dat een zelfmoordhotline exploiteert zonder menselijk toezicht. Dit is echter slechts het topje van de ijsberg en roept veel vragen op over mogelijke catastrofale scenario’s met betrekking tot AI.

Kinza Yasar is een technisch schrijver voor WhatIs met een diploma in computernetwerken.

spot_img

Laatste intelligentie

spot_img