Zephyrnet-logo

6 mythes over kunstmatige intelligentie ontkracht: feit en fictie scheiden – KDnuggets

Datum:

6 mythes over kunstmatige intelligentie ontkracht: feit en fictie scheiden
Afbeelding door redacteur
 

Kunstmatige intelligentie is ongetwijfeld het modewoord van onze tijd. De populariteit ervan, vooral met de opkomst van generatieve AI-toepassingen zoals ChatGPT, heeft het op de voorgrond van technologische debatten gebracht.

Iedereen heeft het over de impact van AI-generatieve apps zoals ChatGPT en of het eerlijk is om te profiteren van hun mogelijkheden. 

Te midden van al deze perfecte stormen is er echter een plotselinge golf van talloze mythen en misvattingen rond de term kunstmatige intelligentie of AI. 

Ik wed dat je er misschien al veel van hebt gehoord!

Laten we diep in deze mythen duiken, ze doorbreken en de ware aard van AI begrijpen.

In tegenstelling tot wat vaak wordt gedacht, is AI helemaal niet intelligent. De meeste mensen denken tegenwoordig dat AI-aangedreven modellen inderdaad intelligent zijn. Dit zou kunnen worden geleid door de opname van de term ‘intelligentie’ in de naam ‘kunstmatige intelligentie’.

Maar wat betekent intelligentie?

Intelligentie is een eigenschap die uniek is voor levende organismen en wordt gedefinieerd als het vermogen om kennis en vaardigheden te verwerven en toe te passen. Dit betekent dat intelligentie levende organismen in staat stelt om met hun omgeving te communiceren en zo te leren overleven.

AI daarentegen is een machinesimulatie die is ontworpen om bepaalde aspecten van deze natuurlijke intelligentie na te bootsen. De meeste AI-toepassingen waarmee we communiceren, vooral op zakelijke en online platforms, zijn afhankelijk van machinaal leren.

 

6 mythes over kunstmatige intelligentie ontkracht: feit en fictie scheiden
Afbeelding gegenereerd door Dall-E
 

Dit zijn gespecialiseerde AI-systemen die zijn getraind in specifieke taken en waarbij gebruik wordt gemaakt van enorme hoeveelheden gegevens. Ze blinken uit in hun toegewezen taken, of het nu gaat om het spelen van een spel, het vertalen van talen of het herkennen van afbeeldingen.

Buiten hun reikwijdte zijn ze echter meestal vrij nutteloos. Het concept van een AI die mensachtige intelligentie bezit over een spectrum van taken wordt algemene AI genoemd, en we zijn nog lang niet bij het bereiken van deze mijlpaal.

De race tussen technologiegiganten draait vaak om het opscheppen over de enorme omvang van hun AI-modellen.

Llama's 2 open-source LLM-lancering verraste ons met een versie met maar liefst 70 miljard functies, terwijl Palma van Google 540 miljard functies bevat en OpenAI's nieuwste lancering ChatGPT4 schittert met 1.8 biljoen functies. 

Het aantal miljard functies van de LLM vertaalt zich echter niet noodzakelijkerwijs in betere prestaties. 

De kwaliteit van de gegevens en de trainingsmethodologie zijn vaak kritischere bepalende factoren voor de prestaties en nauwkeurigheid van een model. Dit is al bewezen met de Alpaca-experiment van Stanford waar een eenvoudige Llama-gebaseerde LLM met 7 miljard functies de verbazingwekkende 176 miljard functies aangedreven door ChatGPT 3.5 zou kunnen verbinden.

Dit is dus een duidelijke NEE! 

Groter is niet altijd beter. Het optimaliseren van zowel de omvang van LLM's als de bijbehorende prestaties zal het gebruik van deze modellen lokaal democratiseren en ons in staat stellen ze in onze dagelijkse apparaten te integreren.

Een veel voorkomende misvatting is dat AI een mysterieuze zwarte doos is, zonder enige transparantie. Hoewel AI-systemen complex kunnen zijn en nog steeds tamelijk ondoorzichtig, worden er in werkelijkheid aanzienlijke inspanningen geleverd om de transparantie en verantwoordingsplicht ervan te vergroten.

Regelgevende instanties dringen aan op ethisch en verantwoord gebruik van AI. Belangrijke bewegingen zoals de Stanford AI-transparantierapport en Europese AI-wet zijn bedoeld om bedrijven ertoe aan te zetten hun AI-transparantie te vergroten en een basis te bieden voor overheden om regelgeving te formuleren op dit opkomende domein? 

Transparante AI is uitgegroeid tot een centraal discussiepunt in de AI-gemeenschap en omvat een groot aantal kwesties, zoals de processen waarmee individuen AI-modellen grondig kunnen testen en de grondgedachte achter AI-beslissingen kunnen begrijpen. 

Daarom werken dataprofessionals over de hele wereld al aan methoden om AI-modellen transparanter te maken. 

Dus hoewel dit gedeeltelijk waar kan zijn, is het niet zo ernstig als gebruikelijk!

Velen geloven dat AI-systemen perfect zijn en niet in staat tot fouten. Dit is verre van de waarheid. Zoals elk systeem zijn de prestaties van AI afhankelijk van de kwaliteit van de trainingsgegevens. En deze gegevens worden vaak, om niet te zeggen altijd, door mensen gecreëerd of beheerd.

Als deze gegevens vooroordelen bevatten, zal het AI-systeem deze onbedoeld in stand houden. 

Een analyse van een MIT-team van veelgebruikte, vooraf getrainde taalmodellen bracht duidelijke vooroordelen aan het licht bij het associëren van geslacht met bepaalde beroepen en emoties. Rollen als stewardess of secretaris waren bijvoorbeeld vooral verbonden met vrouwelijke eigenschappen, terwijl advocaat en rechter vooral verband hielden met mannelijke eigenschappen. Hetzelfde gedrag is emotioneel waargenomen. 

Andere gedetecteerde vooroordelen hebben betrekking op ras. Terwijl LLM’s hun weg vinden naar gezondheidszorgsystemen, ontstaat de angst dat dit wel het geval zal zijn schadelijke, op ras gebaseerde medische praktijken in stand houden, wat de vooroordelen weerspiegelt die inherent zijn aan de trainingsgegevens.

Het is essentieel dat menselijk ingrijpen deze tekortkomingen overziet en corrigeert, zodat de betrouwbaarheid van AI wordt gewaarborgd. De sleutel ligt in het gebruik van representatieve en onbevooroordeelde gegevens en het uitvoeren van algoritmische audits om deze vooroordelen tegen te gaan.

Een van de meest wijdverbreide angsten is dat AI tot massale werkloosheid zal leiden.

De geschiedenis wijst er echter op dat technologie weliswaar bepaalde banen overbodig kan maken, maar dat er tegelijkertijd nieuwe industrieën en kansen ontstaan.

 

6 mythes over kunstmatige intelligentie ontkracht: feit en fictie scheiden
Afbeelding van LinkedIn 
 

Het World Economic Forum heeft dat bijvoorbeeld voorspeld AI zou tegen 85 2025 miljoen banen kunnen vervangen, maar ook 97 miljoen nieuwe banen kunnen creëren.

De laatste en meest dystopische. De populaire cultuur, met films als The Matrix en Terminator, schetst een grimmig beeld van het potentieel van AI om de mensheid tot slaaf te maken. 

Hoewel invloedrijke stemmen als Elon Musk en Stephen Hawking hun zorgen hebben geuit, is de huidige staat van AI verre van dit dystopische beeld.

De huidige AI-modellen, zoals ChatGPT, zijn ontworpen om te helpen bij specifieke taken en beschikken niet over de mogelijkheden of motivaties die in sciencefictionverhalen worden afgebeeld. 

Dus voorlopig... zijn we nog steeds veilig!

Concluderend: nu AI zich blijft ontwikkelen en integreren in ons dagelijks leven, is het van cruciaal belang om feit en fictie te scheiden. 

Alleen met een duidelijk begrip kunnen we het volledige potentieel ervan benutten en de uitdagingen op verantwoorde wijze aanpakken.

Mythen kunnen het oordeel vertroebelen en vooruitgang belemmeren. 

Gewapend met kennis en een duidelijk begrip van de werkelijke reikwijdte van AI kunnen we vooruitgaan en ervoor zorgen dat de technologie de belangen van de mensheid dient.
 
 

Joseph Ferrer is een analytisch ingenieur uit Barcelona. Hij is afgestudeerd in natuurkunde en werkt momenteel op het gebied van datawetenschap toegepast op menselijke mobiliteit. Hij is een parttime contentmaker die zich richt op datawetenschap en -technologie. U kunt contact met hem opnemen via LinkedIn, Twitter or Medium.

spot_img

Laatste intelligentie

spot_img