Zephyrnet-logo

Wat is AI? Hier is alles wat u moet weten over kunstmatige intelligentie

Datum:

Wat is kunstmatige intelligentie (AI)?

Het hangt ervan af wie je het vraagt.

In de jaren vijftig, de vaders van het veld, minsky en McCarthy, beschreef kunstmatige intelligentie als elke taak die wordt uitgevoerd door een machine waarvan eerder werd aangenomen dat deze menselijke intelligentie nodig had.

Dat is natuurlijk een vrij brede definitie, en daarom zul je soms argumenten tegenkomen over of iets echt AI is of niet.

Moderne definities van wat het betekent om intelligentie te creëren zijn specifieker. Francois Chollet, een AI-onderzoeker bij Google en maker van de machine-learning softwarebibliotheek Keras, heeft gezegd dat intelligentie gekoppeld is aan het vermogen van een systeem om zich aan te passen en te improviseren in een nieuwe omgeving, om zijn kennis te generaliseren en toe te passen op onbekende scenario's.

“Intelligentie is de efficiëntie waarmee je nieuwe vaardigheden verwerft bij taken waar je je voorheen niet op voorbereidde,” zei hij.

“Intelligentie is geen vaardigheid op zich; het is niet wat je kunt doen; het is hoe goed en hoe efficiënt je nieuwe dingen kunt leren.”

Het is een definitie waaronder moderne AI-aangedreven systemen, zoals virtuele assistenten, zouden worden gekarakteriseerd als 'smalle AI', het vermogen om hun training te generaliseren bij het uitvoeren van een beperkt aantal taken, zoals spraakherkenning of computervisie.

Doorgaans vertonen KI-systemen ten minste enkele van de volgende gedragingen die verband houden met menselijke intelligentie: plannen, leren, redeneren, probleemoplossing, kennisrepresentatie, perceptie, beweging en manipulatie en, in mindere mate, sociale intelligentie en creativiteit.

Wat zijn de verschillende soorten AI?

Op een zeer hoog niveau kan kunstmatige intelligentie worden opgesplitst in twee brede typen: 

Smalle AI

Smalle AI is wat we tegenwoordig overal om ons heen in computers zien - intelligente systemen die zijn geleerd of hebben geleerd hoe ze specifieke taken moeten uitvoeren zonder expliciet te zijn geprogrammeerd hoe ze dat moeten doen.

Dit type machine-intelligentie is duidelijk zichtbaar in de spraak- en taalherkenning van de virtuele Siri-assistent op de Apple iPhone, in de zichtherkenningssystemen op zelfrijdende auto's, of in de aanbevelingsengines die producten voorstellen die u misschien leuk vindt op basis van wat u in het verleden gekocht. In tegenstelling tot mensen kunnen deze systemen alleen leren of leren hoe ze gedefinieerde taken moeten uitvoeren, daarom worden ze smalle AI genoemd.

Algemene AI

Algemene AI is heel anders en is het type aanpasbare intellect dat bij mensen wordt aangetroffen, een flexibele vorm van intelligentie die in staat is om te leren hoe enorm verschillende taken moeten worden uitgevoerd, van het knippen tot het maken van spreadsheets of redeneren over een breed scala aan onderwerpen op basis van de verzamelde ervaring. 

Dit is het soort AI dat vaker wordt gezien in films, zoals HAL in 2001 of Skynet in The Terminator, maar die vandaag niet bestaat - en AI-experts zijn fel verdeeld over hoe snel het werkelijkheid zal worden.

Wat kan Narrow AI doen?

Er zijn een groot aantal opkomende toepassingen voor smalle AI:

  • Interpretatie van videobeelden van drones die visuele inspecties uitvoeren van infrastructuur zoals oliepijpleidingen.
  • Organiseren van persoonlijke en zakelijke agenda's.
  • Beantwoorden van eenvoudige vragen van de klantenservice.
  • Coördinatie met andere intelligente systemen om taken uit te voeren zoals het boeken van een hotel op een geschikte tijd en locatie.
  • Helpen radiologen om mogelijke tumoren op te sporen bij röntgenstralen.
  • Ongepaste inhoud online markeren, slijtage in liften detecteren op basis van gegevens die zijn verzameld door IoT-apparaten.
  • Een 3D-model van de wereld genereren op basis van satellietbeelden... de lijst gaat maar door.

Er ontstaan ​​voortdurend nieuwe toepassingen van deze leersystemen. Grafische kaart ontwerper Nvidia heeft onlangs een op AI gebaseerd systeem Maxine onthuld, waarmee mensen videogesprekken van goede kwaliteit kunnen voeren, bijna ongeacht de snelheid van hun internetverbinding. Het systeem vermindert de bandbreedte die nodig is voor dergelijke oproepen met een factor 10 door niet de volledige videostream via internet te verzenden en in plaats van een klein aantal statische beelden van de beller te animeren op een manier die is ontworpen om de gezichtsuitdrukkingen en bewegingen van de beller in realtime en niet te onderscheiden van de video.

Maar hoeveel onbenut potentieel deze systemen ook hebben, soms overtreffen de ambities voor de technologie de realiteit. Een voorbeeld hiervan zijn zelfrijdende auto's, die zelf worden ondersteund door AI-aangedreven systemen zoals computer vision. Elektrisch autobedrijf Tesla loopt enigszins achter op de oorspronkelijke tijdlijn van CEO Elon Musk voor het opwaarderen van het Autopilot-systeem van de auto naar "volledig zelfrijdend" van de beperktere ondersteunende rijmogelijkheden van het systeem, met de optie Volledig zelfrijdend pas onlangs uitgerold naar een selecte groep deskundige chauffeurs als onderdeel van een bètatestprogramma.

Wat kan Algemene AI doen?

Een onderzoek uitgevoerd onder vier groepen experts in 2012/13 door AI-onderzoekers Vincent C Müller en filosoof Nick Bostrom meldde een kans van 50% dat Algemene kunstmatige intelligentie (AGI) zou tussen 2040 en 2050 worden ontwikkeld, oplopend tot 90% in 2075. De groep ging nog verder en voorspelde dat zogenaamde 'superintelligentie' - wat Bostrom definieert als "elk intellect dat de cognitieve prestaties van mensen in vrijwel alle interessegebieden ver overtreft" - werd ongeveer 30 jaar na het bereiken van AGI verwacht. 

Recente beoordelingen door AI-experts zijn echter voorzichtiger. Pioniers op het gebied van modern AI-onderzoek zoals Geoffrey Hinton, Demis Hassabis en Yann LeCun zeggen dat de samenleving nog lang niet in de buurt is van AGI. Gezien de scepsis van de voorlopers op het gebied van moderne AI en de heel andere aard van moderne smalle AI-systemen dan AGI, is er misschien weinig reden om te vrezen dat een algemene kunstmatige intelligentie de samenleving in de nabije toekomst zal ontwrichten.

Dat gezegd hebbende, zijn sommige AI-experts van mening dat dergelijke projecties enorm optimistisch zijn gezien ons beperkte begrip van het menselijk brein en geloven dat AGI nog eeuwen verwijderd is.

Wat zijn recente mijlpalen in de ontwikkeling van AI?

watson-1.jpg

IBM

Hoewel moderne enge AI beperkt kan zijn tot het uitvoeren van specifieke taken, zijn deze systemen, binnen hun specialismen, soms in staat tot bovenmenselijke prestaties, in sommige gevallen zelfs van superieure creativiteit, een eigenschap die vaak wordt voorgehouden als intrinsiek menselijk.

Er zijn te veel doorbraken geweest om een ​​definitieve lijst samen te stellen, maar enkele hoogtepunten zijn: 

  • In 2009 toonde Google aan dat zijn zelfrijdende Toyota Prius meer dan 10 ritten van elk 100 mijl kon afleggen, waardoor de samenleving op weg was naar auto's zonder bestuurder.
  • In 2011 is het computersysteem IBM Watson haalde wereldwijd de krantenkoppen toen het de Amerikaanse quizshow Jeopardy! won., het verslaan van twee van de beste spelers die de show ooit had voortgebracht. Om de show te winnen, gebruikte Watson natuurlijke taalverwerking en analyses op enorme opslagplaatsen van gegevens die worden verwerkt om door mensen gestelde vragen te beantwoorden, vaak in een fractie van een seconde.
  • In 2012 luidde een andere doorbraak het potentieel van AI in om een ​​groot aantal nieuwe taken aan te pakken die voorheen als te complex werden beschouwd voor welke machine dan ook. Dat jaar zegevierde het AlexNet-systeem beslissend in de ImageNet Large Scale Visual Recognition Challenge. De nauwkeurigheid van AlexNet was zodanig dat het foutenpercentage halveerde in vergelijking met concurrerende systemen in de beeldherkenningswedstrijd.

De prestaties van AlexNet demonstreerden de kracht van leersystemen op basis van neurale netwerken, een model voor machinaal leren dat al tientallen jaren bestond, maar dat eindelijk zijn potentieel realiseerde dankzij verfijningen in de architectuur en sprongen in parallelle verwerkingskracht die mogelijk werden gemaakt door de wet van Moore. De bekwaamheid van machine-learningsystemen bij het uitvoeren van computervisie haalde dat jaar ook de krantenkoppen, met: Google traint een systeem om een ​​internetfavoriet te herkennen: foto's van katten.

De volgende demonstratie van de doeltreffendheid van machine-learningsystemen die de aandacht van het publiek trok, was: de triomf van de Google DeepMind AlphaGo AI in 2016 over een menselijke grootmeester in Go, een oud Chinees spel waarvan de complexiteit de computers decennialang overrompelde. Go heeft ongeveer 200 zetten per beurt in vergelijking met ongeveer 20 bij schaken. In de loop van een Go-spel zijn er zoveel mogelijke zetten die elk van tevoren moeten doorzoeken om het beste spel te identificeren, vanuit een computationeel oogpunt te duur. In plaats daarvan werd AlphaGo getraind in het spelen van het spel door bewegingen van menselijke experts te nemen in 30 miljoen Go-spellen en deze in dieplerende neurale netwerken te voeren.

Het trainen van deze deep learning-netwerken kan erg lang duren, waarbij enorme hoeveelheden gegevens moeten worden opgenomen en herhaald terwijl het systeem zijn model geleidelijk verfijnt om het beste resultaat te bereiken.

Echter, meer recentelijk heeft Google het trainingsproces verfijnd met AlphaGo Zero, een systeem dat 'volledig willekeurige' spelletjes tegen zichzelf speelde en er vervolgens van leerde. Google DeepMind CEO Demis Hassabis heeft ook een nieuwe versie van AlphaGo Zero onthuld die de spellen schaken en shogi onder de knie heeft.

En AI blijft sprinten langs nieuwe mijlpalen: een door OpenAI getraind systeem heeft de beste spelers ter wereld verslagen in één-op-één-wedstrijden van het online multiplayer-spel Dota 2.

Datzelfde jaar creëerde OpenAI AI-agenten die hun eigen taal om effectiever samen te werken en hun doel te bereiken, gevolgd door Facebook-agenten om onderhandelen en Leugen.

2020 was het jaar waarin een AI-systeem schijnbaar het vermogen kreeg om als een mens te schrijven en te praten over bijna elk onderwerp dat je maar kon bedenken.

Het systeem in kwestie, bekend als Generative Pre-trained Transformer 3 of kortweg GPT-3, is een neuraal netwerk dat is getraind op miljarden Engelstalige artikelen die beschikbaar zijn op het open web.

Al snel nadat het beschikbaar was gesteld voor testen door de non-profitorganisatie OpenAI, bruiste het internet van het vermogen van GPT-3 om artikelen te genereren over bijna elk onderwerp dat eraan werd voorgelegd, artikelen die op het eerste gezicht vaak moeilijk te onderscheiden van die welke door een mens zijn geschreven. Evenzo volgden indrukwekkende resultaten op andere gebieden, met zijn vermogen om overtuigend vragen beantwoorden over een breed scala aan onderwerpen en zelfs doorgaan voor een beginnende JavaScript-coder.

Maar hoewel veel GPT-3-gegenereerde artikelen een air van waarheidsgetrouwheid hadden, bleek uit verdere tests dat de gegenereerde zinnen vaak niet voldeden, het aanbieden van oppervlakkig plausibele maar verwarde verklaringen, evenals soms regelrechte onzin.

Er is nog steeds veel belangstelling voor het gebruik van het natuurlijke taalbegrip van het model als basis voor toekomstige services. Het is beschikbaar voor geselecteerde ontwikkelaars om in software in te bouwen via de bèta-API van OpenAI. Het zal ook zo zijn opgenomen in toekomstige services die beschikbaar zijn via het Azure-cloudplatform van Microsoft.

Misschien wel het meest opvallende voorbeeld van het potentieel van AI kwam eind 2020, toen het op Google gebaseerde neurale netwerk AlphaFold 2 een resultaat aantoonde dat sommigen een Nobelprijs voor scheikunde waardig noemen.

Het vermogen van het systeem om naar de bouwstenen van een eiwit, ook wel aminozuren genoemd, te kijken en de 3D-structuur van dat eiwit af te leiden, zou een grote invloed kunnen hebben op de snelheid waarmee ziekten worden begrepen en medicijnen worden ontwikkeld. In de Critical Assessment of Protein Structure Prediction-wedstrijd heeft AlphaFold 2 de 3D-structuur van een eiwit bepaald met een nauwkeurigheid die wedijvert met kristallografie, de gouden standaard voor het overtuigend modelleren van eiwitten.

In tegenstelling tot kristallografie, waarvoor maanden nodig zijn om resultaten terug te geven, kan AlphaFold 2 eiwitten in uren modelleren. Met de 3D-structuur van eiwitten die zo'n belangrijke rol spelen in de menselijke biologie en ziekte, is zo'n versnelling mogelijk geweest aangekondigd als een mijlpaal voor de medische wetenschap medical, om nog maar te zwijgen van mogelijke toepassingen in andere gebieden waar enzymen worden gebruikt in de biotech.

Wat is machine learning?

Vrijwel alle tot nu toe genoemde prestaties kwamen voort uit machine learning, een subset van AI die verantwoordelijk is voor de overgrote meerderheid van de prestaties in het veld in de afgelopen jaren. Als mensen het tegenwoordig over AI hebben, hebben ze het over het algemeen over machine learning. 

Momenteel genietend van iets van een heropleving, in eenvoudige bewoordingen, is machine learning waar een computersysteem leert hoe een taak moet worden uitgevoerd in plaats van te worden geprogrammeerd hoe dit moet. Deze beschrijving van machine learning gaat helemaal terug tot 1959 toen het werd bedacht door Arthur Samuel, een pionier op dit gebied die een van 's werelds eerste zelflerende systemen ontwikkelde, het Samuel Checkers-playing Program.

Om te leren, krijgen deze systemen enorme hoeveelheden gegevens binnen, die ze vervolgens gebruiken om te leren hoe ze een specifieke taak moeten uitvoeren, zoals het verstaan ​​van spraak of het ondertitelen van een foto. De kwaliteit en omvang van deze dataset zijn belangrijk voor het bouwen van een systeem dat zijn toegewezen taak nauwkeurig kan uitvoeren. Als u bijvoorbeeld een machine learning-systeem bouwt om huizenprijzen te voorspellen, moeten de trainingsgegevens meer omvatten dan alleen de grootte van het onroerend goed, maar ook andere opvallende factoren zoals het aantal slaapkamers of de grootte van de tuin.

Wat zijn neurale netwerken?

De sleutel tot het succes van machine learning zijn neurale netwerken. Deze wiskundige modellen zijn in staat om interne parameters aan te passen om de output te veranderen. Een neuraal netwerk wordt gevoed met datasets die het leren wat het moet uitspugen wanneer het tijdens de training bepaalde gegevens krijgt aangeboden. Concreet zou het netwerk grijswaardenafbeeldingen kunnen krijgen van de getallen tussen nul en 9, naast een reeks binaire cijfers - nullen en enen - die aangeven welk nummer in elke grijsschaalafbeelding wordt weergegeven. Het netwerk zou dan worden getraind en de interne parameters aanpassen totdat het het aantal in elke afbeelding met een hoge mate van nauwkeurigheid classificeert. Dit getrainde neurale netwerk zou vervolgens kunnen worden gebruikt om andere grijswaardenafbeeldingen van getallen tussen nul en 9 te classificeren. Een dergelijk netwerk werd gebruikt in een baanbrekend artikel dat de toepassing van neurale netwerken laat zien, gepubliceerd door Yann LeCun in 1989 en is gebruikt door de US Postal Service handgeschreven postcodes herkennen.

De structuur en werking van neurale netwerken zijn heel losjes gebaseerd op de verbindingen tussen neuronen in de hersenen. Neurale netwerken bestaan ​​uit onderling verbonden lagen van algoritmen die gegevens met elkaar in contact brengen. Ze kunnen worden getraind om specifieke taken uit te voeren door het belang aan te passen dat aan gegevens wordt toegekend terwijl deze tussen deze lagen worden doorgegeven. Tijdens de training van deze neurale netwerken, zullen de gewichten die aan gegevens worden gehecht terwijl deze tussen de lagen passeren, blijven worden gevarieerd totdat de uitvoer van het neurale netwerk heel dicht in de buurt komt van wat gewenst is. Op dat moment heeft het netwerk 'geleerd' een bepaalde taak uit te voeren. De gewenste output kan van alles zijn, van het correct labelen van fruit in een afbeelding tot het voorspellen wanneer een lift zou kunnen falen op basis van de sensorgegevens.

Een subset van machine learning is deep learning, waarbij neurale netwerken worden uitgebreid tot uitgestrekte netwerken met een groot aantal omvangrijke lagen die worden getraind met behulp van enorme hoeveelheden gegevens. Deze diepe neurale netwerken hebben geleid tot de huidige sprong voorwaarts in het vermogen van computers om taken als spraakherkenning en computervisie uit te voeren.

Er zijn verschillende soorten neurale netwerken met verschillende sterke en zwakke punten. Recurrente neurale netwerken (RNN) zijn een type neuraal netwerk dat bijzonder geschikt is voor natuurlijke taalverwerking (NLP) - de betekenis van tekst begrijpen - en spraakherkenning, terwijl convolutionele neurale netwerken hun oorsprong hebben in beeldherkenning en zo divers zijn als de aanbeveling. systemen en NLP. Het ontwerp van neurale netwerken evolueert ook, met onderzoekers het verfijnen van een effectievere vorm van een diep neuraal netwerk, het kortetermijngeheugen genaamd of LSTM — een type RNN-architectuur dat wordt gebruikt voor taken zoals NLP en voor beursvoorspellingen — waardoor het snel genoeg kan werken om te worden gebruikt in on-demandsystemen zoals Google Translate. 

ai-ml-neuraal-netwerk.jpg

De structuur en training van diepe neurale netwerken.

Afbeelding: Nuance

Wat zijn andere soorten AI?

Een ander gebied van AI-onderzoek is: evolutionaire berekening.

Het leent van Darwins theorie van natuurlijke selectie. Het ziet genetische algoritmen willekeurige mutaties en combinaties tussen generaties ondergaan in een poging om de optimale oplossing voor een bepaald probleem te ontwikkelen.

Deze aanpak is zelfs gebruikt om AI-modellen te ontwerpen, waarbij AI effectief wordt gebruikt om AI te helpen bouwen. Dit gebruik van evolutionaire algoritmen om neurale netwerken te optimaliseren, wordt neuro-evolutie genoemd. Het zou een belangrijke rol kunnen spelen bij het ontwerpen van efficiënte AI, aangezien het gebruik van intelligente systemen steeds vaker voorkomt, vooral omdat de vraag naar datawetenschappers vaak groter is dan het aanbod. De techniek werd gedemonstreerd door Uber AI Labs, die papieren heeft vrijgegeven over het gebruik van genetische algoritmen om diepe neurale netwerken te trainen voor leerproblemen met versterking.

Eindelijk, er zijn expertsystemen, waar computers zijn geprogrammeerd met regels waarmee ze een reeks beslissingen kunnen nemen op basis van een groot aantal invoer, waardoor die machine het gedrag van een menselijke expert in een specifiek domein kan nabootsen. Een voorbeeld van deze op kennis gebaseerde systemen kan bijvoorbeeld een stuurautomaatsysteem zijn dat een vliegtuig bestuurt.

Wat voedt de heropleving van AI?

Zoals hierboven geschetst, waren de grootste doorbraken voor AI-onderzoek de afgelopen jaren op het gebied van machine learning, met name op het gebied van deep learning.

Dit is deels veroorzaakt door de gemakkelijke beschikbaarheid van gegevens, maar nog meer door een explosie van parallelle rekenkracht, gedurende welke tijd het gebruik van clusters van grafische verwerkingseenheden (GPU's) om machine learning-systemen te trainen steeds meer voorkomt. 

Deze clusters bieden niet alleen veel krachtigere systemen voor het trainen van machine learning-modellen, maar zijn nu ook algemeen beschikbaar als cloudservices via internet. In de loop van de tijd hebben de grote technologiebedrijven, zoals Kopen Google Reviews, Microsoft, en Tesla, zijn overgestapt op het gebruik van gespecialiseerde chips die zijn afgestemd op zowel lopende, als meer recentelijk, trainingsmodellen voor machine learning.

Een voorbeeld van een van deze aangepaste chips is de Tensor Processing Unit (TPU) van Google, waarvan de nieuwste versie de snelheid versnelt waarmee nuttige modellen voor machinaal leren die zijn gebouwd met behulp van de TensorFlow-softwarebibliotheek van Google, informatie uit gegevens kunnen afleiden, evenals de snelheid waarmee waarmee ze kunnen worden opgeleid.

Deze chips worden gebruikt om modellen te trainen voor DeepMind en Google Brain en de modellen die ten grondslag liggen aan Google Translate en de beeldherkenning in Google Foto's en diensten waarmee het publiek machine learning-modellen kan bouwen met Google's TensorFlow Research Cloud. De derde generatie van deze chips werd onthuld op de I/O-conferentie van Google in mei 2018 en is sindsdien verpakt in machine learning-krachtpatsers, pods genaamd, die meer dan honderdduizend biljoen drijvende-kommabewerkingen per seconde (100 petaflops) kunnen uitvoeren. Deze voortdurende TPU-upgrades hebben Google in staat gesteld zijn services te verbeteren die zijn gebaseerd op modellen voor machine learning, bijvoorbeeld de tijd die nodig is om modellen te trainen die in Google Translate worden gebruikt, halveren.

Wat zijn de elementen van machine learning?

Zoals eerder vermeld, is machine learning een subset van AI en wordt het over het algemeen opgesplitst in twee hoofdcategorieën: begeleid en niet-gesuperviseerd leren.

Leren onder toezicht

Een veelgebruikte techniek voor het aanleren van AI-systemen is door ze te trainen met behulp van veel gelabelde voorbeelden. Deze machine-learningsystemen worden gevoed met enorme hoeveelheden gegevens, die zijn geannoteerd om de interessante functies te benadrukken. Dit kunnen foto's zijn met een label om aan te geven of ze een hond bevatten of geschreven zinnen met voetnoten om aan te geven of het woord 'bas' betrekking heeft op muziek of op een vis. Eenmaal getraind, kan het systeem deze labels vervolgens toepassen op nieuwe gegevens, bijvoorbeeld op een hond op een foto die zojuist is geüpload.

Dit proces waarbij bijvoorbeeld een machine wordt aangeleerd, wordt begeleid leren genoemd. Het labelen van deze voorbeelden wordt gewoonlijk uitgevoerd door: online werknemers in dienst via platforms zoals Amazon Mechanical Turk.

Het trainen van deze systemen vereist doorgaans enorme hoeveelheden gegevens, waarbij sommige systemen miljoenen voorbeelden moeten doorzoeken om te leren hoe ze een taak effectief kunnen uitvoeren, hoewel dit in een tijdperk van big data en wijdverbreide datamining steeds meer mogelijk is. Trainingsdatasets zijn enorm en groeien in omvang — Google's Open Images Dataset bevat ongeveer negen miljoen afbeeldingen, terwijl het is gelabeld videorepository YouTube-8M links naar zeven miljoen gelabelde video's. IMAGEnet, een van de eerste databases van dit soort, heeft meer dan 14 miljoen gecategoriseerde afbeeldingen. Het werd in twee jaar tijd samengesteld en werd samengesteld door bijna 50 000 mensen - van wie de meesten werden gerekruteerd via Amazon Mechanical Turk - die bijna een miljard foto's van kandidaten controleerden, sorteerden en labelden. 

Toegang hebben tot enorme gelabelde datasets kan op de lange termijn ook minder belangrijk zijn dan toegang tot grote hoeveelheden rekenkracht.

In de afgelopen jaren hebben generatieve vijandige netwerken (GAN) zijn gebruikt in machine learning-systemen die slechts een kleine hoeveelheid gelabelde gegevens nodig hebben naast een grote hoeveelheid niet-gelabelde gegevens, wat, zoals de naam al doet vermoeden, minder handmatig werk vereist om voor te bereiden.

Deze benadering zou het toegenomen gebruik van semi-gesuperviseerd leren mogelijk maken, waarbij systemen kunnen leren taken uit te voeren met een veel kleinere hoeveelheid gelabelde gegevens dan nodig is voor trainingssystemen die tegenwoordig gebruikmaken van gesuperviseerd leren.

Niet-gecontroleerd leren

Unsupervised learning daarentegen gebruikt een andere benadering, waarbij algoritmen patronen in gegevens proberen te identificeren, op zoek naar overeenkomsten die kunnen worden gebruikt om die gegevens te categoriseren.

Een voorbeeld kan zijn het clusteren van fruit dat een vergelijkbare hoeveelheid weegt of auto's met een vergelijkbare motorinhoud.

Het algoritme is niet van tevoren ingesteld om specifieke soorten gegevens eruit te pikken; het zoekt gewoon naar gegevens die door de overeenkomsten kunnen worden gegroepeerd, bijvoorbeeld Google Nieuws dat elke dag verhalen over vergelijkbare onderwerpen groepeert.

Versterking leren

Een ruwe analogie voor het leren van versterking is het belonen van een huisdier met een traktatie wanneer het een truc uitvoert. Bij versterkingsleren probeert het systeem een ​​beloning te maximaliseren op basis van de invoergegevens, waarbij het in feite een proces van vallen en opstaan ​​​​doorloopt totdat het de best mogelijke uitkomst bereikt.

Een voorbeeld van versterkend leren is het Deep Q-netwerk van Google DeepMind, dat: is gebruikt voor de beste menselijke prestaties in verschillende klassieke videogames. Het systeem krijgt pixels van elk spel en bepaalt verschillende informatie, zoals de afstand tussen objecten op het scherm.

Door ook te kijken naar de behaalde score in elk spel, bouwt het systeem een ​​model op waarvan de actie de score in verschillende omstandigheden zal maximaliseren, bijvoorbeeld in het geval van het videospel Breakout, waar de peddel naartoe moet worden verplaatst om te onderscheppen de bal.

De aanpak wordt ook gebruikt in robotica-onderzoek, waar versterkingsleren kan helpen om autonome robots de optimale manier te leren om zich in echte omgevingen te gedragen.

ai-ml-gartner-hype-cycle.jpg

Veel AI-gerelateerde technologieën naderen, of hebben al bereikt, de "piek van opgeblazen verwachtingen" in Gartner's Hype Cycle, met het door terugslag gedreven 'dal van desillusie' op de loer.

Afbeelding: Gartner / Annotaties: ZDNet

Wat zijn de leidende bedrijven in AI?

Nu AI een steeds grotere rol speelt in moderne software en diensten, strijdt elk groot technologiebedrijf om robuuste machine learning-technologie te ontwikkelen voor intern gebruik en om via cloudservices aan het publiek te verkopen.

Elk haalt regelmatig de krantenkoppen voor baanbrekende ontdekkingen in AI-onderzoek, hoewel het waarschijnlijk Google is met zijn DeepMind AI AlphaFold- en AlphaGo-systemen die waarschijnlijk de grootste impact hebben gehad op het publieke bewustzijn van AI.

Welke AI-services zijn beschikbaar?

Alle grote cloudplatforms — Amazon Web Services, Microsoft Azure en Google Cloud Platform — bieden toegang tot GPU-arrays voor training en het uitvoeren van machine learning-modellen, met Google bereidt zich ook voor om gebruikers de Tensor Processing Units te laten gebruiken — aangepaste chips waarvan het ontwerp is geoptimaliseerd voor het trainen en uitvoeren van machine learning-modellen.

Alle benodigde bijbehorende infrastructuur en services zijn beschikbaar bij de grote drie, de cloudgebaseerde gegevensopslag, die de enorme hoeveelheid gegevens kan bevatten die nodig zijn om machine learning-modellen te trainen, services om gegevens te transformeren om deze voor te bereiden voor analyse, visualisatietools om de resultaten duidelijk weer te geven, en software die het bouwen van modellen vereenvoudigt.

Deze cloudplatforms vereenvoudigen zelfs het maken van aangepaste modellen voor machine learning, met het aanbod van Google een service die het maken van AI-modellen automatiseert, genaamd Cloud AutoML. Deze service voor slepen en neerzetten bouwt aangepaste modellen voor beeldherkenning en vereist dat de gebruiker geen ervaring heeft met machine learning.

Cloudgebaseerde, machine learning-services zijn voortdurend in ontwikkeling. Amazon biedt nu een groot aantal AWS-aanbiedingen ontworpen om het proces van het trainen van machine learning-modellen te stroomlijnen en onlangs gelanceerde Amazon SageMaker Clarify, een hulpmiddel om organisaties te helpen vooroordelen en onevenwichtigheden in trainingsgegevens uit te roeien die zouden kunnen leiden tot scheve voorspellingen door het getrainde model.

Voor die bedrijven die geen eigen machine=learning-modellen willen bouwen, maar in plaats daarvan AI-aangedreven, on-demand services willen gebruiken, zoals spraak-, visie- en taalherkenning, onderscheidt Microsoft Azure zich door het brede scala aan services op aanbod, op de voet gevolgd door Google Cloud Platform en vervolgens AWS. Ondertussen probeert IBM, naast zijn meer algemene on-demand aanbod, ook sectorspecifieke AI-diensten te verkopen die gericht zijn op alles, van gezondheidszorg tot detailhandel, en groepeert dit aanbod onder zijn IBM Watson-paraplu en $ 2 miljard geïnvesteerd in de aankoop van The Weather Channel om een ​​schat aan gegevens te ontsluiten om zijn AI-services te vergroten.

Welke van de grote technologiebedrijven wint de AI-race?

amazon-echo-plus-2.jpg

Afbeelding: Jason Cipriani/ZDNet

Intern gebruiken elke technologiegigant en anderen zoals Facebook AI om talloze openbare diensten te helpen stimuleren: zoekresultaten weergeven, aanbevelingen doen, mensen en dingen op foto's herkennen, on-demand vertalingen, spam spotten - de lijst is uitgebreid.

Maar een van de meest zichtbare uitingen van deze AI-oorlog is de opkomst van virtuele assistenten, zoals Apple's Siri, Amazon's Alexa, de Google Assistant en Microsoft Cortana.

Omdat ze sterk afhankelijk zijn van spraakherkenning en natuurlijke taalverwerking en een enorm corpus nodig hebben om vragen te beantwoorden, gaat er een enorme hoeveelheid technologie naar de ontwikkeling van deze assistenten.

Maar hoewel Siri van Apple misschien als eerste bekendheid heeft gekregen, zijn het Google en Amazon wiens assistenten sindsdien Apple hebben ingehaald op het gebied van AI - Google Assistant met zijn vermogen om een ​​breed scala aan vragen te beantwoorden en Amazon's Alexa met het enorme aantal 'vaardigheden' die externe ontwikkelaars hebben gemaakt om toe te voegen aan de mogelijkheden.

In de loop van de tijd krijgen deze assistenten vaardigheden waardoor ze responsiever worden en beter in staat zijn om te gaan met het soort vragen dat mensen stellen in reguliere gesprekken. De Google Assistent biedt nu bijvoorbeeld een functie genaamd Voortgezet gesprek, waar een gebruiker vervolgvragen kan stellen op hun eerste vraag, zoals 'Hoe is het weer vandaag?', gevolgd door 'Hoe zit het met morgen?' en het systeem begrijpt dat de vervolgvraag ook betrekking heeft op het weer.

Deze assistenten en bijbehorende services kunnen ook veel meer aan dan alleen spraak, met de nieuwste incarnatie van de Google Lens die tekst in afbeeldingen kan vertalen en u kunt zoeken naar kleding of meubels met behulp van foto's.

Ondanks dat het in Windows 10 is ingebouwd, heeft Cortana het de laatste tijd bijzonder moeilijk gehad, met Amazon's Alexa nu gratis beschikbaar op Windows 10-pc's. Tegelijkertijd heeft Microsoft vernieuwde Cortana's rol in het besturingssysteem om zich meer te concentreren op productiviteitstaken, zoals het beheren van het schema van de gebruiker, in plaats van meer op de consument gerichte functies van andere assistenten, zoals het afspelen van muziek.  

Welke landen lopen voorop in AI?

Het zou een grote vergissing zijn om te denken dat de Amerikaanse techreuzen het gebied van AI hebben genaaid. Chinese bedrijven Alibaba, Baidu en Lenovo investeren fors in AI op gebieden variërend van e-commerce tot autonoom rijden. Als land streeft China naar een driestappenplan om van AI een kernindustrie voor het land te maken, een die tegen het einde van 150 22 miljard yuan ($ 2020 miljard) waard zal zijn worden 's werelds toonaangevende AI-kracht tegen 2030.

Baidu heeft geïnvesteerd in de ontwikkeling van zelfrijdende auto's, mogelijk gemaakt door het diepgaande algoritme, Baidu AutoBrain. Na een aantal jaren van testen, met zijn Apollo zelfrijdende auto met meer dan drie miljoen mijl gereden in tests, meer dan 100 passagiers vervoerd in 000 steden wereldwijd.

Baidu lanceerde dit jaar een vloot van 40 Apollo Go Robotaxis in Peking. De oprichter van het bedrijf voorspelde dat zelfrijdende voertuigen binnen vijf jaar gemeengoed zullen zijn in de steden van China. 

De combinatie van zwakke privacywetten, enorme investeringen, gecoördineerde gegevensverzameling en big data-analyse door grote bedrijven zoals Baidu, Alibaba en Tencent, betekent dat sommige analisten denken dat China een voordeel zal hebben ten opzichte van de VS als het gaat om toekomstig AI-onderzoek , waarbij één analist de kans op China neemt de leiding over de VS als 500 tegen 1 in het voordeel van China.

Baidu-autonome-auto.jpg

Baidu's zelfrijdende auto, een aangepaste BMW 3-serie.

Afbeelding: Baidu

Hoe kan ik aan de slag met AI?

Hoewel je een redelijk krachtige Nvidia GPU voor je pc zou kunnen kopen - ergens rond de Nvidia GeForce RTX 2060 of sneller - en een machine learning-model zou gaan trainen, is waarschijnlijk de gemakkelijkste manier om te experimenteren met AI-gerelateerde services via de cloud.

Alle grote technologiebedrijven bieden verschillende AI-services aan, van de infrastructuur om uw eigen machine learning-modellen te bouwen en te trainen tot webservices waarmee u on-demand toegang krijgt tot AI-aangedreven tools zoals spraak-, taal-, visie- en sentimentherkenning .

Hoe gaat AI de wereld veranderen?

Robots en auto's zonder bestuurder

De wens dat robots autonoom kunnen handelen en de wereld om hen heen kunnen begrijpen en navigeren, betekent dat er een natuurlijke overlap is tussen robotica en AI. Hoewel AI slechts een van de technologieën is die in robotica worden gebruikt, helpt AI robots om nieuwe gebieden te betreden, zoals: zelfrijdende auto'sbezorg robots en robots helpen nieuwe vaardigheden leren. Begin 2020 is General Motors en Honda hebben de Cruise Origin onthuld, een elektrisch aangedreven auto zonder bestuurder en Waymo, de zelfrijdende groep binnen Google-moederalfabet, heeft onlangs zijn robotaxi-service geopend voor het grote publiek in Phoenix, Arizona, het aanbieden van een dienst die een gebied van 50 vierkante mijl in de stad beslaat.

Fake nieuws

We staan ​​op het punt om neurale netwerken te hebben die maak fotorealistische afbeeldingen or iemands stem repliceren op een perfecte manier. Dat brengt het potentieel met zich mee voor enorm ontwrichtende sociale veranderingen, zoals het niet langer kunnen vertrouwen op video- of audiobeelden als echt. Er begint ook bezorgdheid te ontstaan ​​over de manier waarop dergelijke technologieën zullen worden gebruikt om de beelden van mensen te misbruiken, en er worden al tools gemaakt om beroemde gezichten overtuigend in films voor volwassenen te verwerken.

Spraak- en taalherkenning

Machine learning-systemen hebben computers geholpen te herkennen wat mensen zeggen met een nauwkeurigheid van bijna 95%. De kunstmatige intelligentie- en onderzoeksgroep van Microsoft meldde ook dat het een systeem had ontwikkeld dat transcribeert gesproken Engels zo nauwkeurig als menselijke transcribenten.

Nu onderzoekers een doel van 99% nauwkeurigheid nastreven, verwachten we dat praten met computers steeds gebruikelijker zal worden naast meer traditionele vormen van mens-machine-interactie.

Ondertussen zorgde OpenAI's taalvoorspellingsmodel GPT-3 onlangs voor opschudding met zijn vermogen om artikelen te maken die door een mens zouden kunnen worden geschreven.

Gezichtsherkenning en bewaking

In de afgelopen jaren is de nauwkeurigheid van gezichtsherkenningssystemen enorm toegenomen, tot het punt waarop Chinese techgigant Baidu zegt dat het gezichten kan matchen met 99% nauwkeurigheid, op voorwaarde dat het gezicht duidelijk genoeg is op de video. Terwijl de politie in westerse landen over het algemeen alleen heeft geprobeerd gezichtsherkenningssystemen te gebruiken bij grote evenementen, zetten de autoriteiten in China een landelijk programma op om CCTV in het hele land te verbinden met gezichtsherkenning en om AI-systemen te gebruiken om verdachten en verdacht gedrag op te sporen, en heeft ook het gebruik van gezichtsherkenningsbrillen door de politie uitgebreid.

Hoewel privacyregelgeving wereldwijd varieert, is het waarschijnlijk dat dit meer indringende gebruik van AI-technologie - inclusief AI die emoties kan herkennen - geleidelijk meer wijdverspreid zal worden. Een groeiend verzet en vragen over de eerlijkheid van gezichtsherkenningssystemen hebben er echter toe geleid dat Amazon, IBM en Microsoft de verkoop van deze systemen aan wetshandhavers hebben stopgezet of stopgezet.

Gezondheidszorg

AI kan uiteindelijk een dramatische impact hebben op de gezondheidszorg, radiologen helpen om tumoren op röntgenfoto's te onderscheiden, onderzoekers helpen bij het opsporen van genetische sequenties die verband houden met ziekten en het identificeren van moleculen die kunnen leiden tot effectievere medicijnen. De recente doorbraak van Google's AlphaFold 2 machine-learning systeem zal naar verwachting de tijd die nodig is tijdens een belangrijke stap bij het ontwikkelen van nieuwe medicijnen van maanden tot uren terugbrengen.

Er zijn proeven geweest met AI-gerelateerde technologie in ziekenhuizen over de hele wereld. Deze omvatten IBM's Watson klinische beslissingsondersteunende tool, die oncologen trainen in het Memorial Sloan Kettering Cancer Center, en de gebruik van Google DeepMind-systemen door de Britse National Health Service, waar het helpt bij het opsporen van oogafwijkingen en het stroomlijnen van het proces van screening van patiënten op hoofd- en nekkanker.

Versterking van discriminatie en vooringenomenheid 

Een groeiende zorg is de manier waarop systemen voor machinaal leren de menselijke vooroordelen en maatschappelijke ongelijkheden die in hun trainingsgegevens worden weerspiegeld, kunnen codificeren. Deze vrees wordt bevestigd door meerdere voorbeelden van hoe een gebrek aan variatie in de gegevens die worden gebruikt om dergelijke systemen te trainen, negatieve gevolgen heeft voor de echte wereld. 

In 2018, jaar MIT en Microsoft onderzoekspaper ontdekte dat gezichtsherkenningssystemen die door grote technologiebedrijven worden verkocht, last hadden van foutenpercentages die aanzienlijk hoger waren bij het identificeren van mensen met een donkere huid, een probleem dat wordt toegeschreven aan het feit dat trainingsdatasets voornamelijk uit blanke mannen bestaan.

Nog een een jaar later studeren benadrukte dat het gezichtsherkenningssysteem van Amazon Rekognition problemen had met het identificeren van het geslacht van personen met een donkere huid, a beschuldiging die werd uitgedaagd door Amazon executives executive, vragen een van de onderzoekers om de punten in het Amazon-weerwoord aan te pakken.

Sinds de studies zijn gepubliceerd, zijn veel van de grote technologiebedrijven, althans tijdelijk, gestopt met de verkoop van gezichtsherkenningssystemen aan politiediensten.

Een ander voorbeeld van onvoldoende gevarieerde trainingsgegevens die de resultaten scheeftrekken, haalde de krantenkoppen in 2018 toen: Amazon schrapte een machine-learning wervingstool die mannelijke sollicitanten als de voorkeur identificeerde. Vandaag is het onderzoek aan de gang naar manieren om vooroordelen in zelflerende systemen te compenseren.

AI en opwarming van de aarde

Naarmate de omvang van machine learning-modellen en de datasets die worden gebruikt om ze te trainen, toeneemt, neemt ook de ecologische voetafdruk toe van de enorme rekenclusters die deze modellen vormen en uitvoeren. De milieu-impact van het voeden en koelen van deze compute farms was: het onderwerp van een paper van het World Economic Forum in 2018. Een De schatting van 2019 was dat het vermogen dat nodig is voor machine learning-systemen elke 3.4 maanden verdubbelt.

Het probleem van de enorme hoeveelheid energie die nodig is om krachtige machine learning-modellen te trainen, was: onlangs onder de aandacht gebracht door de release van het taalvoorspellingsmodel GPT-3, een uitgestrekt neuraal netwerk met zo'n 175 miljard parameters. 

Hoewel de middelen die nodig zijn om dergelijke modellen te trainen enorm kunnen zijn en grotendeels alleen beschikbaar zijn voor grote bedrijven, is de energie die nodig is om deze modellen te laten werken, eenmaal getraind aanzienlijk minder. Naarmate de vraag naar diensten op basis van deze modellen groeit, wordt het energieverbruik en de daaruit voortvloeiende milieu-impact opnieuw een probleem.

Een argument is dat de milieu-impact van training en het runnen van grotere modellen moet worden afgewogen tegen de potentiële machine learning moet een significant positief effect hebben, bijvoorbeeld de snellere vooruitgang in de gezondheidszorg die waarschijnlijk lijkt na de doorbraak van Google DeepMind's AlphaFold 2.

Zal AI ons allemaal doden?

Nogmaals, het hangt af van wie je het vraagt. Naarmate AI-aangedreven systemen capabeler zijn geworden, zijn waarschuwingen voor de nadelen erger geworden.

Tesla en SpaceX CEO Elon Musk heeft beweerd: dat AI een "fundamenteel risico is voor het bestaan ​​van de menselijke beschaving". Als onderdeel van zijn streven naar sterker regelgevend toezicht en meer verantwoord onderzoek naar het verminderen van de nadelen van AI, richtte hij OpenAI op, een non-profit onderzoeksbureau op het gebied van kunstmatige intelligentie dat vriendelijke AI wil promoten en ontwikkelen waar de samenleving als geheel van profiteert. Evenzo waarschuwde de gewaardeerde natuurkundige Stephen Hawking dat zodra een voldoende geavanceerde AI is gemaakt, deze zal snel vooruitgaan tot het punt waarop het de menselijke capaciteiten enorm overtreft. Een fenomeen staat bekend als een singulariteit en kan een existentiële bedreiging vormen voor de mensheid.

Toch lijkt het idee dat de mensheid op de rand staat van een AI-explosie die ons intellect in de schaduw zal stellen, voor sommige AI-onderzoekers belachelijk.

Chris Bishop, onderzoeksdirecteur van Microsoft in Cambridge, Engeland, benadrukt hoe verschillend de beperkte intelligentie van AI tegenwoordig is van de algemene intelligentie van mensen, zeggende dat wanneer mensen zich zorgen maken over "Terminator en de opkomst van de machines enzovoort? Volstrekte onzin, ja. In het beste geval zijn dergelijke discussies tientallen jaren ver weg.”

Zal een AI je baan stelen?

14-amazon-kiva.png

Amazone

De mogelijkheid dat kunstmatig intelligente systemen veel van de moderne handarbeid vervangen, is misschien een meer geloofwaardige mogelijkheid in de nabije toekomst.

Hoewel AI niet alle banen zal vervangen, lijkt het zeker dat AI de aard van het werk zal veranderen, waarbij de enige vraag is hoe snel en hoe ingrijpend automatisering de werkplek zal veranderen.

Er is nauwelijks een gebied van menselijke inspanningen dat AI niet het potentieel heeft om invloed uit te oefenen. Zoals AI-expert Andrew Ng zegt:: “Veel mensen doen routinematige, repetitieve taken. Helaas is technologie vooral goed in het automatiseren van routinematig, repetitief werk”, zegt hij dat hij een “aanzienlijk risico op technologische werkloosheid in de komende decennia” ziet.

Het bewijs van welke banen zullen worden verdrongen, begint naar voren te komen. Er zijn nu 27 Amazon Go winkels en kassaloze supermarkten waar klanten gewoon artikelen uit de schappen halen en naar buiten lopen in de VS. Wat dit betekent voor de meer dan drie miljoen mensen in de VS die als kassier werken, valt nog te bezien. Amazon loopt opnieuw voorop in het gebruik van robots om de efficiëntie in zijn magazijnen te verbeteren. Deze robots dragen schappen met producten naar menselijke plukkers die items selecteren om te verzenden. Amazon heeft meer dan 200 bots in zijn fulfilmentcentra, met plannen om er meer toe te voegen. Maar Amazon benadrukt ook dat naarmate het aantal bots is gegroeid, ook het aantal menselijke werknemers in deze magazijnen is toegenomen. Amazon en kleine robotbedrijven werken aan het automatiseren van de resterende handmatige taken in het magazijn, dus het is geen gegeven dat handmatige en robotische arbeid hand in hand zullen blijven groeien.

Volledig autonome zelfrijdende voertuigen zijn nog geen realiteit, maar volgens sommige voorspellingen zelfrijdende vrachtwagenindustrie alleen al staat op het punt om in het komende decennium 1.7 miljoen banen over te nemen, zelfs zonder rekening te houden met de impact op koeriers en taxichauffeurs.

Maar voor sommige van de gemakkelijkst te automatiseren taken is zelfs geen robotica nodig. Op dit moment zijn er miljoenen mensen werkzaam in de administratie, het invoeren en kopiëren van gegevens tussen systemen, het najagen en boeken van afspraken voor bedrijven, aangezien software beter wordt in het automatisch bijwerken van systemen en het markeren van belangrijke informatie, waardoor de behoefte aan beheerders zal afnemen.

Zoals bij elke technologische verschuiving, zullen er nieuwe banen worden gecreëerd om de verloren te vervangen. Echter, wat onzeker is, is of deze nieuwe rollen snel genoeg zullen worden gecreëerd om werk te bieden aan ontheemden en of de nieuwe werklozen over de nodige vaardigheden of temperament zullen beschikken om deze opkomende rollen te vervullen.

Niet iedereen is een pessimist. Voor sommigen, AI is een technologie die werknemers zal vergroten in plaats van vervangen. Niet alleen dat, maar ze beweren dat er een commerciële noodzaak zal zijn om mensen niet regelrecht te vervangen, als een AI-geassisteerde werknemer - denk aan een menselijke conciërge met een AR-headset die hen precies vertelt wat een klant wil voordat ze erom vragen - zal zijn productiever of effectiever dan een AI die alleen werkt.

Er is een breed scala aan meningen over hoe snel kunstmatig intelligente systemen de menselijke capaciteiten zullen overtreffen onder AI-experts.

Future of Humanity Institute van de Universiteit van Oxford Oxford vroeg enkele honderden machine-learning-experts om AI-mogelijkheden te voorspellen de komende decennia.

Opmerkelijke data waren onder meer AI die essays schreef die in 2026 door een mens zouden kunnen worden geschreven, vrachtwagenchauffeurs die tegen 2027 werden ontslagen, AI die de menselijke capaciteiten in de detailhandel tegen 2031 overtreft, een bestseller schrijft tegen 2049 en het werk van een chirurg doet in 2053 .

Ze schatten dat er een relatief grote kans is dat AI de mens binnen 45 jaar verslaat bij alle taken en alle menselijke banen binnen 120 jaar automatiseert.

Bekijk meer:

IBM voegt Watson-tools toe voor begrijpend lezen, extractie van veelgestelde vragen.

Verwante dekking

Hoe ML en AI business intelligence en analytics zullen transformeren
De vooruitgang van machine learning en kunstmatige intelligentie op vijf gebieden zal de voorbereiding, ontdekking, analyse, voorspelling en datagestuurde besluitvorming vergemakkelijken.

Rapport: kunstmatige intelligentie creëert banen en genereert economische voordelen
Een nieuwe studie van Deloitte laat zien dat early adopters van cognitieve technologieën positief zijn over hun huidige en toekomstige rollen.

AI en banen: waar mensen beter zijn dan algoritmen, en vice versa
Het is gemakkelijk om verstrikt te raken in de onheilspellende voorspellingen over kunstmatige intelligentie die miljoenen banen wegvaagt. Hier is een realiteitscheck.

Hoe kunstmatige intelligentie een nieuw type cybercriminaliteit ontketent (TechRepubliek)
In plaats van zich achter een masker te verschuilen om een ​​bank te beroven, verschuilen criminelen zich nu achter kunstmatige intelligentie om hun aanval uit te voeren. Maar ook financiële instellingen kunnen AI gebruiken om deze misdaden te bestrijden.

Elon Musk: Kunstmatige intelligentie kan de Derde Wereldoorlog ontketenen (CNET)
De seriële CEO vecht al tegen de sciencefiction-gevechten van morgen, en hij blijft zich meer zorgen maken over moordende robots dan wat dan ook.

PlatoAi. Web3 opnieuw uitgevonden. Gegevensintelligentie versterkt.
Klik hier om toegang te krijgen.

Bron: https://www.zdnet.com/article/what-is-ai-heres-everything-you-need-to-know-about-artificial-intelligence/#ftag=RSSbaffb68

spot_img

Laatste intelligentie

spot_img