Zephyrnet-logo

Diep leren versus machinaal leren: hoe een opkomend veld traditionele computerprogrammering beïnvloedt

Datum:

Wanneer twee verschillende concepten sterk met elkaar verweven zijn, kan het moeilijk zijn om ze als afzonderlijke academische onderwerpen te scheiden. Dat zou kunnen verklaren waarom het zo moeilijk is om te scheiden diepgaand leren oppompen van machine learning Als geheel. Gezien de huidige drang naar zowel automatisering als onmiddellijke bevrediging, is er veel hernieuwde aandacht voor het onderwerp.

Alles, van geautomatiseerde productieprocessen tot gepersonaliseerde digitale geneeskunde zou potentieel kunnen groeien om op te vertrouwen diepgaand leren technologie. Het is echter weliswaar veel moeilijker om de exacte aspecten van deze technische discipline te definiëren die een revolutie teweeg zullen brengen in deze industrieën. Misschien is het het beste om deep learning te overwegen in de context van een grotere beweging in de informatica.

Deep Learning definiëren als een subset van machine learning

machine learning en diep leren zijn in wezen twee kanten van dezelfde medaille. Deep learning-technieken zijn een specifieke discipline die tot een veel groter gebied behoort, dat een grote verscheidenheid aan getrainde kunstmatig intelligente agenten omvat die de juiste respons in een even breed scala aan situaties kunnen voorspellen. Wat deep learning echter onafhankelijk maakt van al deze andere technieken, is het feit dat het zich bijna uitsluitend richt op het aanleren van agenten om een ​​specifiek doel te bereiken door de best mogelijke actie te leren in een aantal virtuele omgevingen.

Traditionele algoritmen voor machine learning leren kunstmatige knooppunten meestal hoe ze op stimuli moeten reageren door ze uit het hoofd te onthouden. Dit lijkt enigszins op menselijke onderwijstechnieken die bestaan ​​uit eenvoudige herhaling, en daarom kan het worden gezien als het computergestuurde equivalent van een student die door de tafels loopt totdat hij ze kan reciteren. Hoewel dit in zekere zin effectief is, zijn kunstmatig intelligente agenten die op een dergelijke manier zijn opgeleid, mogelijk niet in staat om te reageren op prikkels buiten het bereik van hun oorspronkelijke ontwerpspecificaties.

Daarom hebben deep learning-specialisten alternatieve algoritmen ontwikkeld die als enigszins superieur worden beschouwd aan deze methode, hoewel ze op veel manieren weliswaar veel hardware-intensiever zijn. Subrountines die door deep learning-agenten worden gebruikt, kunnen gebaseerd zijn op generatieve vijandige netwerken, convolutionele neurale knoopstructuren of een praktische vorm van een beperkte Boltzmann-machine. Deze staan ​​in schril contrast met de binaire bomen en gekoppelde lijsten die worden gebruikt door conventionele machine learning-firmware en de meeste moderne bestandssystemen.

Zelforganiserende kaarten zijn ook op grote schaal in deep learning geweest, hoewel hun toepassingen in andere AI-onderzoeksgebieden doorgaans veel minder veelbelovend waren. Als het gaat om het definiëren van de diep leren versus machine learning debat, maar het is zeer waarschijnlijk dat technici de komende maanden meer zullen zoeken naar praktische toepassingen dan naar theoretische academische discussies. Het volstaat te zeggen dat machine learning alles omvat, van de eenvoudigste AI tot de meest geavanceerde voorspellende algoritmen, terwijl deep learning een meer selectieve subset van deze technieken vormt.

Praktische toepassingen van Deep Learning-technologie

Afhankelijk van hoe een bepaald programma is geschreven, kunnen diepgaande leertechnieken worden ingezet langs gesuperviseerde of semi-gesuperviseerde neurale netwerken. Theoretisch zou het ook mogelijk zijn doe dit via een volledig onbewaakte knooppuntlay-out, en het is deze techniek die al snel de meest veelbelovende is geworden. Onbewaakte netwerken kunnen nuttig zijn voor medische beeldanalyse, aangezien deze applicatie vaak unieke stukjes grafische informatie aan een computerprogramma presenteert die moeten worden getest aan de hand van bekende inputs.

Traditionele binaire boom of op blockchain gebaseerde leersystemen hebben moeite gehad om dezelfde patronen in dramatisch verschillende scenario's te identificeren, omdat de informatie verborgen blijft in een structuur die anders zou zijn ontworpen om gegevens effectief te presenteren. Het is in wezen een natuurlijke vorm van steganografie, en het heeft computeralgoritmen in de gezondheidszorg in de war gebracht. Dit nieuwe type leerknooppunt zonder toezicht zou zichzelf echter virtueel kunnen leren hoe deze patronen te matchen, zelfs in een gegevensstructuur die niet is georganiseerd volgens de normale lijnen die een computer zou verwachten.

Anderen hebben implementatie voorgesteld semi-supervised kunstmatig intelligente marketing agents dat zou een groot deel van de bezorgdheid over ethiek met betrekking tot bestaande software voor het sluiten van deals kunnen wegnemen. In plaats van te proberen een zo groot mogelijk klantenbestand te bereiken, zouden deze tools de kans berekenen dat een bepaald individu op een bepaald moment een product nodig heeft. Om dit te doen, zou het bepaalde soorten informatie nodig hebben die wordt verstrekt door de organisatie waarvoor het werkt, maar het zou uiteindelijk in staat zijn om alle verdere acties zelf te voorspellen.

Hoewel sommige bedrijven momenteel vertrouwen op tools die gebruikmaken van traditionele machine learning-technologie om dezelfde doelen te bereiken, wordt hier vaak mee gewerkt privacy en ethische overwegingen. De komst van diepgestructureerde leeralgoritmen hebben software-ingenieurs in staat gesteld om met nieuwe systemen te komen die niet aan deze nadelen lijden.

Een geautomatiseerde privé-leeromgeving ontwikkelen

Conventionele machine learning-programma's lopen vaak serieus uit privacy zorgen vanwege het feit dat ze een enorme hoeveelheid input nodig hebben om bruikbare conclusies te trekken. Diepgaande software voor beeldherkenning werkt door een kleinere subset van invoer te verwerken, waardoor het ervoor zorgt dat het niet zoveel informatie nodig heeft om dit te doen baan​ Dit is met name van belang voor degenen die zich zorgen maken over de mogelijkheid van lekken van consumentengegevens.

Gezien nieuwe regelgevende standpunten voor veel van deze kwesties, wordt het ook snel iets dat belangrijk is geworden vanuit het oogpunt van compliance. Zoals toxicologische laboratoria beginnen te gebruiken bioactiviteitgerichte diepgestructureerde leerpakkettenis het waarschijnlijk dat toezichthouders extra zorgen zullen uiten over de hoeveelheid informatie die nodig is om een ​​bepaalde taak uit te voeren met dit soort gevoelige gegevens. Computerwetenschappers hebben moeten verkleinen wat sommigen een echte brandslang van bytes noemen die meer van een verhaal vertellen dan de meesten zich prettig zouden voelen.

In zekere zin luisteren deze ontwikkelingen terug naar een vroegere tijd toen men geloofde dat elk proces in een systeem alleen het aantal privileges zou moeten hebben dat nodig is om zijn taak te voltooien. Aangezien ingenieurs voor machine learning dit paradigma omarmen, is het zeer waarschijnlijk dat toekomstige ontwikkelingen aanzienlijk veiliger zullen zijn, simpelweg omdat ze niet de enorme hoeveelheid datamining nodig hebben die nodig is om de bestaande operaties van vandaag mogelijk te maken.

Afbeelding tegoed: toptal.io

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://datafloq.com/read/deep-learning-vs-machine-learning-how-emerging-field-influences-traditional-computer-programming/13652

spot_img

Laatste intelligentie

spot_img