Zephyrnet-logo

Diep leren ontrafeld

Datum:

Het ‘diepe’ in deep learning verwijst naar het aantal verborgen lagen dat bij het ontwerp betrokken is. Diepe leer is een manier om kunstmatige intelligentie (AI) te trainen om specifieke gegevens, zoals spraak of gezichten, te herkennen en voorspellingen te doen op basis van eerdere ervaringen. in tegenstelling tot machine learning, dat gegevens organiseert en verzendt via vooraf gedefinieerde algoritmen, ontwikkelt en gebruikt deep learning basisalgoritmen om de gegevens te screenen, en traint vervolgens de AI-entiteit om “op zichzelf te leren” door gebruik te maken van patronen en “vele” verwerkingslagen.

Deep learning is het resultaat van een paradigmaverschuiving die plaatsvond tijdens de eerste “AI winter”(ongeveer 1970 tot 1980). De winter zorgde voor een pauze en een herstart in het denken over kunstmatige intelligentie. Na de eerste AI-winter werd machine learning, als methode voor het trainen van kunstmatige intelligentie, vervangen door deep learning. Machine learning splitste zich af en werd een aparte praktijk.

Het eerste gebruik van deep learning begon in 1979, toen Kunihiko Fukushima het ‘convolutionele neurale netwerk’ ontwierp. Hij gebruikte systemen die meerdere pooling combineerden met convolutionele lagen om een ​​neuraal netwerk te ontwikkelen, genaamd Neocognitron. Dankzij zijn nieuwe ontwerp konden computers ‘leren’ en het vermogen ontwikkelen om visuele patronen te herkennen. De modellen van Fukushima werden getraind met behulp van een versterkingsstrategie met terugkerende activering op meerdere lagen, en die in de loop van de tijd aan kracht (gewicht) wonnen naarmate het patroon werd herhaald en versterkt.

Knooppunten/neuronen

De kunstmatig neuraal netwerk gebruikt een verzameling knooppunten die met elkaar zijn verbonden en worden beschreven als kunstmatige neuronen. De ‘verbindingen’ fungeren als synapsen en functioneren wanneer een kunstneuron een signaal naar een ander neuron stuurt. De kunstmatige neuron het ontvangen van het signaal verwerkt het en signaleert vervolgens andere kunstmatige neuronen die ermee verbonden zijn. Tijdens het proces gebruiken neuronen een activeringsfunctie om de gegevens die uit het neuron komen (output) te ‘standaardiseren’.

De verbindingen (of synapsen) tussen neuronen zijn dat wel
opzettelijk geassocieerd met een gewicht. Dit gewicht bepaalt het belang en
waarde van de invoer. De gewichten worden aanvankelijk willekeurig ingesteld en veranderen met de tijd
ervaring.

Lagen

Deep learning maakt gebruik van duizenden kunstmatige, onderling verbonden neuronen, die zijn ingedeeld in ‘meerdere verwerkingslagen’. (machine learning systemen gebruiken doorgaans twee lagen.) Deze meerdere verwerkingslagen bieden abstracties op een hoger niveau, betere classificaties en nauwkeurigere voorspellingen. Deep learning biedt een uitstekend hulpmiddel voor het werken met stemherkenning, gespreksvaardigheden en big data.

Elke laag knooppunten/neuronen traint met behulp van de komende functies
van de uitvoer van de vorige laag. Naarmate de gegevens door het neurale net vorderen, zullen er meer
complexe kenmerken kunnen worden herkend, omdat ze kenmerken samenvoegen en opnieuw combineren
uit de vorige laag. Momenteel bestaan ​​er drie soorten neurale netwerken
lagen:

  • De invoerlaag ontvangt gegevens
  • De verborgen lagen verwerken gegevens uit de invoer
  • De uitvoerlaag biedt antwoorden en voorspellingen

Neurale netwerken zijn in staat om in te leren niet-lineaire manieren, wat een aanzienlijk voordeel oplevert ten opzichte van eerdere machine learning-systemen. Dit biedt neurale netwerken de mogelijkheid om subtiele, potentieel ‘verwarrende’ kenmerken in een afbeelding te lokaliseren (zoals sinaasappels aan een boom, waarvan sommige in zonlicht en andere in de schaduw). Deze ‘vaardigheid’ is het resultaat van het gebruik van een activeringslaag, die is ontworpen om de ‘nuttige’ details tijdens het identificatieproces te overdrijven.

Kunstmatige neurale netwerken

Kunstmatige neurale netwerken zijn computersystemen die losjes zijn gebaseerd op het ontwerp van neurale netwerken in het menselijk brein. Hoewel ze nog niet zo efficiënt zijn als organische, levende hersenen, werken deze kunstmatige netwerken op vergelijkbare manieren. De systemen leren door ervaring, vergelijkbaar met de manier waarop een levend brein dat doet. Ze leren taken uit te voeren door monsters te vergelijken, meestal zonder specifiek toegewezen doelen.

Een voorbeeld hiervan is beeldherkenning, met neurale netwerken
training om afbeeldingen van honden te identificeren door afbeeldingen te bekijken die zijn getagd met 'hond' of 'nr
dog”-labels, en de resultaten gebruiken om honden te identificeren. Kunstmatige neurale netwerken
beginnen bij nul, zonder gegevens of begrip van de kenmerken van een hond. Elk
systeem ontwikkelt een basiskennis van de relevante eigenschappen waarnaar het op zoek is.

Momenteel zijn er zes verschillende soorten neurale netwerken. Er zijn er echter slechts twee die aanzienlijk populair zijn geworden: recurrent en feedforward. Feedforward neuraal netwerks verzenden gegevens in één richting en worden over het algemeen beschouwd als het meest eenvoudige soort neurale netwerk. Gegevens worden verzonden vanaf de invoerknooppunten via de verborgen knooppunten en naar de uitvoerknooppunten. Feedforward neurale netwerken maken geen gebruik van lussen of cycli.

Terugkerende neurale netwerkenMaak daarentegen gebruik van de verbindingen tussen knooppunten (synapsen) en zorg ervoor dat gegevens ‘heen en weer’ kunnen stromen. Het terugkerende neurale netwerk creëert een gerichte cyclus, wat wordt uitgedrukt als een ‘dynamisch temporeel gedrag’. Kort gezegd betekent dit dat terugkerende neurale netwerken onthouden wat ze van eerdere invoer hebben geleerd met behulp van een eenvoudige lus. De lus neemt de gegevens van de vorige tijdstempel en voegt deze vervolgens toe aan de invoer van de huidige tijdstempel. Het terugkerende neurale netwerk is in staat zijn interne geheugen te gebruiken voor het verwerken van de reeks invoeringen. Deze vorm van neuraal netwerk is erg populair voor het vergelijken van handschriften en voor spraakherkenning.

Algoritmen voor diepgaand leren

Algoritmen, met een cascade van lagen voor niet-lineaire verwerkingseenheden, worden vaak gebruikt bij deep learning. Elke laag gebruikt uitvoer uit de vorige laag als invoer. Diepe leer omvat ook meerdere representatieniveaus die overeenkomen met verschillende abstractieniveaus. Deze niveaus ontwikkelen zich tot een hiërarchie van concepten.

Een algoritme dat wordt aangeduid als “functie-extractie” biedt een ander aspect van deep learning. Hierdoor worden automatisch betekenisvolle ‘functies’ voor leren en begrip opgebouwd. Voor het trainen van een AI-entiteit in het extraheren van functies zijn drie verschillende soorten voorbeelden nodig, genaamd ‘target’, ‘non-target’ en ‘confusers’. De doelafbeelding, bijvoorbeeld een auto, wordt op meerdere foto's weergegeven. Op de niet-doelafbeelding zijn geen auto's te zien, en de verwarrende afbeeldingen zijn afbeeldingen die de AI-entiteit in verwarring kunnen brengen.

Deep learning-trainingstechnieken hebben dit vermogen bevorderd
van AI-entiteiten om te detecteren, herkennen, categoriseren en beschrijven. Een aantal verbeteringen
die plaatsvinden op het gebied van deep learning zijn onder meer:

  • Algoritmische ontdekkingen hebben de prestaties van deep learning-technieken verbeterd.
  • Nieuwe benaderingen die de herkenningsvaardigheden van verschillende AI’s hebben verbeterd.
  • Nieuwe soorten neurale netwerken die goed werken voor toepassingen, zoals beeldclassificatie en tekstvertaling.
  • Er zijn aanzienlijk meer gegevens beschikbaar voor het bouwen van neurale netwerken met behulp van vele diepe lagen.
  • Met behulp van grafische verwerkingseenheden, gecombineerd met de wolk, om ongelooflijke rekenkracht beschikbaar te maken voor deep learning-tactieken.

De voordelen van diep leren

Deep learning en het gebruik van neurale netwerken bieden momenteel de beste oplossingen voor veel van de problemen die zich voordoen bij beeldherkenning, spraakherkenning en natuurlijke taalverwerking. Deep learning-netwerken kunnen ook met succes worden toegepast big data, kennistoepassing en voor het maken van voorspellingen.

Deep learning vermindert de behoefte aan feature-engineering
wat een zeer tijdrovend proces is in de machine learning-industrie.
Bovendien kan de architectuur relatief eenvoudig worden aangepast
nieuwe problemen. Omgaan met problemen met talen, visie en tijdreeksen vereist technieken,
zoals terugkerende neurale netwerken, convolutionele neurale netwerken en Long
Kortetermijngeheugen (LSTM) om gegevens te verwerken.

De meeste algoritmen die met sequentiële gegevens werken, worden geleverd met een geheugen dat de laatste tien stappen bevat. Echter, Lang kortetermijngeheugen (uitgevonden door Jürgen Schmidhuber en Sepp Hochreiter in 1997) heeft niet dezelfde beperkingen. Het werkt met terugkerende neurale netwerken en laat het netwerk de activiteit van honderden tijdstappen uit het verleden oppikken en deze gebruiken om nauwkeurigere voorspellingen te doen. LSTM-netwerken zijn de afgelopen tien jaar over het algemeen genegeerd, maar het gebruik ervan blijft groeien en is een van de redenen waarom deep learning zo succesvol is geworden.

Afbeelding gebruikt onder licentie van Shutterstock.com

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://www.dataversity.net/deep-learning-demystified/

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?