Zephyrnet-logo

De toetssteen van machine learning: Epoch

Datum:

Wat is een tijdperk in machine learning? Een tijdperk in machine learning verwijst naar één volledige doorgang van de trainingsgegevensset door het algoritme wanneer u een model met bepaalde gegevens wilt trainen. Als gevolg hiervan is het een hyperparameter van het leeralgoritme. Met de opkomst van het digitale tijdperk zijn veel mensen op zoek gegaan naar informatie over dit snel evoluerende onderwerp van machine learning.

Think Acumen onderzoek en advies, zal de wereldwijde markt voor deep learning tegen 415 2030 miljard USD bereiken voordelen van machine learning voor uw bedrijf, maar brengen deze termen u in de war? Maak je geen zorgen; we hebben al uitgelegd wat een tijdperk in machine learning voor u is.

Inhoudsopgave

Wat is een tijdperk in machine learning?

Een volledige cyclus door de volledige trainingsdataset kan worden beschouwd als een tijdperk in machine learning, wat weergeeft hoeveel passen het algoritme tijdens de training heeft gemaakt.

Het aantal tijdperken in trainingsalgoritmen kan duizenden bereiken, en de procedure is ontworpen om oneindig door te gaan totdat de modelfout voldoende is verminderd. Voorbeelden en tutorials bevatten vaak 10, 100, 1000 of zelfs grotere getallen.

De toetssteen van machinaal leren: tijdperk
Een volledige cyclus door de volledige trainingsdataset kan worden beschouwd als een tijdperk in machine learning, wat weergeeft hoeveel passen het algoritme tijdens de training heeft gemaakt

Bij machine learning worden geavanceerde algoritmen gebruikt om gegevens te evalueren, ervan te leren en deze leerpunten toe te passen om interessante patronen te vinden. Machine learning-modellen worden ontwikkeld met behulp van vele tijdperken. Aangezien dit inhoudt dat wordt geleerd op basis van wat er uit de dataset wordt geleerd, is enige menselijke interactie noodzakelijk voor de vroege stadia.

Er zijn twee verschillende categorieën machine learning-modellen: modellen voor leren onder toezicht en modellen voor leren zonder toezicht. Voor deze modellen zijn specifieke datasets nodig om hun leervermogen op te bouwen, en deze trainingsdatasets moeten worden gepland volgens het gewenste resultaat en de taak(en) die de agent moet uitvoeren.


Check out de geschiedenis van machine learning


Bij het volledig definiëren van een tijdperk, dat in de eerste plaats wordt beschouwd als één cyclus van de gehele trainingsdataset, is het belangrijk om de fundamentele concepten en termen te begrijpen die een tijdperk in deze context vormen. Het geheel van gegevensbatches en iteraties waaruit een tijdperk bestaat, vormt uiteindelijk een tijdperk.

Gegevenssets zijn georganiseerd in batches (vooral wanneer de gegevens erg groot zijn). Eén batch wordt door het model gehaald en soms beschouwd als één iteratie door degenen die de uitdrukking misbruiken. Iteratie en een tijdperk worden meestal als synoniemen gebruikt.

Het aantal tijdperken is gelijk aan het aantal iteraties als de batchgrootte de volledige trainingsgegevensset is. Over het algemeen is dit om praktische redenen niet het geval. Bij het maken van modellen worden vaak meerdere tijdperken gebruikt. De algemene relatie zou zijn: de = ib wanneer de datasetgrootte d is, is het aantal tijdperken e, is het aantal iteraties I en is de batchgrootte b.

Als we bijvoorbeeld de "taak" definiëren als van punt A naar punt B gaan, kunnen we elk haalbaar pad van punt A naar punt B definiëren als een "tijdperk", en de precieze route-informatie, zoals haltes en afslagen, als de "iteraties".

Ben je in de war? Laten we ze afzonderlijk onderzoeken.

De toetssteen van machinaal leren: tijdperk
Het aantal trainingsvoorbeelden dat in één iteratie wordt gebruikt, wordt in machine learning de 'batchgrootte' genoemd

Wat is een batchgrootte in machine learning?

Het aantal trainingsvoorbeelden dat in één iteratie wordt gebruikt, wordt in machine learning de 'batchgrootte' genoemd. Er zijn drie mogelijkheden voor de batchgrootte:

  • Batch-modus: De iteratie- en epoch-waarden zijn gelijk omdat de batchgrootte gelijk is aan de volledige dataset.
  • Mini-batchmodus: De totale gegevenssetgrootte is kleiner dan de batchgrootte, die meer dan één is. Meestal kan een som worden gedeeld door de grootte van de gehele dataset.
  • Stochastische modus: Waar er een enkele batchgrootte is. Als gevolg hiervan worden de gradiënt- en neurale netwerkparameters na elk monster gewijzigd.

Batchgrootte versus tijdperk in machine learning

  • De batchgrootte is het aantal monsters dat is verwerkt voordat het model verandert.
  • De hoeveelheid volledige iteraties door de trainingsdataset is het aantal tijdperken.
  • Een batch moet een minimale grootte van één hebben en een maximale grootte die kleiner is dan of gelijk is aan het aantal voorbeelden in de trainingsgegevensset.
  • U kunt een geheel getal kiezen voor het aantal tijdperken tussen één en oneindig. Het proces kan voor onbepaalde tijd worden uitgevoerd en zelfs worden gestopt door andere criteria dan een vooraf bepaald aantal tijdperken, zoals een verandering (of het ontbreken daarvan) in modelfout in de loop van de tijd.
  • Ze hebben beide gehele waarden en zijn hyperparameters voor het leeralgoritme, dwz leerprocesparameters in plaats van interne modelparameters die door het leerproces worden ontdekt.
  • U moet de batchgrootte van een leeralgoritme en het aantal tijdperken opgeven.

Om deze parameters te configureren, zijn er geen geheime formules. U moet veel waarden testen om te bepalen welke uw situatie het beste oplossen.

De toetssteen van machinaal leren: tijdperk
Een machine learning-concept dat een iteratie wordt genoemd, geeft aan hoe vaak de parameters van een algoritme worden gewijzigd

Wat is een iteratie in machine learning?

Een machine learning-concept dat een iteratie wordt genoemd, geeft aan hoe vaak de parameters van een algoritme worden gewijzigd. De context zal bepalen wat dit concreet inhoudt. De volgende acties worden doorgaans opgenomen in een enkele iteratie van het trainen van een neuraal netwerk:

  • Batchverwerking van de trainingsdataset.
  • Berekenen van de kostenfunctie.
  • Wijziging en backpropagatie van alle wegingsfactoren.

Epoch versus iteratie in machine learning

Een iteratie omvat de verwerking van één batch. Alle gegevens worden binnen één tijdvak eenmalig verwerkt.

Als elke iteratie bijvoorbeeld 10 afbeeldingen verwerkt uit een set van 1000 afbeeldingen met een batchgrootte van 10, zijn er 100 iteraties nodig om één tijdperk te voltooien.

Hoe het aantal tijdperken kiezen?

De gewichten worden na elke iteratie van het netwerk gewijzigd en de curve verschuift van onderfitting naar ideaal naar overfitting. Het aantal tijdperken is een hyperparameter die moet worden bepaald voordat de training begint, en er is geen eenduidige formule om het te kiezen.

Verhoogt het verhogen van de tijdvakken de nauwkeurigheid?

Of je nu werkt met neurale netwerken of geologische tijdschalen bepaalt, meer is niet altijd beter. U moet voor elk geval het beste nummer vinden.


Bekijk de uitdagingen van levenscyclus van machine learning management


Waarom is het tijdperk belangrijk in machine learning?

Epoch is cruciaal bij het modelleren van machine learning, omdat het helpt bij het identificeren van het model dat de gegevens het meest nauwkeurig weergeeft. Het neurale netwerk moet worden getraind met behulp van de meegeleverde epoch en batchgrootte.

De toetssteen van machinaal leren: tijdperk
Aangezien er geen vaste richtlijnen zijn voor het kiezen van de waarden van beide parameters, is het specificeren ervan meer een kunst dan een wetenschap

Aangezien er geen vaste richtlijnen zijn voor het kiezen van de waarden van beide parameters, is het specificeren ervan meer een kunst dan een wetenschap. In werkelijkheid moeten data-analisten verschillende waarden testen voordat ze een oplossing kiezen die een bepaald probleem het beste oplost.

Het volgen van leerprestaties door de waarden ervan af te zetten tegen de fout van het model in wat bekend staat als een leercurve, is een methode om het juiste tijdperk te bepalen. Deze curven zijn zeer nuttig bij het bepalen of een model overfitting, underfitting of goed getraind is.

Hoeveel tijdperken trainen?

11 tijdperken zijn het ideale aantal om de meeste datasets te trainen.

Het lijkt misschien niet juist dat we herhaaldelijk dezelfde machine learning- of neurale netwerkmethode moeten uitvoeren nadat we de volledige dataset erdoorheen hebben gehaald.

We moeten dus niet vergeten dat we gradiëntafdaling gebruiken, een iteratief proces, om het leren te optimaliseren. Daarom is het bijwerken van de gewichten met slechts één pas of tijdperk onvoldoende.

De toetssteen van machinaal leren: tijdperk
De leersnelheid is een afstemmingsparameter in een optimalisatiemethode die wordt gebruikt in machine learning en statistieken die de stapgrootte bij elke iteratie kiezen en tegelijkertijd een verliesfunctie minimaliseren

Eén tijdperk kan er ook voor zorgen dat het model overfit raakt.

Leertempo in machine learning

De leersnelheid is een afstemmingsparameter in een optimalisatiemethode die wordt gebruikt in machine learning en statistieken die de stapgrootte bij elke iteratie kiezen en tegelijkertijd een verliesfunctie minimaliseren.

Leersnelheid in machine learning geeft figuurlijk de snelheid weer waarmee een machine learning-model "leert", omdat het bepaalt hoeveel nieuw verkregen informatie eerdere kennis vervangt. De term "winst" wordt vaak gebruikt in de literatuur over adaptieve controle om te verwijzen naar het leertempo.

Conclusie

Epoch is een term die wordt gebruikt in machine learning om te beschrijven hoe vaak de trainingsgegevens door het algoritme worden gehaald tijdens alle data punten.

Een behoorlijk niveau van correctheid van testgegevens kan honderden tot duizenden tijdperken vergen vanwege de rijkdom en verscheidenheid aan gegevens van toepassingen in de echte wereld.


Check out de voorbeelden uit de praktijk van machine learning


spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?