Zephyrnet-logotyp

Provstenen för maskininlärning: Epok

Datum:

Vad är en epok inom maskininlärning? En epok i maskininlärning hänvisar till ett helt pass av träningsdatauppsättningen genom algoritmen när du vill träna en modell med vissa data. Som ett resultat är det en hyperparameter för lärandealgoritm. Med framväxten av den digitala tidsåldern har många människor börjat leta efter information om detta snabbt utvecklande ämne maskininlärning.

Enligt Acumen Research and Consulting, kommer den globala marknaden för djupinlärning att nå 415 miljarder USD år 2030. Undrar du över maskininlärningsfördelar för ditt företag, men förvirrar dessa termer dig? Oroa dig inte; vi har redan förklarat vad som är en epok inom maskininlärning för dig.

Innehållsförteckning

Vad är en epok inom maskininlärning?

En komplett cykel genom hela träningsdataset kan betraktas som en epok inom maskininlärning, vilket återspeglar hur många pass algoritmen har gjort under utbildningen.

Antalet epoker i träningsalgoritmer kan nå tusentals, och proceduren är utformad för att fortsätta på obestämd tid tills modellfelet är tillräckligt reducerat. Exempel och tutorials inkluderar ofta 10, 100, 1000 eller ännu fler.

The Touchstone Of Machine Learning: Epoch
En komplett cykel genom hela träningsdataset kan betraktas som en epok inom maskininlärning, vilket återspeglar hur många pass algoritmen har gjort under utbildningen

Avancerade algoritmer används i maskininlärning för att utvärdera data, lära av dem och tillämpa dessa inlärningspunkter för att hitta intressanta mönster. Maskininlärningsmodeller utvecklas med många epoker. Eftersom detta innebär lärande enligt vad som lärs från datamängden, är viss mänsklig interaktion nödvändig för de tidiga stadierna.

Det finns två olika kategorier av maskininlärningsmodeller: övervakade inlärningsmodeller och oövervakade inlärningsmodeller. Specifika datauppsättningar behövs för att dessa modeller ska bygga upp sin inlärningsförmåga, och dessa träningsdatauppsättningar måste planeras efter det önskade resultatet och de uppgifter som agenten måste slutföra.


Kolla in historia av maskininlärning


När man försöker att helt definiera en epok, som i första hand betraktas som en cykel av hela träningsdataset, är det viktigt att förstå de grundläggande begreppen och termerna som utgör en epok i detta sammanhang. Sammantaget av databatcher och iterationer som utgör en epok är i slutändan vad som utgör en epok.

Datauppsättningar organiseras i batcher (särskilt när data är mycket stor). En batch körs genom modellen och anses ibland vara en iteration av de som missbrukar frasen. Iteration och en epok används vanligtvis synonymt.

Antalet epoker är lika med antalet iterationer om batchstorleken är hela träningsdatauppsättningen. Generellt sett är detta inte fallet av praktiska skäl. Flera epoker används ofta när man skapar modeller. Det allmänna förhållandet skulle vara de = ib när datasetstorleken är d, är antalet epoker e, antalet iterationer är I och batchstorleken är b.

Till exempel, om vi definierar "uppgiften" som att ta oss från punkt A till punkt B, kan vi definiera varje möjlig väg från punkt A till punkt B som en "epok", och den exakta ruttinformationen, såsom stopp och svängar, som "iterationerna".

Är du förvirrad? Låt oss utforska dem separat.

The Touchstone Of Machine Learning: Epoch
Antalet träningsprover som används i en iteration kallas "batchstorleken" i maskininlärning

Vad är en batchstorlek i maskininlärning?

Antalet träningsprover som används i en iteration kallas "batchstorleken" i maskininlärning. Det finns tre möjligheter för batchstorleken:

  • Batch-läge: Upprepnings- och epokvärdena är lika eftersom batchstorleken är lika med hela datasetet.
  • Mini-batch-läge: Den övergripande datauppsättningsstorleken är mindre än batchstorleken, som är mer än en. Vanligtvis kan en summa delas med storleken på hela datasetet.
  • Stokastiskt läge: Där det finns en enda batchstorlek. Som ett resultat ändras parametrarna för gradienten och det neurala nätverket efter varje prov.

Batchstorlek kontra epok i maskininlärning

  • Batchstorleken är antalet prover som bearbetats innan modellen ändras.
  • Mängden kompletta iterationer genom träningsdataset är antalet epoker.
  • En batch måste ha en minsta storlek på ett och en maximal storlek som är mindre än eller lika med antalet prover i träningsdatauppsättningen.
  • Du kan välja ett heltalsvärde för antalet epoker mellan en och oändlighet. Processen kan köras på obestämd tid och till och med stoppas av andra kriterier än ett förutbestämt antal epoker, såsom en förändring (eller brist på sådan) i modellfel över tid.
  • De har båda heltalsvärden och är hyperparametrar för inlärningsalgoritmen, det vill säga inlärningsprocessparametrar istället för interna modellparametrar som upptäckts av inlärningsprocessen.
  • Du måste ange en inlärningsalgoritms batchstorlek och antalet epoker.

För att konfigurera dessa parametrar finns det inga hemliga formler. Du måste testa många värden för att avgöra vilka som löser din situation bäst.

The Touchstone Of Machine Learning: Epoch
Ett maskininlärningskoncept som kallas en iteration anger hur många gånger parametrarna för en algoritm ändras

Vad är en iteration i maskininlärning?

Ett maskininlärningskoncept som kallas en iteration anger hur många gånger parametrarna för en algoritm ändras. Kontexten kommer att avgöra vad detta specifikt innebär. Följande åtgärder skulle vanligtvis inkluderas i en enda iteration av träning av ett neuralt nätverk:

  • Batchbearbetning av träningsdatauppsättningen.
  • Beräkna kostnadsfunktionen.
  • Modifiering och backpropagation av alla viktningsfaktorer.

Epok vs iteration i maskininlärning

En iteration innebär bearbetning av en batch. All data behandlas en gång inom en enda epok.

Till exempel, om varje iteration bearbetar 10 bilder från en uppsättning av 1000 bilder med en batchstorlek på 10, kommer det att ta 100 iterationer för att avsluta en epok.

Hur väljer man antalet epoker?

Vikterna ändras efter varje iteration av nätverket, och kurvan skiftar från underpassning till idealisk till överanpassad. Antalet epoker är en hyperparameter som måste bestämmas innan träningen startar, och det finns ingen enhetlig formel för att välja det.

Ökar ökande epoker noggrannheten?

Oavsett om du arbetar med neurala nätverk eller bestämmer geologiska tidsskalor är mer inte alltid bättre. Du bör hitta det bästa numret för varje fall.


Kolla in utmaningarna livscykel för maskininlärning ledning


Varför är epoken viktig inom maskininlärning?

Epoch är avgörande för maskininlärningsmodellering eftersom det hjälper till att identifiera den modell som mest exakt representerar data. Det neurala nätverket måste tränas med den medföljande epok och batchstorlek.

The Touchstone Of Machine Learning: Epoch
Eftersom det inte finns några etablerade riktlinjer för att välja värdena för någon av parametrarna, är det mer en konst än en vetenskap att specificera dem

Eftersom det inte finns några fastställda riktlinjer för val av värden för någon av parametrarna, är det mer en konst än en vetenskap att specificera dem. I verkligheten måste dataanalytiker testa en mängd olika värden innan de bestämmer sig för en som löser en viss fråga bäst.

Att övervaka inlärningsprestanda genom att kartlägga dess värden mot modellens fel i vad som kallas en inlärningskurva är en metod för att bestämma lämplig epok. Dessa kurvor är mycket användbara när man ska avgöra om en modell är överanpassad, underpassad eller rätt tränad.

Hur många epoker ska man träna?

11 epoker är det ideala numret för att träna de flesta datauppsättningar.

Det kanske inte verkar rätt att vi upprepade gånger måste köra samma maskininlärning eller neurala nätverksmetod efter att ha kört hela datamängden genom den.

Så man måste komma ihåg att vi använder gradient descent, en iterativ process, för att optimera inlärningen. Därför är det otillräckligt att uppdatera vikterna med bara ett pass eller epok.

The Touchstone Of Machine Learning: Epoch
Inlärningshastigheten är en inställningsparameter i en optimeringsmetod som används i maskininlärning och statistik som väljer stegstorleken vid varje iteration samtidigt som man strävar efter att minimera en förlustfunktion

En epok kan också göra att modellen blir övertränad.

Inlärningshastighet i maskininlärning

Inlärningshastigheten är en inställningsparameter i en optimeringsmetod som används i maskininlärning och statistik som väljer stegstorleken vid varje iteration samtidigt som man syftar till att minimera en förlustfunktion.

Inlärningshastigheten i maskininlärning skildrar bildligt den hastighet med vilken en maskininlärningsmodell "lär sig" eftersom den avgör hur mycket nyinhämtad information som ersätter tidigare kunskap. Termen "vinst" används ofta i litteraturen om adaptiv kontroll för att hänvisa till inlärningshastigheten.

Slutsats

Epok är en term som används inom maskininlärning för att beskriva hur ofta träningsdata körs genom algoritmen under alla datapunkter.

En anständig nivå av korrekthet av testdata kan kräva hundratals till tusentals epoker på grund av verkliga tillämpningars rikedom och variation av data.


Kolla in verkliga exempel på maskininlärning


plats_img

Senaste intelligens

plats_img