A normalizálás és az unnormalizáció megértése a mélytanulásban
A mély tanulással összefüggésben a normalizálás a bemeneti adatok átskálázásának folyamatát jelenti, hogy az átlag 0 és a szórása 1 legyen. Ezt általában azért teszik, hogy megakadályozzák, hogy a modell érzékeny legyen a bemeneti adatok skálájára, és hogy javítsuk a modell általánosítását az új adatokra.
Az unnormalizálás a bemeneti adatokra alkalmazott normalizálási transzformáció visszavonásának folyamata. Ez általában a modell előrehaladása után történik, így a modell kimenete ugyanolyan léptékben van, mint a bemenet.
Például, ha van egy modellünk, amely egy képet vesz bemenetként, és egy jellemzőtérképet ad ki, akkor előfordulhat, hogy alkalmazza a normalizálást a bemeneti képre úgy, hogy kivonja az átlagot és elosztja a szórással. Az előrehaladás után a kimeneti jellemzőleképezést az átlag hozzáadásával és a szórással való megszorzásával normalizáljuk. Ez biztosítja, hogy a kimeneti jellemzőtérkép méretaránya megegyezzen a bemeneti képével. Az unnormalizálás számos mély tanulási folyamatban fontos lépés, mivel lehetővé teszi a modell kimenetének és a bemeneti adatnak a összehasonlítását, valamint a program által tanult jellemzők megjelenítését. modell. Lehetővé teszi azt is, hogy ugyanazokat a bemeneti adatokat használjuk több modellhez, anélkül, hogy aggódnunk kellene attól, hogy a bemenet mértéke befolyásolja az eredményeket.



