mobile theme mode icon
theme mode light icon theme mode dark icon
speech play
speech pause
speech stop

Розуміння нормалізації та ненормалізації в глибокому навчанні

У контексті глибокого навчання нормалізація відноситься до процесу зміни масштабу вхідних даних, щоб отримати середнє значення 0 і стандартне відхилення 1. Це зазвичай робиться, щоб запобігти чутливості моделі до масштабу вхідних даних і щоб покращити узагальнення моделі для нових даних.

Ненормалізація – це процес скасування нормалізаційного перетворення, застосованого до вхідних даних. Зазвичай це робиться після прямого проходу моделі, щоб результат моделі був у тому ж масштабі, що й вхід.

Наприклад, якщо у нас є модель, яка приймає зображення як вхідні дані та виводить карту функцій, ми можемо застосувати нормалізацію до вхідного зображення шляхом віднімання середнього значення та ділення на стандартне відхилення. Після проходу вперед ми б денормалізували вихідну карту ознак, додавши середнє значення та помноживши на стандартне відхилення. Це гарантує, що вихідна карта функцій має такий самий масштаб, як і вхідне зображення.

Скасування нормалізації є важливим кроком у багатьох конвеєрах глибокого навчання, оскільки це дозволяє нам порівнювати вихідні дані моделі з вхідними та візуалізувати функції, отримані за допомогою модель. Це також дозволяє нам використовувати ті самі вхідні дані для кількох моделей, не хвилюючись про масштаб вхідних даних, які впливають на результати.

Knowway.org використовує файли cookie, щоб надати вам кращий сервіс. Використовуючи Knowway.org, ви погоджуєтесь на використання файлів cookie. Для отримання детальної інформації ви можете переглянути текст нашої Політики щодо файлів cookie. close-policy