Разбиране на LSTMs: Ръководство за дългосрочна краткосрочна памет в дълбокото обучение
LSC означава „дългосрочна памет“, която е тип архитектура на повтаряща се невронна мрежа (RNN), която обикновено се използва за обработка на последователни данни. За разлика от традиционните RNN, LSTM имат способността да научават дългосрочни зависимости в данните, което ги прави особено полезни за задачи като езиково моделиране и прогнозиране на времеви редове.
В LSTM мрежа входните данни се подават в клетка с памет, която съхранява информация и я използва, за да произведе резултат. Клетката с памет има три порти: входна врата, изходна врата и врата за забравяне. Входният гейт определя каква нова информация да се добави към клетката с памет, изходният гейт определя каква информация да се изведе, а забравящият гейт определя каква информация да се отхвърли. Този механизъм за селективна памет позволява на LSTMs да поддържат по-устойчива памет за минали събития, дори когато се обработва нова информация.
LSTMs са широко използвани в много приложения като обработка на естествен език, разпознаване на реч и прогнозиране на времеви серии. Те са особено полезни за задачи, които изискват обработка на дълги поредици от данни, където традиционните RNN могат да се борят да уловят дългосрочни зависимости.



