Память долгая, краткосрочная (long short-term memory) — тип рекуррентной нейронной сети, которая управляет последовательными данными, такими как временные данные, для одновременно длинных и коротких временных зависимостей.
[ГОСТ Р (проект, первая редакция). Информационные технологии. Искусственный интеллект.]
Память долгая, краткосрочная; длинная цепь элементов краткосрочной памяти (long short-term memory, LSTM) —тип рекуррентной нейронной сети, которая с приемлемой производительностью обрабатывает последовательные данные как для коротких, так и для длинных интервалов последовательности.
[ГОСТ Р 71476-2024. Искусственный интеллект. Концепции и терминология искусственного интеллекта]
[ГОСТ Р ИСО/МЭК 22989–2022.Информационные технологии. Искусственный интеллект Концепции и терминология искусственного интеллекта]
Память долгая, краткосрочная (Long short-term memory) – это разновидность архитектуры рекуррентных нейронных сетей, предложенная в 1997 году Зеппом Хохрайтером и Юргеном Шмидхубером. Как и большинство рекуррентных нейронных сетей, LSTM-сеть является универсальной в том смысле, что при достаточном числе элементов сети она может выполнить любое вычисление, на которое способен обычный компьютер, для чего необходима соответствующая матрица весов, которая может рассматриваться как программа. В отличие от традиционных рекуррентных нейронных сетей, LSTM-сеть хорошо приспособлена к обучению на задачах классификации, обработки и прогнозирования временных рядов в случаях, когда важные события разделены временными лагами с неопределённой продолжительностью и границами. Относительная невосприимчивость к длительности временных разрывов даёт LSTM преимущество по отношению к альтернативным рекуррентным нейронным сетям, скрытым марковским моделям и другим методам обучения для последовательностей в различных сферах применения. Также, – это тип ячейки рекуррентной нейронной сети, используемой для обработки последовательностей данных в таких приложениях, как распознавание рукописного ввода, машинный перевод и субтитры к изображениям. LSTM решают проблему исчезающего градиента, которая возникает при обучении RNN из-за длинных последовательностей данных, сохраняя историю во внутренней памяти на основе новых входных данных и контекста из предыдущих ячеек в RNN.
[Чесалов А. Ю. Глоссариум по искусственному интеллекту: 2500 терминов/ А. Ю. Чесалов — «Издательские решения» 2022 г., 670 стр.]