Объяснимость
Объяснимость (explainability) — свойство системы ИИ отражать важные показатели, влияющие на результаты системы ИИ, в виде, понятном для людей. [ГОСТ Р (проект, первая редакция). Информационные
Объяснимость (explainability) — свойство системы ИИ отражать важные показатели, влияющие на результаты системы ИИ, в виде, понятном для людей. [ГОСТ Р (проект, первая редакция). Информационные
Сеть нейронная, искусственная нейронная сеть (neural network, neural net, artificial neural network) — сеть из двух или более слоев нейронов, соединенных взвешенными связями с регулируемыми
Свертка (convolution) — математическая операция, реализующая скользящее скалярное произведение или кросс-корреляцию входных данных. [ГОСТ Р (проект, первая редакция). Информационные технологии. Искусственный интеллект.]
Сети сверточные нейронные, глубокие сверточные нейронные сети (convolutional neural networks, deep convolutional neural networks) — нейронные сети прямого распространения, которые используют свертку по крайней мере
Аннотирование данных (data annotation) — процесс маркирования данных, выполняемый для того, чтобы сделать данные пригодными для машинного обучения. [ГОСТ Р (проект, первая редакция). Информационные технологии.
Градиент взрывающийся (exploding gradient) — эффект обучения нейронных сетей методом обратного распространения ошибки, при котором накапливаются большие градиенты ошибок, что приводит к очень большим изменениям
Данные обучающие (training data) — подмножество образцов входных данных, используемых для настройки модели машинного обучения. [ГОСТ Р (проект, первая редакция). Информационные технологии. Искусственный интеллект.] Данные
Обучение модели (training, model training) — процесс определения или улучшения параметров модели машинного обучения на основе алгоритма машинного обучения с использованием обучающих данных. [ГОСТ Р
Набор обучающих данных (training data set) — логически обоснованный набор данных. [ГОСТ Р (проект, первая редакция). Информационные технологии. Искусственный интеллект.]
Градиент исчезающий (vanishing gradient) — эффект при обучении нейронных сетей, при котором значение функции ошибок перестает уменьшаться с дополнительными итерациями процесса обучения. Примечание. Проблема исчезающего