Спуск стохастический градиентный (SGD) — это алгоритм оптимизации, используемый для обновления параметров модели путем выполнения небольших шагов в направлении отрицательного градиента функции потерь. Пример: SGD используется в нейронных сетях, логистической регрессии и линейной регрессии.
[50 терминов искусственного интеллекта. (Электронный ресурс). Режим доступа: http:// pudie.ru›articles/704343/, свободный]
Спуск стохастический градиентный — оптимизационный алгоритм, отличающийся от обычного градиентного спуска тем, что градиент оптимизируемой функции считается на каждом шаге не как сумма градиентов от каждого элемента выборки, а как градиент от одного, случайно выбранного элемента.
[Энциклопедия Руниверсалис]
Спуск стохастический градиентный — оптимизационный алгоритм, отличающийся от обычного градиентного спуска тем, что градиент оптимизируемой функции считается на каждом шаге не как сумма градиентов от каждого элемента выборки, а как градиент от одного, случайно выбранного элемента. [Ватьян А.С., Гусарова Н.Ф., Добренко Н.В. Системы искусственного интеллекта. – СПб: Университет ИТМО, 2022 – 186 с.]