Блок линейной ректификации (Rectified linear unit, ReLU) — функция активации, определяемая как положительная часть ее аргумента.
[Материал из энциклопедии Руниверсалис]
[Ватьян А.С., Гусарова Н.Ф., Добренко Н.В. Системы искусственного интеллекта. – СПб: Университет ИТМО, 2022 – 186 с.]