Самовнимание мультиголовное (Multi-head self-attention) – является ключевым компонентом Transformer- современной архитектуры для нейронного машинного перевода. Механизм самовнимания в настоящее время встречается в самых различных архитектурах и задачах (перевод, генерация текста, аннотация изображений и т.д.).
[Чесалов А. Ю. Глоссариум по искусственному интеллекту: 2500 терминов/ А. Ю. Чесалов — «Издательские решения» 2022 г., 670 стр.]