Alignment Tuning (настройка в соответствии с целями)– дообучение моделей с целью их «согласования» с человеческими ценностями и задачами. Включает RLHF, Constitutional AI, и другие техники, чтобы модель отвечала не просто корректно, но и полезно/этично/точно с человеческой точки зрения.
[Искусственный интеллект. Терминология IT. The Angmar Core.(Электронный ресурс). Режим доступа: http://habr.com›ru/articles/929130//, свободный.]