Red Teaming (красная команда) – практика активного «атаки» на систему ИИ экспертами, чтобы выявить уязвимости и ошибки. Команда пытается провоцировать модель выдавать токсичные, некорректные или вредные ответы. Результаты помогают разработчикам усилить фильтры и улучшить безопасность модели.
[Искусственный интеллект. Терминология IT. The Angmar Core.(Электронный ресурс). Режим доступа: http://habr.com›ru/articles/929130//, свободный.]