Терминологический словарь автоматизации строительства и производственных процессов

Реестровая запись:
ЭЛ № ФС77-79395 от 02.11.2020

ISSN: 2782-1528

DOI 10.34660/c0727-6092-6372-a

Последнее обновление словаря: 06.12.2025 - 07:30
Категории

Безопасность и этика

Приватность дифференциальная

Приватность дифференциальная (Differential Privacy) – техника приватного машинного обучения: данные обучающего набора шифруются  так, чтобы по выходу модели нельзя было восстановить информацию о конкретных записях. Позволяет

Читать далее

Аудит прозрачности

Аудит прозрачности (Transparency Auditing) – независимая проверка ИИ-систем на предмет их характеристик: откуда взяты данные, какие решения модель принимает, почему. Это нужно компаниям и регуляторам, чтобы

Читать далее

Explainable AI

Explainable AI (объяснимый ИИ, XAI) – подходы, позволяющие понять, как модель пришла к своему выводу. Включает локальные объяснения (например, почему этот ответ), визуализацию внимания, правила принятия

Читать далее

Снятие смещений

Снятие смещений (Bias Mitigation) – методы обнаружения и снижения предвзятости ИИ. Например, балансировка датасетов, дополнительные штрафы за некорректные ответы или адаптация моделей, чтобы они не воспроизводили

Читать далее

Слои безопасности

Слои безопасности (Safety Layers) – дополнительные модули или фильтры, которые обрабатывают вывод модели. Например, после генерации текст передаётся в «модуль токсичности», который блокирует неприемлемое. Это «экранирование»

Читать далее

Red Teaming

Red Teaming (красная команда) – практика активного «атаки» на систему ИИ экспертами, чтобы выявить уязвимости и ошибки. Команда пытается провоцировать модель выдавать токсичные, некорректные или вредные

Читать далее

Alignment Tuning

Alignment Tuning (настройка в соответствии с целями)– дообучение моделей с целью их «согласования» с человеческими ценностями и задачами. Включает RLHF, Constitutional AI, и другие техники,

Читать далее

Constitutional AI

Constitutional AI (конституционный ИИ) – подход от Anthropic, где модель обучается следовать наборам «конституционных правил» (этических инструкций), заложенных человеком. Модель генерирует ответы, проверяемые другим «человеко-имитирующим»

Читать далее

Autoencoders

Autoencoders (автоэнкодеры) – нейронные сети-«кодировщики», обучающиеся восстанавливать входные данные. В простейшем варианте они сжимают вход («кодируют»), пропускают через узкое «бутылочное горлышко» и затем разворачивают («декодируют») обратно,

Читать далее

Обучение федеративное

Обучение федеративное — тип машинного обучения, который позволяет проводить обучение на нескольких устройствах с децентрализованными данными, тем самым помогая сохранить конфиденциальность отдельных пользователей и их

Читать далее