Риск экзистенциальный — гипотеза о том, что существенный прогресс в общем искусственном интеллекте (AGI) может когда-нибудь привести к человеческое вымирание или какая-то другая безвозвратная глобальная катастрофа.
[Глоссарий искусственного интеллекта. (Электронный ресурс). Режим доступа: http:// hrwiki.ru›wiki/Glossary_of_artificial_intelligence/, свободный.]