Как известно, в машинном обучении вывод Y зависит от фидбека, то есть предыдущих входов X, и от текущего X. Но не делает ли это его уязвимым? Что если заддосить входы ИИ, и, тем самым, настроить его извне? Например, выпускается новый сервер капчи («Выберите фото гидранта»), направляем на него DDOS атаку, выбирающую фото котеек, и ломаем ИИ. Интересно и обратное, предусмотрена ли защита от подобного?