Как известно, в машинном обучении вывод Y зависит от фидбека, то есть предыдущих входов X, и от текущего X. Но не делает ли это его уязвимым? Что если заддосить входы ИИ, и, тем самым, настроить его извне? Например, выпускается новый сервер капчи («Выберите фото гидранта»), направляем на него DDOS атаку, выбирающую фото котеек, и ломаем ИИ. Интересно и обратное, предусмотрена ли защита от подобного?


    
      Ответ на:
      
          комментарий
        от futurama 
  
    
      Ответ на:
      
          комментарий
        от Jameson 
  

    
      Ответ на:
      
          комментарий
        от ox55ff 
  
    
        Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
      
Похожие темы
- Форум изобретён искуственный интеллект (2003)
 - Форум по поводу искуственного интеллекта (2007)
 - Форум Искуственный интеллект на Linux :-) (2002)
 - Форум Вот Ваш... Искуственный интеллект (2005)
 - Форум Искуственный рак (2019)
 
- Форум искуственные алмазы (2007)
 - Форум Искуственные лаги (2001)
 - Форум Free Software Foundation вступает в консорциум по безопасности «искуственного интеллекта» (2024)
 - Форум Взлом (2017)
 - Форум взлом? (2005)
 
