Тип публикации: статья из журнала
Год издания: 2023
Идентификатор DOI: 10.48612/jisp/8dd2-gfk4-aebe
Ключевые слова: image recognition system, adversarial attack, evasion attack, autoencoder, система распознавания изображений, состязательная атака, атака уклонения, автокодировщик
Аннотация: Рассмотрены состязательные атаки на системы искусственных нейронных сетей для распознавания изображений. Для повышения защищенности систем распознавания изображений от состязательных атак (атак уклонения) предложено использование автокодировщиков. Рассмотрены различные атаки и разработаны программные прототипы автокодировщиков полнПоказать полностьюосвязной и сверточной архитектур в качестве средств защиты от атак уклонения. Обоснована возможность использования разработанных прототипов в качестве основы для проектирования автокодировщиков более сложных архитектур. Considered adversarial attacks on systems of artificial neural networks for image recognition. To increase the security of image recognition systems from adversarial attacks (avoidance attacks), the use of auto-encoders is proposed. Various attacks are considered and software prototypes of autoencoders of fully connected and convolutional architectures are developed as a means of protection against evasion attacks. The possibility of using the developed prototypes as a basis for designing autoencoders for more complex architectures is substantiated.
Журнал: Проблемы информационной безопасности. Компьютерные системы
Выпуск журнала: № 1
Номера страниц: 119-127
ISSN журнала: 20718217
Место издания: Санкт-Петербург
Издатель: Санкт-Петербургский политехнический университет Петра Великого