Глубокие нейронные сети произвели революцию и улучшили нашу повседневную жизнь. Кроме того, нейросети удивительным образом очень уязвимы к малым возмущениям входных данных (adversarial attacks). Эти злонамеренные и хорошо продуманные крошечные изменения аккуратно вычислены и способствуют большим ошибкам нейросетей. Они могут целиться, чтобы классификатор выдавал какой-то конкретный класс (targeted attacks) или любой класс, отличающийся от правильного (untargeted attack). Эти атаки могут быть направлены на беспилотные автомобили, системы распознавание речи и идентификации лиц. Докладчик продемонстрирует способ обмана предсказания top-k на датасетах Imagenet и CIFAR-10.
Рассказывает Нурислам Турсынбек.
Смотреть