Разработка новых методов совершения adversarial-атаки и обеспечение adversarial-защиты

Скачать хорошую дипломную работу на тему: Разработка новых методов совершения adversarial-атаки и обеспечение adversarial-защиты. В работе рассматривается разработка новых методов совершения adversarial-атаки и обеспечение adversarial-защиты
Author image
Fadis
Тип
Дипломная работа
Дата загрузки
20.08.2024
Объем файла
3492 Кб
Количество страниц
70
Уникальность
Неизвестно
Стоимость работы:
2000 руб.
2500 руб.
Заказать написание работы может стоить дешевле

ВВЕДЕНИЕ

Глубокое обучение заметно продвинуло машинное обучение в задачах компьютерного зрения (таких как классификация, распознавание и сегментация), задачах распознавания и генерации речи, машинного перевода и др. Последние годы заметно возросла доля систем, полагающихся на глубокое обучение, например, беспилотные автомобили, использующие системы глубокого обучения для навигации на дороге [1], [2]; дроны и роботы [3], [4]; банки использующие системы распознавания лиц в банкоматах [5]; системы распознавания вирусов, основанные на поиске аномалий в поведении с помощью глубокого обучения [6]; системы распознавания голоса [7]. Очевидно, что системы, полагающиеся на глубокое обучение, особенно в задачах компьютерного зрения, постепенно занимают всё более важную роль в повседневной жизни. Множество примеров использования глубокого обучения поднимает важные вопросы, связанные с безопасностью и защищенностью этих систем. 

СОДЕРЖАНИЕ
ВВЕДЕНИЕ4
1. Adversarial-атаки: классификация подходов и наиболее распространённые методы атак6
1.1. Классификация adversarial-атак6
1.1.1. Набор данных и архитектура модели6
1.1.2. Модель угроз6
1.1.2.1. Осведомленность атакующего7
1.1.2.2. Тип ошибки, вызываемой атакой7
1.1.2.3. Направленность атаки8
1.1.2.4. Количество шагов вычислений9
1.1.3. Adversarial-искажение9
1.2. Известные adversarial-атаки10
1.2.1. Box-constrained L-BFGS (L-BFGS)11
1.2.2. Fast Gradient Sign Method (FGSM)12
1.2.3. Basic & Least-Likely-Class Iterative Methods (BIM & ILCM)13
1.2.4. Jacobian-based Saliency Map Attack (JSMA)14
1.2.5. One Pixel Attack15
1.2.6. Carlini and Wagner Attacks (C&W)15
1.2.7. DeepFool16
1.2.8. Universal Adversarial Perturbations (UAP)16
1.2.9. UPSET и ANGRI17
1.2.10. Houdini18
1.2.11. Adversarial Transformation Networks (ATNs)18
1.2.12. Другие атаки18
2. Adversarial-атаки в реальных условиях20
2.1. Детекторы adversarial-примеров20
2.2. Ограничения, типичные для атак в реальных условиях21
2.2.1. Точность нанесения adversarial-искажений21
2.2.2. Точность adversarial-искажений22
2.2.3. Сложность нахождения adversarial-искажений23
2.3. Известные adversarial-атаки в реальных условиях24
2.3.1. Атака через камеру мобильного телефона24
2.3.2. Атака на распознавание дорожных знаков25
2.3.3. Adversarial-3D-модели26
2.3.4. Adversarial-очки27
3. Классификация методов защиты от adversarial-атак29
3.1. Модификация процесса обучения или входных данных29
3.1.1. Adversarial-обучение29
3.1.2. Сжатие данных30
3.1.3. Искажение данных30
3.1.4. Подавление переносимости31
3.2. Изменение структуры модели31
3.2.1. Регуляризация/скрытие градиентов31
3.2.2. DCN и PRN32
3.2.3. DefenceGAN33
3.2.4. Защитная дистилляция33
3.2.5. Обнаружение adversarial-примеров34
4. Методика исследования и описание исследованных методов36
4.1. Методик

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

How Drive.ai is mastering autonomous driving with deep learning [Электронный ресурс] — Режим доступа: https://spectrum. ieee.org/cars-that- think/transportation/self-driving/how-driveai-is-mastering-autonomous-driving- with-deep-learning — Свободный — (12.01.2022).
Deep Learning for Self-Driving Cars [Электронный ресурс] — Режим доступа: https://class-central.com/mooc/8132/6-s094-deep-learning-for- self-driving-cars — Свободный — (12.01.2022).
Volodymyr, M. Human-level control through deep reinforcement learning [Текст] / M. Volodymyr, K. Kavukcuoglu, D. Silver, A. A. Rusu, J. Veness,
M. G. Bellemare, A. Graves, M. Riedmiller, A. K. Fidjeland, G. Ostrovski // журнал “Nature” — 2015 — С.529-533.
Giusti, A. A machine learning approach to visual perception of forest trails for mobile robots [Текст] / A. Giusti, J. Guzzi, D. C. Ciresan, F. He, J. P. Rodriguez, F. Fontana, M. Faessler // журнал “IEEE Robotics and Automation Letters” — 2016 — С.661-667.
Middlehurst, C. China unveils world’s first facial recognition ATM [Электронный ресурс] — Режим доступа: https://www.telegraph.co.uk/news/worldnews/asia/china/11643314/China-unveils- worlds-first-facial-recognition-ATM.html — Свободный — (12.01.2022)
Papernot, N. SoK: Towards the science of security and privacy in machine learning [Текст] / N. Papernot, P. McDaniel, A. Sinha, M. Wellman // arXiv:1611.03814 — 2016.
Hinton, G. Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups [Текст] / G. Hinton, L. Deng,
D. Yu, G. E. Dahl, A. R. Mohamed, N. Jaitly, B. Kingsbury // журнал “Signal Processing” — 2012 — С.82-97.
Biggio, B. Poisoning attacks against support vector machines [Текст] / B. Biggio, B. Nelson, and P. Laskov // arXiv:1206.6389 — 2012.
Roli, F. Pattern recognition systems under attack [Текст] / F. Roli, B. Biggio, and G. Fumera — 2013.
Nguyen, A. Deep neural networks are easily fooled: High confidenc

Подчеркнём, что для совершения данной атаки необходимо вмешательство в процесс обучения, то есть совершение её в реальных условиях затруднено.
Adversarial-3D-моделиAthatlye и др. в [73] впервые показали возможность превращения произвольной 3D-модели в adversarial-модель, которая будет являться adversarial-примером при съемке со всех ракурсов. В основе их подхода лежит алгоритм EOT (Expectation Over Transformation), заключающийся в создании adversarial-примера с учётом нескольких изображений из распределения возможных трансформаций (таких как поворот, добавление шума и изменение размера). Такой подход позволяет добиться независимости adversarial- искажения от угла обзора, размера и разрешения изображения. Полученные этим методом 3D-модели, при изначальной правильной классификации, близкой к 100%, изменяют своё предсказание в сторону ложного класса с уверенностью более 80%. Для 3D-моделей, проиллюстрированных на рисунке 6, target-классом был класс «винтовка», уверенност