Методы атак на машинное обучение и их последствия

Скачать статью на тему: "Методы атак на машинное обучение и их последствия". В которой приводятся удачные и неудачные «вредоносные примеры». Было проведено исследование, чтобы узнать и оценена вероятность успешных атак.
Author image
Denis
Тип
Статья
Дата загрузки
13.11.2025
Объем файла
504 Кб
Количество страниц
6
Уникальность
Неизвестно
Стоимость работы:
Бесплатно
Заказать написание авторской работы с гарантией

Аннотация: настоящая статья затрагивает тему безопасности искусственного интеллекта, а именно метод машинного обучения. В начале статьи описано зарождение такого понятия как «безопасность моделей машинного обучения», а также приведена временная шкала появления различных типов атак на машинное обучение. Далее были описаны три сценария и четыре метода атак на машинное обучение. В данной статье  приводятся удачные и неудачные «вредоносные примеры». Было проведено исследование, чтобы узнать и оценить вероятность успешных атак. На основании полученного результате был построен график зависимости точности модели от величины возмущения, вносимого в исходный пример. Также сделан вывод о том, что угроза безопасности машинного обучения существует, хоть она и небольшая и трудноосуществимая.

Ключевые слова: информационная безопасность, искусственный интеллект, машинное обучение, свёрточные нейронные сети, вредоносные примеры.

Содержание не найдено

Библиографический список

1. С.Хайкин. Нейронные сети: полный курс. 2-е изд. М., «Вильямс», 2006.

2. Л.Г.Комарцова, А.В.Максимов. Нейрокомпьютеры. М., Изд-во МГТУ им. Баумана, 2004.

3. А.И.Галушкин. Нейронные сети. Основы теории. М., Горячая линия - Телеком, 2010.

4. В.А.Головко. Нейронные сети: обучение, организация и применение. М., ИПРЖР, 2001.

В проведённом исследовании мы применяли три общепризнанных сценария в информационной безопасности:
Атака «белого ящика» (White-box). Она подразумевает знание архитектуры сети, её параметров, а также полный доступ к обучающим и тестовым данным.
Атака «серого ящика» (Gray-box). Она предполагает наличие информации об архитектуре сети и ограниченного доступа к данным.
Атака «чёрного ящика» (Black-box). Она характеризуется полным отсутствием информации об устройстве сети и наборе данных для её обучения.
Основные методы атак на свёрточные нейронные сети:
Метод FGSM (Fast Gradient Sign Method) основан на большой размерности вектора весов нейросети, и при малом возмущении входных данных в нужн

Похожие работы