Надежность нейронных сетей: укрепляем устойчивость ИИ к обману
Глубокие нейронные сети (DNN) становятся неотъемлемой частью IT-продуктов, провоцируя появление нового направления кибератак. Хакеры пытаются обмануть нейросети с помощью данных, которые не смогли бы обмануть человека.
Кэти Уорр рассматривает мотивацию подобных атак, риски, которые влечет вредоносный ввод, а также методы повышения устойчивости ИИ к таким взломам. Если вы специалист по data science, архитектор системы безопасности и стремитесь повысить устойчивость систем с ИИ или вас просто интересует различие между искусственным и биологическим восприятием, то эта книга для вас.
- Изучите особенности DNN, позволяющие обмануть их с помощью вредоносного ввода.
- Исследуйте методы, применяемые для генерации вредоносного ввода.
- Ознакомьтесь с реалистичными сценариями и смоделируйте угрозу.
- Оцените надежность нейронной сети; изучите методы, позволяющие повысить устойчивость ИИ-систем перед вредоносными данными.
- Узнайте о некоторых задачах, в которых ИИ в ближайшие годы сможет все точнее имитировать человеческое восприятие.
«В этой книге рассмотрены темы, связанные с безопасностью ИИ и глубоким анализом современных решений. Автор - ведущий data scientist с серьезным опытом в индустрии информационной безопасности, поэтому и книга обязательна для прочтения всем специалистам по ИИ».
- Марк Брайерс, Институт Алана Тьюринга, профессор кибербезопасности и ИИ
«Чтобы усилить нейронную сеть, нужно смотреть на нее с точки зрения злоумышленника... и читать эту книгу!»
- Пинь-Ю Чен, исследователь команды IBM Research Al
Об авторе:
Кэти Уорр много лет работала архитектором и разработчиком ПО. Сейчас она специализируется на ИИ и аналитике данных.