На главную страницу
О журнале План выхода Подписка Интернет-Магазин Реклама Контакты и реквизиты English На главную страницу Карта сайта Поиск по сайту Обратная связь

перейти к Содержанию номера
№ 6   ноябрь–декабрь 2022 г.
Тема номера:
ЦИФРОВАЯ ТРАНСФОРМАЦИЯ И ИНФОРМАЦИОННАЯ БЕЗОПАСНОСТЬ
Безопасность искусственного интеллекта
Artificial Intelligence Security
Владимир Афанасьевич Артамонов, доктор технических наук, профессор, академик МАИТ
V. A. Artamonov, PhD (Eng., Grand Doctor), Full Professor, the Full Member of IAIT
Елена Владимировна Артамонова, кандидат технических наук, член МАИТ
E. V. Artamonova, PhD (Eng.), the Member of IAIT
Александр Евгеньевич Сафонов, магистр информационных технологий
A. E. Safonov, M. Sc. IT
Международная академия информационных технологий (МАИТ)
The International Academy of Information Technologies (IAIT)

Предыдущая статьяСледующая статья

В статье рассмотрены вопросы безопасности искусственного интеллекта (ИИ) как сущности, являющейся одновременно и средством обеспечения информационной безопасности, и объектом кибератак. Главным механизмом настройки ИИ на решение конкретной задачи является машинное обучение (МО). В то же время, МО выступает угрозой и одновременно уязвимостью ИИ перед различного рода атаками, ландшафт которых постоянно расширяется. В работе приведены риски взлома систем ИИ по ряду ключевых отраслей, категории атак на модели машинного обучения. Представлены математические и структурные модели взлома ИИ через технологии МО и даны практические рекомендации по противостоянию такого рода атакам.

< ... >

Ключевые слова: искусственный интеллект, машинное обучение, кибератаки, угрозы, уязвимости, киберустойчивость, фреймворки, математические модели взлома нейросетей, структурные модели организации атак, платформы обеспечения информационной безопасности ИИ

The paper considers the security issues of artificial intelligence (AI). The main mechanism for setting AI to solve a specific problem is machine learning (ML). At the same time, ML is a threat and a vulnerability of AI to various kinds of attacks, the landscape of which is constantly expanding. The paper presents the risks of hacking AI systems in a number of key industries and the categories of attacks on machine learning models. Mathematical and structural models of «hacking» AI through ML technologies are presented and practical recommendations for countering such attacks are given.

Keywords: artificial intelligence, machine learning, cyberattacks, threats, vulnerabilities, cyber resilience, frameworks, structural models of organizing attacks, mathematical models of hacking neural networks, AI information security platformstion
warning!   Полную версию статьи смотрите на страницах журнала «Защита информации. Инсайд»

Обращайтесь!!!
e-mail:    magazine@inside-zi.ru
тел.:        +7 (921) 958-25-50, +7 (911) 921-68-24


Предыдущая статья    СОДЕРЖАНИЕ НОМЕРА    Следующая статья

| Начало | О журнале | План выхода | Подписка | Интернет-магазин | Реклама | Координаты |

Copyright © 2004-2024 «Защита информации. Инсайд». Все права защищены
webmaster@inside-zi.ru

   Rambler's Top100    Технологии разведки для бизнеса