Зачастую разработчики для ускорения процесса разработки приложений цифровой экономики Российской Федерации используют модели машинного обучения, предобученные на больших объемах данных. Однако на практике такой подход небезопасен. Например, в отчете Национального института стандартов и технологий США (NIST) [1] наглядно показано, какие опасности здесь подстерегают разработчиков и конечных пользователей систем машинного обучения. В настоящей статье рассмотрены типовые атаки злоумышленников на модели систем машинного обучения и предложен ряд рекомендаций по эффективному противодействию этим атакам.
< ... >
Developers often use machine learning models pre-trained on large amounts of data to speed up the process of developing applications for the Digital Economy of the Russian Federation. However, this approach is not safe in practice. For example, in the report of the US National Institute of Standards and Technology, NIST [1], clearly it shows what dangers lie in wait for developers and end users of machine learning systems. This article discusses typical attacks by intruders on data models of machine learning systems and offers a number of recommendations for effectively counteracting these attacks.
Keywords:
artificial intelligence, machine learning, machine learning systems, data models, attacker tactics and techniques, attacker attacks, classification of attacks on data models