350 руб
Журнал «Системы высокой доступности» №4 за 2023 г.
Статья в номере:
Способы парирования атак на автоматизированные системы, использующих специфические для нейронных сетей уязвимости
Тип статьи: научная статья
DOI: https://doi.org/10.18127/j20729472-202304-01
УДК: 004
Авторы:

В.И. Будзко1, Д.А. Мельников2, В.Г. Беленков3

1−3 ФИЦ ИУ РАН (Москва, Россия)
1 Национальный исследовательский ядерный университет «МИФИ» (Москва, Россия)
2 Финансовый университет при Правительстве Российской Федерации (Москва, Россия)
1 vbudzko@ipiran.ru, 2 mda-17@yandex.ru, 3 vbelenkov@ipiran.ru

Аннотация:

Постановка проблемы. Современный этап развития российского общества характеризуется цифровой трансформацией всех его сфер, включая экономику, науку, здравоохранение, образование, культуру и т.д. Одним из направлений такой трансформации является широкое применение технологий искусственного интеллекта (ТИИ). ТИИ обладают значительным потенциалом для преобразования общества и жизни людей – от торговли и здравоохранения до транспорта и кибербезопасности, а также окружающей среды. Вместе с тем, ТИИ влекут за собой риски обеспечения информационной безопасности (ИБ), которые могут негативно сказаться на отдельных лицах, группах, организациях, отраслях экономики и обществе в целом. Многослойные нейронные сети (МНС) обладают специфическими уязвимостями, которые создают условия для атак со стороны злоумышленников и нарушения информационной безопасности, использующей МНС автоматизированной системы (АС).

Цель. С учетом особенностей, обусловленных применением МНС в АС, рассмотреть основные способы парирования атак на АС, использующих специфические для нейронных сетей уязвимости при обучении и тестировании, существенные для ОИБ при разработке и модернизации, а также при сопровождении АС и применяемых в них МНС.

Результаты. Сделан обзор основных способов парирования атак на АС со специфическими для МНС уязвимостями, используемыми для реализации существенных угроз обеспечению информационной безопасности (ОИБ) автоматизированных систем, применяющих МНС, на всех этапах жизненного цикла АС.

Практическая значимость. Приведены основные способы парирования атак на АС, использующих уязвимости, специфические для МНС, существенные для ОИБ АС при разработке, модернизации, а также при сопровождении АС и применяемых в них МНС.

Страницы: 5-20
Для цитирования

Будзко В.И., Мельников Д.А., Беленков В.Г. Способы парирования атак на автоматизированные системы, использующих специфические для нейронных сетей уязвимости // Системы высокой доступности. 2023. Т. 19. № 4. С. 5−20. DOI: https://doi.org/ 10.18127/j20729472-202304-01

Список источников
  1. Будзко В.И., Королёв В.И., Мельников Д.А., Беленков В.Г. Особенности обеспечения информационной безопасности автоматизированных систем, которые используют технологии нейронных сетей // Системы высокой доступности. 2023. Т. 19. № 3. С. 5–17. DOI: https://doi.org/10.18127/j20729472-202303-01
  2. Nitika Khurana, Sudip Mittal, Aritran Piplai, Anupam Joshi. Preventing Poisoning Attacks On AI Based Threat Intelligence Systems // IEEE International Workshop on Machine Learning for Signal Processing (MLSP) 2019: 1-6.
  3. Blaine Nelson, Marco Barreno, Fuching Jack Chi, Anthony D. Joseph, Benjamin I. P. Rubinstein, Udam Saini, Charles A. Sutton, J. Doug Tygar, Kai Xia. Exploiting Machine Learning to Subvert Your Spam Filter // Usenix Workshop on Large-Scale Exploits and Emergent Threats (LEET). 2008.
  4. Matthew Jagielski, Alina Oprea, Battista Biggio, Chang Liu, Cristina Nita-Rotaru, Bo Li. Manipulating Machine Learning: Poisoning Attacks and Countermeasures for Regression Learning // IEEE Symposium on Security and Privacy. 2018: 19–35.
  5. Nathalie Baracaldo, Bryant Chen, Heiko Ludwig, Jaehoon Amir Safavi. Mitigating Poisoning Attacks on Machine Learning Models: A Data Provenance Based Approach. AISec@CCS 2017: 103–110.
  6. Yao Cheng, Cheng-Kang Chu, Hsiao-Ying Lin, Marius Lombard-Platet, David Naccache. Keyed Non-parametric Hypothesis Tests / International Conference on Network and System Security (NSS). 2019: 632–645.
  7. Sanghyun Hong, Varun Chandrasekaran, Yigitcan Kaya, Tudor Dumitras, Nicolas Papernot. On the Effectiveness of Mitigating Data Poisoning Attacks with Gradient Shaping. arXiv: 2002.11497v2.
  8. Tran, Brandon, Jerry Li, and Aleksander Madry. Spectral signatures in backdoor attacks // In Advances in Neural Information Processing Systems. 2018. Р. 8000–8010.
  9. Chen, Bryant, Wilka Carvalho, Nathalie Baracaldo, Heiko Ludwig, Benjamin Edwards, Taesung Lee, Ian Molloy and Biplav Srivastava. Detecting backdoor attacks on deep neural networks by activation clustering / Artificial Intelligence Safety Workshop @ AAAI. 2019.
  10. Yuntao Liu, Yang Xie, Ankur Srivastava. Neural Trojans / 2017 IEEE International Conference on Computer Design (ICCD). Boston, MA. 2017. Р. 45–48, doi: 10.1109/ICCD.2017.16
  11. Liu, Kang, Brendan Dolan-Gavitt and Siddharth Garg. Fine-pruning: Defending against backdooring attacks on deep neural networks / In International Symposium on Research in Attacks, Intrusions and Defenses. 2018. Р. 273–294. Springer, Cham, 2018.
  12. Wang, Bolun, Yuanshun Yao, Shawn Shan, Huiying Li, Bimal Viswanath, Haitao Zheng and Ben Y. Zhao. Neural cleanse: Identifying and mitigating backdoor attacks in neural networks / In 2019 IEEE Symposium on Security and Privacy (SP). Р. 707–723.
  13. Wenbo Guo, Lun Wang, Xinyu Xing, Min Du, and Dawn Song. Tabor: A highly accurate approach to inspecting and restoring trojan backdoors in ai systems / arXiv preprint arXiv:1908.01763v2 (2019).
  14. Yansong Gao, Chang Xu, Derui Wang, Shiping Chen, Damith C.Ranasinghe, Surya Nepal. STRIP: A Defence Against Trojan Attacks on Deep Neural Networks / 2019 Annual Computer Security Applications Conference (ACSAC '19).
  15. Sakshi Udeshi, Shanshan Peng, Gerald Woo, Lionell Loh, Louth Rawshan and Sudipta Chattopadhyay. Model Agnostic Defence against Backdoor Attacks in Machine Learning / arXiv preprint arXiv:1908.02203v2 (2019).
  16. Chou Edward, Florian Tramèr, Giancarlo Pellegrino. sentiNet: Detecting Localized Universal Attack Against Deep Learning Systems / The 3rd Deep Learning and Security Workshop. 2020.
  17. Bao Gia Doan, Ehsan Abbasnejad, and Damith Ranasinghe. Februus: Input Purification Defense Against Trojan Attacks on Deep Neural Network Systems / The 36th Annual Computer Security Applications Conference (ACSAC). 2020.
  18. Xiaojun Xu, Qi Wang, Huichen Li, Nikita Borisov, Carl A Gunter and Bo Li. Detecting AI Trojans Using Meta Neural Analysis // IEEE S&P. 2021.
  19. Huili Chen, Cheng Fu, Jishen Zhao, Farinaz Koushanfar. DeepInspect: A Black-box Trojan Detection and Mitigation Framework for Deep Neural Networks // IJCAI 2019: 4658–4664.
  20. Soheil Kolouri, Aniruddha Saha, Hamed Pirsiavash, Heiko Hoffmann, Universal Litmus Patterns. Revealing Backdoor Attacks in CNNs // CVPR. 2020.
  21. Gintare Karolina Dziugaite, Zoubin Ghahramani, Daniel M. Roy. A study of the effect of JPG compression on adversarial images // International Society for Bayesian Analysis (ISBA 2016) World Meeting.
  22. Hossein Hosseini, Yize Chen, Sreeram Kannan, Baosen Zhang, Radha Poovendran. Blocking Transferability of Adversarial Examples in Black-Box Learning Systems / ArXiv 2017.
  23. Nicolas Papernot, Patrick McDaniel, Xi Wu, Somesh Jha and Ananthram Swami. Distillation as a defense to adversarial perturbations against deep neural networks // IEEE Symposium S&P. 2016
  24. Shixin Tian, Guolei Yang, Ying Cai. Detecting Adversarial Examples Through Image Transformation // AAAI. 2018.
  25. Dongyu Meng, Hao Chen. MagNet: A Two Pronged Defense against adversarial examples / ACM Conference on Computer and Communications Security (CCS). 2017.
  26. Faiq Khalid, Hassan Ali, Hammad Tariq, Muhammad Abdullah Hanif, Semeen Rehman, Rehan Ahmed, Muhammad Shafique: QuSecNets: Quantization-based Defense Mechanism for Securing Deep Neural Network against Adversarial Attacks / IEEE 25th International Symposium on On-Line Testing and Robust System Design (IOLTS). 2019.
  27. Jialong Zhang, Zhongshu Gu, Jiyong Jang, Hui Wu, Marc Ph. Stoecklin, Heqing Huang, Ian Molloy. Protecting Intellectual Property of Deep Neural Networks with Watermarking / ASIACCS'18.
  28. Manish Kesarwani, Bhaskar Mukhoty, Vijay Arya, Sameep Mehta. Model Extraction Warning in MLaaS Paradigm / ACSAC 2018.
  29. Huadi Zheng, Qingqing Ye, Haibo Hu, Chengfang Fang, Jie Shi. BDPL: A Boundary Differentially Private Layer Against Machine Learning Model Extraction Attacks / ESORICS 2019.
  30. Mika Juuti, Sebastian Szyller, Samuel Marchal, N. Asokan. PRADA: Protecting Against DNN Model Stealing Attacks // 2019 IEEE European Symposium on Security and Privacy (EuroS&P).
  31. Florian Tramèr, Fan Zhang, Ari Juels, Michael K. Reiter, Thomas Ristenpart. Stealing Machine Learning Models via Prediction APIs / Usenix Security 2016.
  32. Lukas, Nils, Yuxuan Zhang, and Florian Kerschbaum. «Deep Neural Network Fingerprinting by Conferrable Adversarial Examples», arXiv preprint arXiv: 1912.00888v3, (2020).
  33. Cao, Xiaoyu, Jinyuan Jia, and Neil Zhenqiang Gong. IPGuard: Protecting the Intellectual Property of Deep Neural Networks via Fingerprinting the Classification Boundary / ACM ASIA Conference on Computer and Communications Security (ASIACCS). 2021.
  34. Nicolas Papernot, Martin Abadi, Ulfar Erlingsson, Ian Goodfellow, Kunal Talwar. Semisupervised knowledge transfer for deep learning from private training data / ICLR 2017.
  35. Martín Abadi, Andy Chu, Ian Goodfellow, H. Brendan McMahan, Ilya Mironov, Kunal Talwar, Li Zhang. Deep learning with differential privacy // Proceedings of the 2016 ACM CCS, 2016.
  36. Milad Nasr, Reza Shokri, and Amir Houmansadr. Machine learning with membership privacy using adversarial regularization // Proceedings of the 2018 ACM CCS. 2018.
  37. Jinyuan Jia, Ahmed Salem, Michael Backes, Yang Zhang, Neil Zhenqiang Gong. MemGuard: Defending against Black-Box Membership Inference Attacks via Adversarial Examples // ACM CCS. 2019.
  38. Ziqi Yang, Bin Shao, Bohan Xuan, Ee-Chien Chang, and Fan Zhang. Defending Model Inversion and Membership Inference Attacks via Prediction Purification / ArXiv, arXiv:2005.03915v2. 2020.
Дата поступления: 25.10.2023
Одобрена после рецензирования: 08.11.2023
Принята к публикации: 20.11.2023