Способи маскування військових об’єктів від виявлення системами штучного інтелекту

Автор(и)

  • Сергій Цибуля Національний університет оборони України, Україна https://orcid.org/0000-0003-0323-1771
  • Артем Волокита Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», Україна https://orcid.org/0000-0001-9069-5544

DOI:

https://doi.org/10.33099/2311-7249/2023-47-2-139-146

Ключові слова:

штучний інтелект, машинне навчання, нейронна мережа, комп’ютерний зір, виявлення, ідентифікації, класифікація, інженерна підтримка, маскування військових об’єктів, атака ухилення, патч-зображення, змагальний приклад, отруєння набору даних

Анотація

У роботі розглянуті наявні підходи впливу на роботу алгоритмів штучного інтелекту, зокрема машинного навчання, що застосовуються в системах комп’ютерного зору для виявлення, класифікації та ідентифікації об’єктів. На даний час найпопулярнішою та найперспективнішою технологією розпізнавання образів є штучні нейронні мережі. Комп’ютерний зір застосовується у військовій справі для виявлення візуальних об’єктів певних класів: людей, озброєння та військової техніки, військових об’єктів тощо. Вхідними даними для аналізу можуть бути: фотографії, відеокадри чи відео потік реального часу, що отримані з космічних, повітряних або наземних засобів розвідки. Для боротьби з системами автоматичного виявлення об’єктів можливо застосовувати підходи, що здатні впливати на моделі машинного навчання, які використовуються у цих системах. Атака на моделі машинного навчання – це спеціальні дії щодо впливу на її елементи з метою досягти бажаної поведінки системи або перешкодити її коректній роботі. За результатами аналізу досліджень різних авторів визначено, що майже кожен алгоритм машинного навчання має певні вразливості. Під час виконання завдань інженерної підтримки військ щодо маскування військових об’єктів, найбільш доступними способами впливу на системи комп’ютерного зору, для введення їх в оману, є зміна фізичних властивостей об’єкта, що маскується, шляхом нанесення на його поверхню спеціальних покриттів і матеріалів. У якості покриттів можливо використовувати згенеровані змагальні патч-зображення, шляхом накладання або наклеювання їх на об’єкт та які здатні вносити завади в роботу алгоритмів засобу розвідки, прицілювання або наведення. Це особливо важливо в перспективі створення автономних систем зброї, які здатні виявляти, ідентифікувати цілі та самостійно приймати рішення на їх ураження.

Посилання

America’s eroding technological advantage: nds rdt&e priorities in an era of great-power competition with China. URL: https://govini.com/wp-content/uploads/2021/04/ Govini_NDS-Priorities-RDTE.pdf (дата звернення: 26.05.2023).

Про схвалення Концепції розвитку штучного інтелекту в Україні : Розпорядження Кабінету Міністрів України № 1556-р від 02.12.2020. URL: https://zakon.rada.gov.ua/laws/show/1556-2020-р (дата звернення: 26.05.2023).

Reding D.F., Eaton J. Science & Technology Trends: 2020-2040. Exploring the S&T Edge. NATO Science & Technology Organization. Brussels. Belgium. 2020. P. 160. URL: https://www.sto.nato.int/ pages/tech-trends.aspx. (дата звернення: 26.05.2023).

Войтовський К. Є. Глобальні тренди розвитку науки і технологій: нові виклики і можливості. Київ : Національний інститут стратегічних досліджень, 2020. 6 с. URL: https://niss.gov.ua/doslidzhennya/nacionalna-bezpeka/globalni-trendi-rozvitku-nauki-i-tekhnologiy-novi-vikliki-i (дата звернення: 30.10.2022).

Lowd D., Meek C. Good word attacks on statistical spam filters. Proceedings of the second conference on email and anti-spam, 2005. P. 1–8.

Biggio B., Nelson B.and Laskov P. Poisoning attacks against support vector machines. Proceedings of 29th Int. Conf. Mach. Learn, 2012. P. 1467–1474. DOI: 10.48550/arXiv.1206.6389.

Szegedy C. et al. Intriguing properties of neural networks. CoRR, abs/1312.6199. 2013. P. 10. DOI: 10.48550/arXiv.1312.6199.

Carlin N. A Complete list of all (arXiv) adversarial example papers. URL: https://nicholas.carlini.com/writing/2019/all-adversarial-example-papers.html. (дата звернення: 26.05.2023).

Adversa AI. URL: https://adversa.ai/report-secure-and-trusted-ai/ (дата звернення: 26.05.2023).

Akhtar N., Mian A. Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey. IEEE Access. 2018. Vol. 6. P. 14410–14430. DOI: 10.1109/ACCESS.2018.2807385.

Wei Hui et al. Physical Adversarial Attack meets Computer Vision: A Decade Survey. 2022. P. 32. DOI: 10.48550/arXiv.2209.15179.

Wang D., Yao W., Jiang T., Tang G. and Chen X. A Survey on Physical Adversarial Attack in Computer Vision. ArXiv abs/2209.14262. 2022. P. 26. DOI: 10.48550/arXiv.2209.14262.

Niranjan S. et al. Analyzing the applicability of Internet of Things to the battlefield environment. International Conference on Military Communications and Information Systems. Brussels, Belgium, 23 May, 2016. P. 1–8. DOI: 10.1109/ICMCIS.2016.7496574.

Liang H., He E., Zhao Y., Jia Z., Li H. Adversarial Attack and Defense: A Survey. Electronics. 2022. № 11(8). Р. 1283. DOI: 10.3390/electronics11081283.

MITRE ATLAS™ (Adversarial Threat Landscape for Artificial-Intelligence Systems). URL: https://atlas.mitre.org/ (дата звернення: 26.05.2023).

Jagielski M. et al. Manipulating Machine Learning: Poisoning Attacks and Countermeasures for Regression Learning. IEEE Symposium on Security and Privacy, San Francisco, CA, USA, 2018. P. 19–35. DOI: 10.1109/SP.2018.00057.

Гонтаренко Я. Д., Красношлик Н. О. Використання нейронних мереж для розпізнавання дій людини по відео. Вісник Черкаського національного університету імені Б. Хмельницького. Серія «Прикладна математика. Інформатика». 2019. № 2. С. 59–72. DOI: 10.31651/2076-5886-2019-2-59-72.

Gu T., Liu K., Dolan-Gavitt B. and Garg S. BadNets: Evaluating backdooring attacks on deep neural networks. IEEE Access. 2019. Vol. 7. P. 47230-47244. DOI: 10.1109/ACCESS.2019.2909068.

Zhu X., Hu Z., Huang S., Li J. and Hu X. Infrared invisible clothing: Hiding from infrared detectors at multiple angles in real world. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022. P. 13317-13326.

Hollander R. den et al. Adversarial patch camouflage against aerial detection. Artificial Intelligence and Machine Learning in Defense Applications II. Vol. 11543. SPIE, 2020, P. 77–86. DOI: 10.1117/12.2575907.

Brown T., Mané D., Roy A., Abadi M. and Gilmer J. Adversarial patch. 2017. ArXiv:1712.09665.

Zhang Y., Foroosh H., David P. and Gong B. CAMOU: Learning physical vehicle camouflages to adversarially attack detectors in the wild. International Conference on Learning Representations. URL: https://openreview.net/pdf?id=SJgEl3A5tm. (дата звернення: 26.05.2023).

Eykholt K. et al. Robust Physical-World Attacks on Deep Learning Visual Classification. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018. P. 1625-1634. DOI: 10.48550/arXiv.1707.08945.

Lian J., Wang X., Su Y., Ma M. and Mei S. CBA: Contextual Background Attack Against Optical Aerial Detection in the Physical World. IEEE Transactions on Geoscience and Remote Sensing. 2023. Art no. 5606616. Vol. 61. P. 1–16. DOI: 10.1109/TGRS.2023.3264839.

Chen L. et al. Attack Selectivity of Adversarial Examples in Remote Sensing Image Scene Classification. IEEE Access. 2020. Vol. 8. P. 137477–137489. DOI: 10.1109/ACCESS.2020.3011639.

Suryanto N. et al. Dta: Physical camouflage attacks using differentiable transformation network. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022. P. 15305–15-14. DOI: 10.48550/arXiv.2203.09831.

Керівництво з виконання інженерних заходів маскування військ та об’єктів : наказ начальника Головного управління оперативного забезпечення Збройних сил України від 06.12.2017 № 90. Київ. 138 с.

Athalye A., Engstrom L., Ilyas A. and Kwok R. Synthesizing Robust Adversarial Examples. 2017. arXiv:1707.07397.

Про затвердження Переліку відомостей Міністерства оборони України, які містять службову інформацію (ПСІ – 2016) (зі змінами) : Наказ Міністерства оборони України від 27.12.2016 № 720. 31 с.

Про затвердження Зводу відомостей, що становлять державну таємницю : Наказ Служби безпеки України від 23.12.2020 № 383. 121 с

##submission.downloads##

Опубліковано

2023-09-22 — Оновлено 2023-09-25

Версії

Номер

Розділ

Високотехнологічні аспекти воєнного мистецтва