Способи маскування військових об’єктів від виявлення системами штучного інтелекту
DOI:
https://doi.org/10.33099/2311-7249/2023-47-2-139-146Ключові слова:
штучний інтелект, машинне навчання, нейронна мережа, комп’ютерний зір, виявлення, ідентифікації, класифікація, інженерна підтримка, маскування військових об’єктів, атака ухилення, патч-зображення, змагальний приклад, отруєння набору данихАнотація
У роботі розглянуті наявні підходи впливу на роботу алгоритмів штучного інтелекту, зокрема машинного навчання, що застосовуються в системах комп’ютерного зору для виявлення, класифікації та ідентифікації об’єктів. На даний час найпопулярнішою та найперспективнішою технологією розпізнавання образів є штучні нейронні мережі. Комп’ютерний зір застосовується у військовій справі для виявлення візуальних об’єктів певних класів: людей, озброєння та військової техніки, військових об’єктів тощо. Вхідними даними для аналізу можуть бути: фотографії, відеокадри чи відео потік реального часу, що отримані з космічних, повітряних або наземних засобів розвідки. Для боротьби з системами автоматичного виявлення об’єктів можливо застосовувати підходи, що здатні впливати на моделі машинного навчання, які використовуються у цих системах. Атака на моделі машинного навчання – це спеціальні дії щодо впливу на її елементи з метою досягти бажаної поведінки системи або перешкодити її коректній роботі. За результатами аналізу досліджень різних авторів визначено, що майже кожен алгоритм машинного навчання має певні вразливості. Під час виконання завдань інженерної підтримки військ щодо маскування військових об’єктів, найбільш доступними способами впливу на системи комп’ютерного зору, для введення їх в оману, є зміна фізичних властивостей об’єкта, що маскується, шляхом нанесення на його поверхню спеціальних покриттів і матеріалів. У якості покриттів можливо використовувати згенеровані змагальні патч-зображення, шляхом накладання або наклеювання їх на об’єкт та які здатні вносити завади в роботу алгоритмів засобу розвідки, прицілювання або наведення. Це особливо важливо в перспективі створення автономних систем зброї, які здатні виявляти, ідентифікувати цілі та самостійно приймати рішення на їх ураження.
Посилання
America’s eroding technological advantage: nds rdt&e priorities in an era of great-power competition with China. URL: https://govini.com/wp-content/uploads/2021/04/ Govini_NDS-Priorities-RDTE.pdf (дата звернення: 26.05.2023).
Про схвалення Концепції розвитку штучного інтелекту в Україні : Розпорядження Кабінету Міністрів України № 1556-р від 02.12.2020. URL: https://zakon.rada.gov.ua/laws/show/1556-2020-р (дата звернення: 26.05.2023).
Reding D.F., Eaton J. Science & Technology Trends: 2020-2040. Exploring the S&T Edge. NATO Science & Technology Organization. Brussels. Belgium. 2020. P. 160. URL: https://www.sto.nato.int/ pages/tech-trends.aspx. (дата звернення: 26.05.2023).
Войтовський К. Є. Глобальні тренди розвитку науки і технологій: нові виклики і можливості. Київ : Національний інститут стратегічних досліджень, 2020. 6 с. URL: https://niss.gov.ua/doslidzhennya/nacionalna-bezpeka/globalni-trendi-rozvitku-nauki-i-tekhnologiy-novi-vikliki-i (дата звернення: 30.10.2022).
Lowd D., Meek C. Good word attacks on statistical spam filters. Proceedings of the second conference on email and anti-spam, 2005. P. 1–8.
Biggio B., Nelson B.and Laskov P. Poisoning attacks against support vector machines. Proceedings of 29th Int. Conf. Mach. Learn, 2012. P. 1467–1474. DOI: 10.48550/arXiv.1206.6389.
Szegedy C. et al. Intriguing properties of neural networks. CoRR, abs/1312.6199. 2013. P. 10. DOI: 10.48550/arXiv.1312.6199.
Carlin N. A Complete list of all (arXiv) adversarial example papers. URL: https://nicholas.carlini.com/writing/2019/all-adversarial-example-papers.html. (дата звернення: 26.05.2023).
Adversa AI. URL: https://adversa.ai/report-secure-and-trusted-ai/ (дата звернення: 26.05.2023).
Akhtar N., Mian A. Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey. IEEE Access. 2018. Vol. 6. P. 14410–14430. DOI: 10.1109/ACCESS.2018.2807385.
Wei Hui et al. Physical Adversarial Attack meets Computer Vision: A Decade Survey. 2022. P. 32. DOI: 10.48550/arXiv.2209.15179.
Wang D., Yao W., Jiang T., Tang G. and Chen X. A Survey on Physical Adversarial Attack in Computer Vision. ArXiv abs/2209.14262. 2022. P. 26. DOI: 10.48550/arXiv.2209.14262.
Niranjan S. et al. Analyzing the applicability of Internet of Things to the battlefield environment. International Conference on Military Communications and Information Systems. Brussels, Belgium, 23 May, 2016. P. 1–8. DOI: 10.1109/ICMCIS.2016.7496574.
Liang H., He E., Zhao Y., Jia Z., Li H. Adversarial Attack and Defense: A Survey. Electronics. 2022. № 11(8). Р. 1283. DOI: 10.3390/electronics11081283.
MITRE ATLAS™ (Adversarial Threat Landscape for Artificial-Intelligence Systems). URL: https://atlas.mitre.org/ (дата звернення: 26.05.2023).
Jagielski M. et al. Manipulating Machine Learning: Poisoning Attacks and Countermeasures for Regression Learning. IEEE Symposium on Security and Privacy, San Francisco, CA, USA, 2018. P. 19–35. DOI: 10.1109/SP.2018.00057.
Гонтаренко Я. Д., Красношлик Н. О. Використання нейронних мереж для розпізнавання дій людини по відео. Вісник Черкаського національного університету імені Б. Хмельницького. Серія «Прикладна математика. Інформатика». 2019. № 2. С. 59–72. DOI: 10.31651/2076-5886-2019-2-59-72.
Gu T., Liu K., Dolan-Gavitt B. and Garg S. BadNets: Evaluating backdooring attacks on deep neural networks. IEEE Access. 2019. Vol. 7. P. 47230-47244. DOI: 10.1109/ACCESS.2019.2909068.
Zhu X., Hu Z., Huang S., Li J. and Hu X. Infrared invisible clothing: Hiding from infrared detectors at multiple angles in real world. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022. P. 13317-13326.
Hollander R. den et al. Adversarial patch camouflage against aerial detection. Artificial Intelligence and Machine Learning in Defense Applications II. Vol. 11543. SPIE, 2020, P. 77–86. DOI: 10.1117/12.2575907.
Brown T., Mané D., Roy A., Abadi M. and Gilmer J. Adversarial patch. 2017. ArXiv:1712.09665.
Zhang Y., Foroosh H., David P. and Gong B. CAMOU: Learning physical vehicle camouflages to adversarially attack detectors in the wild. International Conference on Learning Representations. URL: https://openreview.net/pdf?id=SJgEl3A5tm. (дата звернення: 26.05.2023).
Eykholt K. et al. Robust Physical-World Attacks on Deep Learning Visual Classification. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018. P. 1625-1634. DOI: 10.48550/arXiv.1707.08945.
Lian J., Wang X., Su Y., Ma M. and Mei S. CBA: Contextual Background Attack Against Optical Aerial Detection in the Physical World. IEEE Transactions on Geoscience and Remote Sensing. 2023. Art no. 5606616. Vol. 61. P. 1–16. DOI: 10.1109/TGRS.2023.3264839.
Chen L. et al. Attack Selectivity of Adversarial Examples in Remote Sensing Image Scene Classification. IEEE Access. 2020. Vol. 8. P. 137477–137489. DOI: 10.1109/ACCESS.2020.3011639.
Suryanto N. et al. Dta: Physical camouflage attacks using differentiable transformation network. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022. P. 15305–15-14. DOI: 10.48550/arXiv.2203.09831.
Керівництво з виконання інженерних заходів маскування військ та об’єктів : наказ начальника Головного управління оперативного забезпечення Збройних сил України від 06.12.2017 № 90. Київ. 138 с.
Athalye A., Engstrom L., Ilyas A. and Kwok R. Synthesizing Robust Adversarial Examples. 2017. arXiv:1707.07397.
Про затвердження Переліку відомостей Міністерства оборони України, які містять службову інформацію (ПСІ – 2016) (зі змінами) : Наказ Міністерства оборони України від 27.12.2016 № 720. 31 с.
Про затвердження Зводу відомостей, що становлять державну таємницю : Наказ Служби безпеки України від 23.12.2020 № 383. 121 с
##submission.downloads##
Опубліковано
Версії
- 2023-09-25 (2)
- 2023-09-22 (1)
Номер
Розділ
Ліцензія
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:
1. Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
2. Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати як монографію), за умови збереження посилання на першу публікацію роботи у цьому журналі.
3. Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).
4. Персональні дані і метадані, які наводяться у статтях, надаються для їх зберігання і оброблення в різноманітних базах даних і інформаційних системах, включення їх в аналітичні і статистичні звітності, створення обгрунтованих взаємозв'язків об'єктів творів науки, літератури і мистецтва з персональними даними і т.п. на території, яка не обмежена.