У сучасних конфліктах кордони між традиційною війною та високотехнологічними бойовими операціями стираються. Дрони та інші безпілотні системи вже не допоміжний інструмент, а повноцінні учасники бойових дій. Рішення, які раніше ухвалювали люди, дедалі частіше доручаються алгоритмам штучного інтелекту. Новітні технології змінили тактику бойових дій, а звичайна зброя поступилася місцем автономним системам. Проте правові та етичні рамки ведення війни залишилися фактично на рівні минулого століття.
В ефірі Польського радіо для України Доктор Мацей Зайонц з Інституту філософії та соціології Польської академії наук зазначив, що хоч базова правова логіка універсальна, на практиці виникають складнощі. Адаптація міжнародного гуманітарного права до напівавтономних систем і «роїв дронів» ставить низку запитань: як гарантувати розмежування цивільних та військових цілей, хто несе відповідальність за рішення, ухвалені алгоритмом, і як оцінювати пропорційність у випадку швидких автономних атак.
«Питання застосування або адаптації гуманітарного права щодо використання дронів чи більш складних напівавтономних засобів іноді є викликом для різних військових організацій», — зауважує Мацей Зайонц. Це означає, що потрібні як технічні, так і юридичні інструменти: чіткі правила розробки і використання алгоритмів, прозорі процедури контролю і механізми розслідування можливих порушень. Інтеграція штучного інтелекту у військові дрони відкриває нові можливості, але водночас породжує небезпеки.
За словами експерта, зараз штучний інтелект має великі труднощі з розпізнаванням, наприклад, автомобіля і танка: він помиляється приблизно кожен десятий раз. Це означає, що поспішне впровадження автономних систем на фронті може мати катастрофічні наслідки.
«Ось чому армії по всьому світу, навіть ті, які під великим тиском змушені швидко розвивати нові технології, зокрема українські Збройні сили, ставляться до цього дуже обережно. Такі системи ще занадто "сирі" і не пристосовані до складних умов бою. Водночас у певних ситуаціях, наприклад, у морській війні, частину цих технологій уже можна використовувати без особливих ризиків», — підсумовує експерт.
Кожен новий крок у сфері штучного інтелекту чи безпілотних систем змушує замислитися: як зберегти баланс між інноваціями та базовими гуманітарними цінностями? Питання стає дедалі актуальнішим на тлі швидкого розвитку військових і цивільних технологій. Доктор Мацей Зайонц з Інституту філософії та соціології Польської академії наук пояснює:
«Це дуже складна тема. Вона потребує великих зусиль і часу, бо, на жаль, існує певний дисбаланс: країнам, які відкидають будь-які етичні цінності, дуже легко створити, наприклад, бойового робота, "робота-вбивцю", дрона, який стріляє в усе, що рухається. Технологічно це не складно. Але створити штучний інтелект, який навіть у складних умовах дотримуватиметься всіх етичних норм, надзвичайно проблематично.
Тому ті, хто хоче дотримуватися цих принципів, змушені докладати значно більше зусиль: не лише у створенні самої інтелектуальної системи, а й у розробці процедур, підготовці персоналу, модифікації своїх збройних сил», — каже Мацей Зайонц і наголошує, що головний виклик полягає не лише у швидкому розвитку технологій, а й у здатності людства інтегрувати до них етичні рамки. І робити це потрібно вже зараз, аби в майбутньому не залишитися заручниками власних винаходів.
Програму «На прицілі» можна прослухати у прикріпленому аудіофайлі.
Вікторія Машталер/Тарас Андрухович