Американската армия засилва ангажимента си за разработване и използване на автономни оръжия, което се потвърждава от актуализирана директива на министерството на отбраната. Актуализацията, публикувана на 25 януари 2023 г., е първата от десетилетие насам, която се фокусира върху автономните оръжия с изкуствен интелект. Тя последва свързания с нея план за прилагане на автономни системи, публикуван от НАТО на 13 октомври 2022 г., който има за цел да запази "технологичното предимство" на алианса в областта на т.нар. "роботи убийци", пише аналитичното онлайн издание “Конверсейшън“.
"И двете съобщения отразяват важен урок, който военните по света научиха от неотдавнашните бойни действия в Украйна и Нагорни Карабах: Адаптираният към използване на оръжия изкуствен интелект е бъдещето на войната", отбелязва изданието.
Натискът на войната
Но с нарастването на жертвите в Украйна се увеличава и натискът за постигане на решаващи предимства на бойното поле с напълно автономни оръжия - роботи, които могат сами да избират, издирват и атакуват целите си, без да се нуждаят от човешки надзор.
През февруари ключов руски производител обяви плановете си за разработване на нова бойна версия на своя разузнавателен робот "Маркер" - наземно превозно средство без екипаж, което да подсили силите на Москва в Украйна. Напълно автономни безпилотни летателни апарати вече се използват за защита на украински енергийни съоръжения от други безпилотни летателни апарати. Вахид Науаби, главен изпълнителен директор на американския отбранителен предприемач, който произвежда полуавтономния дрон “Суичблейд” (Switchblade, автоматичен нож – бел. ред.), заяви, че технологията вече е налице, за да се преобразуват тези оръжия в напълно автономни.
Михайло Федоров, министърът на цифровата трансформация на Украйна, твърди, че напълно автономните оръжия са "логичната и неизбежна следваща стъпка" във войната, и наскоро заяви, че войниците може да ги видят на бойното поле през следващите шест месеца.
Поддръжниците на напълно автономните оръжейни системи твърдят, че технологията ще предпази войниците от опасност, като ги държи извън бойното поле. Те също така ще позволят военните решения да се вземат със свръхчовешка скорост, което ще позволи радикално подобряване на отбранителните способности.
Понастоящем полуавтономните бойни средства, като например устройства за проследяване, които проследяват и сами се взривяват по целите, изискват "човешки фактор“. Те могат да препоръчват действия, но изискват операторите им да ги инициират.
За разлика от тях напълно автономните безпилотни летателни апарати, като така наречените "ловци на дронове", които сега са разположени в Украйна, могат да проследяват и обезвреждат пристигащи безпилотни летателни апарати денем и нощем, без необходимост от намеса на оператор и по-бързо от управляваните от човека оръжейни системи.
Съпротива
Критици като Кампанията за спиране на роботите убийци (The Campaign to Stop Killer Robots/КСРУ) вече повече от десетилетие се застъпват за забрана на изследванията и разработването на автономни оръжейни системи. В противен случай според тях се върви към бъдеще, в което автономните оръжейни системи са проектирани специално за поразяване на хора, а не само превозни средства, инфраструктура и други оръжия. Те твърдят, че решенията за живота и смъртта по време на война трябва да останат в ръцете на хората. Прехвърлянето им на алгоритъм е равносилно на висша форма на цифрова дехуманизация.
Заедно с Хюман райтс уоч, КСРУ твърди, че автономните оръжейни системи не разполагат с човешката преценка, необходима за разграничаване на цивилни лица от легитимни военни цели. Те също така понижават възприеманите рискове от бойни действия и ерозират значимия човешки контрол върху случващото се на бойното поле.
Организациите твърдят, че армиите, които инвестират най-много в автономни оръжейни системи, включително САЩ, Русия, Китай, Южна Корея и страните от Европейския съюз, вкарват света в скъпоструваща и дестабилизираща нова надпревара във въоръжаването. Една от последиците може да бъде попадането на тази опасна нова технология в ръцете на терористи и други лица, които са извън контрола на правителствата.
Актуализираната директива на Пентагона се опитва да отговори на някои от основните опасения. В нея се заявява, че САЩ ще използват автономни оръжейни системи с "подходящи нива на човешка преценка за използването на сила". Хюман райтс уоч излезе с изявление, в което се казва, че новата директива не изяснява какво означава изразът "подходящо ниво" и не установява насоки за това кой трябва да го определя.
Но както твърди Грегъри Алън, експерт от Центъра за стратегически и международни изследвания (Center for Strategic and International Studies), тази формулировка установява по-нисък праг от искания от критиците "значим човешки контрол". Той изтъква, че формулировката на Пентагона допуска възможността в определени случаи, като например при самолетите за наблюдение, нивото на човешкия контрол, което се счита за подходящо, "да бъде малко или никакво".
Актуализираната директива включва и формулировка, обещаваща етично използване на автономните оръжейни системи, по-специално чрез създаване на система за надзор на разработването и използването на технологията и чрез настояване оръжията да се използват в съответствие със съществуващите международни закони за войната. Но Мойс от Article 36 отбеляза, че международното право понастоящем не предоставя адекватна рамка за разбиране, още по-малко за регулиране на концепцията за автономност на оръжията.
Невъзможен баланс?
Актуализацията на Пентагона демонстрира едновременен ангажимент за разгръщане на автономни оръжейни системи и за спазване на международното хуманитарно право. Предстои да стане – или не – ясно как САЩ ще балансират тези ангажименти и дали изобщо е възможно да се постигне такъв баланс.
Международният комитет на Червения кръст, който е пазител на международното хуманитарно право, настоява, че правните задължения на командирите и операторите "не могат да бъдат прехвърлени на машина, алгоритъм или оръжейна система". В момента човешките същества носят отговорност за защитата на цивилното население и ограничаването на бойните щети, като се уверяват, че използването на сила е пропорционално на военните цели.
Ако и когато на бойното поле бъдат разположени оръжия с изкуствен интелект, кой трябва да носи отговорност, когато се стигне до ненужна смърт на цивилни граждани? Няма ясен отговор на този много важен въпрос.
Министерството на отбраната на САЩ определя автономната оръжейна система като: "Оръжейна система, която, след като бъде активирана, може да избира и поразява цели без допълнителна намеса от страна на човешки оператор", посочва Чанъл нюз Ейжа(CNA).
Много бойни системи вече отговарят на този критерий. Компютрите на безпилотните летателни апарати и съвременните ракети разполагат с алгоритми, които могат да откриват цели и да ги поразяват с много по-голяма прецизност от тази на човешкия оператор. Израелската система "Железен купол" е една от няколкото системи за активна защита, които могат да поразяват цели без човешко наблюдение.
Въпреки че е предназначена за противоракетна отбрана, "Железен купол" може да убие хора по погрешка. Но рискът се счита за приемлив в международната политика, тъй като "Железен купол" като цяло има надеждна история на защита на живота на мирни граждани.
Съществуват и оръжия с изкуствен интелект, предназначени да атакуват хора - от роботизирани стражи до безпилотни дронове камикадзе, използвани във войната в Украйна. Смъртоносните автономни оръжия вече са тук. И много хора се питат дали наближава сбъдването на събитията от филма “Терминатор 3: Бунтът на машините“, който беше създаден преди 20 години.
Аргументи в подкрепа на това мрачно заключение изобилстват в съвременната човешка история. И те показват, че първо се създават и прилагат ужасяващи оръжия, а впоследствие се изработват международни споразумения, като например Женевските конвенции, за тяхното контролиране или забрана. Те са един от малкото инструменти, с които човечеството си мисли, че разполага, за да контролира начина, по който се водят войните. За съжаление използването на химически оръжия от САЩ във Виетнам и от Русия в Афганистан са доказателство, че тези мерки не винаги са успешни.
А още по-лошото е, когато ключовите играчи на световната сцена отказват да се присъединят към тях. Международната кампания за забрана на противопехотните мини (ICBL) лобира пред политиците от 1992 г. насам за забрана на мините и касетъчните боеприпаси (които разпръскват малки бомби на голяма площ). През 1997 г. Договорът от Отава включва забрана на тези оръжия и вече е подписан от 122 държави. Но САЩ, Китай и Русия не се присъединиха към него.
В края на ноември 2022 г. някъде из безбройните новини за войната в Украйна се загуби информацията, че на полицията в Сан Франциско се позволява да използва роботи, които могат да убиват, съобщи Би Би Си. Мярката дава на полицията право да използва роботи, оборудвани с експлозиви, при екстремни обстоятелства. Решение, което засега не е реализирано. Но в бъдеще може да има сценарии, при които робот да използва смъртоносна сила.
Този тип смъртоносни роботи вече се използват в други части на САЩ, припомня Би Би Си. През 2016 г. полицията в Далас, Тексас, използва робот, въоръжен с експлозив С-4, за да убие снайперист, който беше застрелял двама полицаи и беше ранил още няколко.
Засега “роботите убийци” са вълци единаци. Но едва ли ще мине много време, преди на бойното поле да се появят армии от такива "умни" бездушни убийци.