Український досвід посилює дослідження з розробки роботів-вбивць

Український досвід посилює дослідження з розробки роботів-вбивць

Збройні сили США посилюють свою прихильність до розробки та використання автономної зброї, що підтверджено оновленням директиви Міністерства оборони .

Оновлення, випущене 25 січня 2023 року, є першим за десятиліття, яке зосереджується на автономній зброї зі штучним інтелектом . Це слідує відповідному плану впровадження , оприлюдненому НАТО 13 жовтня 2022 року, який спрямований на збереження «технологічної переваги» альянсу в тому, що іноді називають «роботами-вбивцями».

Про це пише sciencealert.

Обидва оголошення відображають важливий урок, який військові в усьому світі засвоїли з останніх бойових дій в Україні та Нагірному Карабасі : штучний інтелект із застосуванням зброї — це майбутнє війни.

«Ми знаємо, що командири вбачають військову цінність у вільних боєприпасах в Україні», — сказав мені в інтерв’ю Річард Мойєс, директор гуманітарної організації « Article 36» , яка займається зменшенням шкоди від зброї.

Ця зброя, яка є щось середнє між бомбою та безпілотником, може довго зависати в очікуванні цілі. На цей час такі напівавтономні ракети, як правило, експлуатуються зі значним контролем людини над ключовими рішеннями, сказав він.

Тиск війни

Але зі збільшенням кількості жертв в Україні зростає й тиск на досягнення вирішальних переваг на полі бою за допомогою повністю автономної зброї – роботів, які можуть самостійно вибирати, полювати та атакувати свої цілі, не потребуючи жодного нагляду людини.

Цього місяця провідний російський виробник оголосив про плани розробити нову бойову версію свого робота-розвідника Marker, наземної машини без екіпажу, для посилення існуючих сил в Україні.

Повністю автономні дрони вже використовують для захисту українських енергетичних об’єктів від інших безпілотників. Вахід Навабі, генеральний директор оборонного підрядника США, який виробляє напівавтономний дрон Switchblade , сказав, що технологія вже доступна для перетворення цієї зброї на повністю автономну.

Читайте також:  У Туреччині презентували новий “Байрактар” із українським двигуном

Михайло Федоров, міністр цифрової трансформації України, стверджував, що повністю автономна зброя є « логічним і неминучим наступним кроком війни », і нещодавно заявив, що солдати можуть побачити її на полі бою протягом наступних шести місяців.

Прихильники повністю автономних систем зброї стверджують, що ця технологія захистить солдатів від небезпеки, не даючи їм бути на полі бою. Вони також дозволять приймати військові рішення з надлюдською швидкістю, дозволяючи радикально покращити оборонні можливості.

Наразі для напівавтономної зброї, як-от боєприпасів, які відстежують ціль і детонують, потрібна «людина в курсі». Вони можуть рекомендувати дії, але вимагають від своїх операторів ініціювати їх.

Навпаки, повністю автономні безпілотники, подібно до так званих « мисливців за дронами », які зараз застосовуються в Україні , можуть відстежувати та виводити з ладу безпілотні літальні апарати, що наближаються, вдень і вночі, без втручання оператора та швидше, ніж системи зброї, керовані людиною.

Виклик тайм-ауту

Такі критики, як The Campaign to Stop Killer Robots, вже більше десяти років виступають за заборону досліджень і розробки автономних систем зброї. Вони вказують на майбутнє, де автономні системи зброї розроблені спеціально для людей, а не лише для транспортних засобів, інфраструктури та іншої зброї.

Вони стверджують, що воєнні рішення щодо життя та смерті мають залишатися в руках людей. Передача їх алгоритму становить найвищу форму цифрової дегуманізації .

Читайте також:  Ілон Маск намагається через суд змусити OpenAI оприлюднити свою технологію

Спільно з Human Rights Watch кампанія «Зупинити роботів-вбивць» стверджує, що автономним системам зброї не вистачає людського розуму, необхідного для розрізнення цивільних осіб від законних військових цілей. Вони також знижують поріг війни, зменшуючи передбачувані ризики, і підривають значущий людський контроль над тим, що відбувається на полі бою.

Організації стверджують, що збройні сили США, росії, Китаю, Південної Кореї та Європейського Союзу, які інвестують найбільше в автономні системи озброєнь, запускають світ у дорогу та дестабілізуючу нову гонку озброєнь. Одним з наслідків може стати нова небезпечна технологія, яка потрапить до рук терористів та інших осіб, які не контролюються урядом .

Оновлена ​​директива Міністерства оборони намагається вирішити деякі ключові проблеми. У ньому проголошено, що США використовуватимуть автономні системи зброї з « відповідними рівнями людського судження щодо застосування сили ».

Human Rights Watch оприлюднила заяву, в якій говориться, що нова директива не пояснює, що означає фраза «належний рівень», і не встановлює вказівки щодо того, хто має його визначати.

Але, як стверджує Грегорі Аллен, експерт з національної оборони та міжнародних відносин, аналітичний центр Center for Strategic and International Studies , ця мова встановлює нижчий поріг, ніж «значущий людський контроль», якого вимагають критики.

Формулювання Міністерства оборони, зазначає він, допускає можливість того, що в певних випадках, наприклад, з літаками спостереження, рівень людського контролю, який вважається належним, «може бути невеликим або нульовим».

Оновлена ​​директива також містить формулювання, що обіцяє етичне використання автономних систем зброї, зокрема шляхом створення системи нагляду за розробкою та використанням технології, а також наполягаючи на тому, що зброя буде використовуватися відповідно до існуючих міжнародних законів війни.

Читайте також:  Українські МіГ-29 вперше оснастили американськими протиракетами для дезорієнтації російських радарів

Але Мойес із статті 36 зазначив, що міжнародне право наразі не забезпечує належної основи для розуміння, а тим більше для регулювання концепції автономії зброї.

Чинна законодавча база, наприклад, не чітко визначає, що командири несуть відповідальність за розуміння того, що запускає системи, які вони використовують, або що вони повинні обмежувати територію та час, протягом якого ці системи працюватимуть.

«Небезпека полягає в тому, що немає чіткої межі між тим, де ми зараз, і тим, де ми прийняли неприйнятне», — сказав Мойєс.

Неможливий баланс?

Оновлення Пентагону демонструє одночасну прихильність розгортанню автономних систем зброї та дотриманню норм міжнародного гуманітарного права. Яким чином США балансуватимуть ці зобов’язання, і чи такий баланс взагалі можливий, ще належить побачити.

Міжнародний Комітет Червоного Хреста, охоронець міжнародного гуманітарного права, наполягає на тому, що юридичні зобов’язання командирів і операторів «не можуть бути передані машині, алгоритму чи системі зброї ». Зараз люди відповідають за захист цивільного населення та обмеження шкоди від бойових дій, переконавшись, що застосування сили пропорційне військовим цілям.

Якщо і коли зброя зі штучним інтелектом буде розгорнута на полі бою, хто повинен нести відповідальність за непотрібні смерті цивільного населення? На це дуже важливе питання немає однозначної відповіді.