RU
 

Третя революція. Дрон вперше сам убив людинуСюжет

Текст: ,  7 червня 2021, 13:02
0
4715
Третя революція. Дрон вперше сам убив людину
Фото: скриншот
Турецький дрон-камікадзе Kargu-2

Будь-яка автономна зброя має шанс вийти з ладу, і ці помилки можуть мати широкий спектр наслідків, кажуть експерти.

Бойовий безпілотник, перебуваючи в повному автономному режимі роботи, атакував людей. Перший зафіксований випадок в історії, коли дрон без наказу людини скоїв убивство, стався в Лівії у березні минулого року, але про це стало відомо тільки зараз з доповіді ООН.

Такі збройові системи вважаються однією з найбільш небезпечних військових технологій, що розробляються зараз. Проти автономних бойових машин виступали астрофізик Стівен Хокінг, глава Tesla Ілон Маск і тисячі інших вчених і інженерів. Корреспондент.net розповідає подробиці.

 

Стріляти, забувати і знову знаходити

Конфлікт у Нагірному Карабасі показав, що безпілотні літальні апарати стануть одним з основних видів озброєння в справжніх і майбутніх військових конфліктах. Головною дійовою особою в такому розвитку світової ситуації є Туреччина на чолі з автократичним президентом Тайіпом Ердоганом.

Країна розробила свої власні дрони і успішно використовувала їх у своїх військових операціях проти курдських збройних угруповань на півночі Іраку і Сирії, сил бунтівного фельдмаршала Халіфи Хафтара в Лівії і сирійського режиму, а також для підтримки своїх союзників, як це було з Азербайджаном в Карабасі.

Минулого тижня журнал New Scientist з посиланням на дослідження ООН повідомив, що військовий квадрокоптер Kargu-2, перебуваючи в автономному режимі роботи, вбив людину під час збройного конфлікту в Лівії в березні 2020 року.

Загиблий був учасником Лівійської національної армії під проводом Халіфа Хафтара, яка воює проти регулярної армії уряду Лівії в Тріполі.

У звіті ООН говориться, що підрозділи Хафтара "не були навчені і не мотивовані для захисту від ефективного використання цієї нової технології і зазвичай відступали в безладі".

Під час погано організованого відходу формування Хафтара "зазнавали постійного переслідування з боку бойових безпілотних літальних апаратів різних типів".

У звіті також говориться, що подібна смертоносна автономна зброя призвела до "значних втрат" при використанні БЛА проти зенітного ракетного комплексу Панцир С-1, виробленого в РФ і наявного в розпорядженні у формувань Хафтара.

Kargu-2 був створений турецькою військово-технічною компанією STM і працював у "високоефективному автономному режимі", тобто був запрограмований для атаки цілей без необхідності команд від оператора. Дрон володіє "складною системою розпізнавання об'єктів і осіб".

Ці машини оснащуються осколково-фугасною бойовою частиною і можуть бути наведені на ціль для самопідриву. Вага дрона-камікадзе становить 15 кілограмів з можливістю перебувати в повітрі до 30 хвилин.

Також відмінною рисою Kargu-2 є здатність групуватися з іншими такими ж дронами (до 20 штук) і здійснювати більш масштабні атаки, йдеться в доповіді.

Рішення про атаку Kargu-2 приймають на основі машинного навчання. Безпілотники працюють на програмних алгоритмах, які дозволяють штучному інтелекту розпізнавати різні об'єкти, чи це шкільний автобус, трактор або танк.

"Але набори даних, на яких вони навчаються, можуть бути недостатньо складними або надійними, в результаті чого штучний інтелект може "засвоїти" неправильний урок", - зазначає New Scientist.

Однак, як пише Daily Mail, в Лівії була продемонстрована функція "стріляти, забувати і знову знаходити можливості для ураження чергових цілей".

Зазначимо, що багато функцій у сучасних бойових безпілотників автоматизовані - від зльоту до посадки. Оптикоелектронні системи спостереження і відповідне програмне забезпечення дозволяють делегувати машині багато функцій, спрощуючи роботу операторів.

Виявлення та ідентифікація об'єктів, що відповідають заданим критеріям, супровід їх, наведення зброї та інші подібні завдання можуть виконуватися автоматикою. Функції оператора найчастіше зводяться лише до верифікації отриманої інформації і видачі команди на застосування сили до виявлених цілей.

 

Одного разу люди насправді можуть втратити контроль

Прихильники застосування летальних автономних дронів типу Kargu-2 стверджують, що їхнє використання обмежує жертви серед цивільного населення, але критики вважають, що технологія на даному етапі ще занадто неточна.

"Сучасні системи, засновані на машинному навчанні, не можуть ефективно відрізнити фермера від солдата", - написав фахівець з національної безпеки Закарі Калленборн в колонці для видання Bulletin of the Atomic Scientists (Бюлетень вчених-атомників).

Фермери можуть тримати гвинтівку, щоб захистити свою землю, а солдати можуть використовувати граблі, щоб перекинути гарматну вежу, звертає увагу Калленборн. Він також додав, що без управління людиною ризик використання такої технології дуже високий.

Будь-яка автономна зброя має шанс вийти з ладу, але ці помилки можуть мати широкий спектр наслідків, кажуть аналітики зі зброї.

Ще в 2015 році тисячі вчених, інженерів і бізнесменів з усього світу, в тому числі фізик і популяризатор науки Стівен Хокінг, глава Tesla Ілон, творець компанії в сфері штучного інтелекту DeepMind (належить Google) Маск Мустафа підписали відкритий лист із закликом ввести заборону на використання зброї зі ШІ.

"Небезпека велика, оскільки подібні автономні види озброєнь є третьою революцією у військовій сфері після винаходу пороху і ядерної зброї", - говорилося в листі.

При цьому ті, хто підписали заклик, не говорять про повну заборону розробки технологій штучного інтелекту для оборонної промисловості, але, на їхню думку, ці технології не повинні бути автономними і наділятися функцією самостійного прийняття рішень.

Так, Маск вважає штучний інтелект найбільшою загрозою, з якою зіштовхується людська цивілізація, а Хокінг закликав шукати нові планети для заселення, інакше людство загине. Про це детально в матеріалі Чим лякає ШІ.

Коментуючи перше автономне вбивство дроном, генерал Вальдемар Скшипчак, який був командувачем сухопутними військами Польщі і написав книги про війну майбутнього, каже, що якщо міжнародні організації зараз не обмежать розвиток таких озброєнь, то незабаром військових по обидва боки фронту вбиватимуть роботи.

"Нам потрібно вже зараз до цього підготуватися, подумати про обмеження у використанні таких озброєнь, оскільки якщо ШІ, що все активніше розвивається, буде використовуватися для вбивства, одного разу люди насправді можуть втратити над ними контроль. Можливо, ми самі створимо щось, що в майбутньому нас вб'є", - зазначив він в інтерв'ю Onet.


Новини від Корреспондент.net в Telegram. Підписуйтесь на наш канал https://t.me/korrespondentnet

СПЕЦТЕМА: Сюжети
ТЕГИ: армия и вооружениероботбеспилотникискусственный интеллект
Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.
Читати коментарі