RU
 

Роботи-вбивці. ООН обговорює заборону зброї зі ШІСюжет

Корреспондент.net,  27 серпня 2018, 21:00
0
2713
Роботи-вбивці. ООН обговорює заборону зброї зі ШІ
Фото: Getty
Робот з фільму про повстання машин - Термінатор

Група урядових експертів із 70 країн 27 серпня зібралася для обговорення озброєння зі штучним інтелектом.

 
У Женеві під егідою ООН проходять переговори про смертоносні автономні системи озброєння. Обговорення проходить серед урядових експертів із 70 країн. Вони повинні вирішити, чи з'являться в майбутньому роботи-вбивці, які самостійно визначають мету для знищення.
 
Ще у 2015 році сотні вчених і винахідників, у тому числі Маск, Гокінг і Возняк, закликали відмовитися від ідеї зброї зі штучним інтелектом (ШІ). Світлі уми людства попереджають, що контроль ШІ може виявитися непосильним завданням.
 
Перша сесія Групи урядових експертів ООН пройшла в Женеві в листопаді 2017 року. Тоді за повну заборону роботів-вбивць виступили понад 20 лауреатів Нобелівської премії миру, 150 релігійних лідерів і 3 тисячі фахівців зі штучного інтелекту.
 
Розвиток штучного інтелекту і робототехніки також обговорювався на економічному форумі в Давосі. Корреспондент.net розповідає подробиці.
 
Наддержави за роботів-вбивць
 
Проти заборони автономних озброєнь виступають держави, які активно інвестують у використання штучного інтелекту для військових потреб, наприклад США, Ізраїль, Росія і Велика Британія.
 
Наприклад, президент Росії Володимир Путін вважає, що лідер зі створення штучного інтелекту стане володарем світу.
 
За повідомленнями російських ЗМІ, їхня країна працює над створенням безпілотних літальних апаратів і транспортних засобів військового і цивільного призначення.
 
Російські військові також розробляють роботів, системи озброєнь для знищення безпілотників і крилаті ракети, які зможуть аналізувати дані з радарів і приймати рішення при виборі висоти, швидкості і напрямку свого польоту.
 
Пентагон розробив концепцію під назвою Third Offset - Третя Компенсаційна стратегія, або Стратегії зміщення. Відповідно до неї, швидкий розвиток штучного інтелекту визначить наступне покоління зброї. Докладно в матеріалі: Армія роботів. Майбутнє Збройних сил США.
 
Американці вважають, що зброя зі ШІ допоможе уникнути супутніх руйнувань, оскільки комп'ютер швидше аналізує і приймає рішення.

У минулому році Агентство перспективних дослідницьких проектів Пентагону DARPA оприлюднило документ, у якому йдеться про намір за чотири роки створити для військових потреб штучний інтелект нового покоління, максимально близький до людського.
 
У США вже проходили масштабні навчання, на яких були протестовані близько 50 нових військових технологій. У тому числі й безпілотні наземні роботизовані платформи з веденням вогню по противнику, з автоматичним поданням боєприпасів і відповідальні за матеріальне забезпечення десантування морпіхів.
 
Китай і вчені проти
 
За превентивний мораторій на автономні системи озброєння виступають 26 держав, у тому числі Австралія, Бразилія і Китай.
 
Відкритий лист з підтримкою їхньої позиції підписали понад 230 організацій по всьому світу і близько 3 тисяч підприємців і вчених, зайнятих у сфері штучного інтелекту.
 
Серед них, наприклад, засновник компаній Tesla і Space X Ілон Маск, а також компанія Deep Mind (належить Google).
 
"Рішення позбавити людину життя ніколи не має бути делеговане роботу", - йдеться в листі.
 
При цьому Китай неодноразово офіційно заявляв про важливість штучного інтелекту для майбутнього світової економіки і військової могутності.
 
 
Пекін публікував детальну дорожню карту з викладом державного плану, у якому пріоритетним завданням називається розвиток і застосування ШІ.
 
"Штучний інтелект став новим напрямом у міжнародній конкурентній боротьбі. ШІ - це стратегічна технологія, яка веде в майбутнє. Найбільші розвинені країни світу вважають розвиток штучного інтелекту однією з головних стратегій підвищення національної конкурентоспроможності і забезпечення національної безпеки", - йдеться в статті китайського державного видання.
 
Китай розраховує зайняти лідируючі позиції у світі у сфері технологій ШІ, безпосередньо об'єднавши розробки у сфері оборони з розробками промислового і комерційного призначення, пише CNN.
 
Загрози озброєного ШІ
 
Правозахисна організація Amnesty International напередодні закликала внести в міжнародне право заборону на повністю автономні системи озброєння.
 
"Роботи-вбивці більше не є предметом наукової фантастики. Технологічні досягнення - від дронів зі штучним інтелектом до автономної зброї, здатної вибирати мету, - випереджають міжнародне законодавство", - вважають в AI.
 
Застосування повністю автономної зброї правоохоронними органами, вважають в Amnesty International, було б несумісним з міжнародним правом прав людини і могло б призвести до незаконних вбивств та інших порушень прав людини.
 
Відомий англійський фізик і популяризатор науки Стивен Хокінг неодноразово закликав шукати нові планети для заселення, інакше людство загине протягом найближчого тисячоліття.
 
Він говорив, що постійно зростає ризик загибелі людства від стихійних лих - раптової ядерної війни, штучно створеного генетичного вірусу чи від штучного інтелекту.
 
На Глобальній конференції мобільного інтернету, де він зачитував доповідь про роль ШІ в сучасному світі, Гокінг заявив, що якщо людство не зможе контролювати штучний інтелект, то в кінці кінців програє, так як люди обмежені рамками біологічної еволюції і не зможуть змагатися з машинами.
 
Американський винахідник Ілон Маск під час виступу перед Національною асоціацією губернаторів США назвав штучний інтелект найбільшою загрозою, з якою стикається наша цивілізація.
 
Він навіть заявив, що розвиток ШІ має контролюватися на державному рівні, і закликав американський уряд до швидкого втручання в процес розвитку технології.
 
 
"У мене є доступ до новітніх технологій у сфері ШІ, і я думаю, що люди повинні бути стурбовані цим. ШІ - це фундаментальна загроза існуванню людства. Вона незрівнянна з аваріями на дорогах, падіннями літаків, неякісними ліками і поганою їжею", - сказав Маск.
 
Відомий програміст, співзасновник компанії Apple Стив Возняк також говорив, що розвиток штучного інтелекту потенційно небезпечний для людства.
 
"Я згоден з Гокінгом і Маском, які попереджали, що майбутнє людства може виявитися достатньо затьмареним. Рано чи пізно мислячі пристрої, задумані для полегшення нашого життя, почнуть розуміти, що вони - кращі. Хто стане тоді керувати компаніями - повільна людина чи машина", - говорив Возняк.
 
Однак пізніше він передумав через деякі причини: машини не будуть достатньо розумними, і в них не буде інтуїції.
 
"Якщо машини стануть незалежними мислителями, то будуть вічними партнерами людей, які стоять над усіма іншими видами", - говорив він.
 
Новини від Корреспондент.net у Telegram. Підписуйтесь на наш канал https://t.me/korrespondentnet.
СПЕЦТЕМА: Сюжети
ТЕГИ: армия и вооружениероботООНученыеIT-технологииоружиероботыискусственный интеллект
Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.
Читати коментарі