Повстання машин: чи несе розвиток ШІ реальну небезпеку людству

Корреспондент.net,  18 квітня 2023, 18:00
💬 0
👁 3318

З 18 лютого 2023 року користувачам в Україні став доступний чат-бот із штучним інтелектом ChatGPT від компанії OpenAI. Він є статистичною моделлю мови, оптимізованою для ведення діалогів.

ШІ крокує по планеті

ChatGPTстворювався на суперкомп'ютері, його навчали за допомогою масивів тексту з інтернету та системи навчання із підкріпленням на основі зворотного зв'язку з людиною. Ще минулого року аналітики Bloomberg зазначали: новий чат-бот відрізняється від інших нейромереж тим, що може виконувати завдання з різних галузей - від написання базового програмного коду та фінансового аналізу до прогнозів та персональних порад. Крім того, ChatGPT запам'ятовує деталі діалогу з користувачем та уникає спірних тем.

Творці цього "дива", розробники компанії OpenAI (одним із засновників якої був Ілон Маск) позиціонують ChatGPT як просту у використанні і людяну систему штучного інтелекту (ШІ). Незважаючи на те, що результати його роботи і досі часто недосконалі, з моменту релізу ChatGPT у грудні 2022 року кількість користувачів перевищила 100 млн.

Google теж планує додати до пошуку свій аналог ChatGPT. На думку компанії, це дієвий спосіб розширити пошуковий бізнес.

Тим часом, у Китаї показали аналог СhatGPT- компанія Alibaba представила свою мовну модель під назвою Tongyi Qianwen. За повідомленням Reuters, спочатку мовна панель буде інтегрована в DingTalk - програму Alibaba для обміну повідомленнями - і її можна було використовувати для підбиття підсумків зборів, написання електронних листів та складання бізнес-пропозицій.Нову розробку планується інтегрувати в усі бізнес-додатки компанії, вона також буде додана до Tmall Genie, голосового помічника Alibaba, і на майданчик AliExpress.

"Ми знаходимося на технологічному вододілі, зумовленому генеративним штучним інтелектом та хмарними обчисленнями, і підприємства у всіх секторах почали використовувати інтелектуальну трансформацію, щоб бути на крок попереду", - заявив гендиректор компанії Даніель Чжан.

Після презентації акції Alibaba зросли на 3% на торгах. Alibaba Cloud також планує відкрити Tongyi Qianwen для своїх клієнтів, аби вони могли створювати свої власні моделі, що настроюються.

Статус "усе складно"

То чому ж ми не потрапили до кола користувачів ChatGPTна старті? За словами віце-прем'єра України з питань цифрової трансформації Михайла Федорова, компанія OpenAI у січні обмежила доступ до своїх продуктів для українців, аби не порушувати санкції проти РФ через окупацію Криму та Донбасу. На той момент не було механізму, як працювати в Україні, не включаючи непідконтрольні території, але згодом проблему вирішили.

"Програма не працюватиме лише на тимчасово окупованих Росією територіях, щоб вороги не використовували її для антиукраїнської пропаганди. Адже ChatGPT добре володіє українською, на відміну від росіян", - зазначив він.

Водночас, 31 березня стало відомо: Італія першою у світі заборонила доступ до ChatGPT після витоку, якого припустився ШІ. У результаті збою користувачі могли бачити чужі повідомлення у нейромережі, прізвища, е-mail та платіжну інформацію платних підписників сервісу. Італійський регулятор (Національне управління з захисту персональних даних - ред.) заявив: OpenAI не має правової основи, котра виправдовує масовий збір і зберігання персональних даних. Крім того, регулятора стурбувала відсутність фільтру для перевірки віку користувачів, що небезпечно для неповнолітніх.

До речі, студенти та вчителі Нью-Йорка з січня теж не можуть отримати доступ до ChatGPT на пристроях чи в мережах закладів освіти. Як повідомляє Chalkbeat, управління освіти заблокувало доступ, посилаючись на "негативний вплив на навчання студентів і занепокоєння щодо безпеки та точності контенту".

Але ШІ може створити людству і серйозніші проблеми. Зокрема, на думку деяких експертів, він здатен залишити без роботи близько 300 мільйонів осіб у розвинених країнах.

Загалом, після того, як стартап OpenAI випустив нову потужнішу модель на основі ШІ GPT-4, більше тисячі експертів (серед яких той самий Маск та екс-співзасновник Apple Стів Возняк) підписали відкритий лист із закликом призупинити розробку систем на основі ШІ, аби мати час переконатися у їхній безпеці. 

"Системи на основі штучного інтелекту з людським конкурентним інтелектом можуть представляти серйозні ризики для суспільства і людства. Потужні системи на основі штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики керованими", - йшлося у тому листі, за повідомленням France24.

Але чи не було це "рекламною качкою" перед реєстрацією нового продукту, до якого сам Маск доклав руку? Екс-співробітник Першого головного управління КДБ Сергій Жирнов, котрий вже понад 20 років мешкає у Франції, вважає: розвиток ШІ несе реальну небезпеку людству.

"Не можна "слухати" (прослуховувати - ред.) 2-3 мільярди осіб у світі за допомоги якихось людей. Аби "слухати" мільярд, потрібен ще мільярд, які б підслуховували, та ще два мільярди, котрі будуть роздруковувати, розшифровувати. Це фізично неможливо, - пояснив він на YouTube-каналі В гостях у Гордона. - Та супротив хай-теку є лоу-тек ("власне виробництво" - ред.), або, ще краще, ноу-тек. Саме тому США, найбільша військова держава світу, програли війну в Афганістані - бо там пастухи, в яких немає нічого, окрім берданки та собаки. Тобі щось в аулі сказали на вушко, та як це прослухати? Що ви будете слухати - стукіт копит коня?".

Проте, на думку Жирнова, головна небезпека ШІ у тому, що це "машина під керуванням машин".

"Це дуже класна штука, коли вона позитивно використовується. Однак багато машин у світі зараз керуються комп’ютерами. І ось якщо, не дай Боже, ШІ, у котрого своє якесь логічне машинне бачення, матиме доступ до керування комп’ютерами - ось це реально страшна річ.  ШІ тоді може заблокувати доступ людини до цих мереж.  І запускатиме якісь незворотні реакції, умовно - коли всі ракети всіх ядерних держав стартують з обох сторін, ШІ їх запускає і влаштовує загальну світову ядерну війну зі знищенням усього людства. У нього може бути доступ до всіх механічних джерел - камер, комп’ютерів тощо - тож при спробі його вимкнути він вас не допустить до цього", - попередив він.

Навіть якщо закласти у ШІ три принципи робототехніки Айзека Азімова (робот не може заподіяти шкоду людині, або своєю бездіяльністю дозволити, щоб людині було заподіяно шкоду; робот повинен підкорятися наказам людини, за винятком тих, які суперечать першому закону; робот повинен захищати самого себе, якщо тільки його дії не суперечать першому і другому законам - ред.), він все одно не зможе зробити вірний вибір щодо людства, зауважив Жирнов.

"Машина логічна, і вона рано чи пізно упреться у головну проблему, що людина нелогічна. Машина (котра розуміє, що людина з її інстинктами погана), якщо у неї закласти ще якісь етичні чи релігійні вимоги - взагалі може вирішити, що людство є найбільш небезпечним вірусом на планеті.  Це жива популяція, котра нелогічна, агресивна, все нищить навкруги.  І логічна машина, якщо поміркує, скаже: "Вас потрібно знищити", - припустив експерт.

Ірина Носальська

ТЕГИ: робот работа IT-технологии человечество профессия фантастика искусственный интеллект