Розвиток багатоликого ШІ: де небезпека під час "ідеального шторму"

Корреспондент.net,  27 листопада 2023, 17:33
💬 2
👁 1959

Начебто, ШІ дозволить людям працювати всього три дні на тиждень та жити до ста років. Але ChatGPT вже навчився самостійно обходити обмеження, попереджають вчені. Як впливатиме ШІ на світ та чи можливий контроль?

Чи виправданий оптимізм Гейтса?

Завдяки розвитку штучного інтелекту (ШІ) людство прийде до триденного робочого тижня - вважає мільярдер Білл Гейтс, один із засновників Microsoft. Щоправда, деяких працівників при цьому доведеться переучувати. Й цим мають вже займатися уряди та приватні компанії.

Якщо ж зрештою з'явиться суспільство, у якому людям доведеться працювати лише по три дні на тиждень, це є цілком нормальним, - підкреслив Гейтс в інтерв'ю для подкасту What Now? За його словами, колись настане час, коли людям "не доведеться так багато працювати", оскільки машини будуть виробляти "всю їжу та інше".

Загалом Гейтс вважає, що вплив ШІ на людство не виявиться таким драматичним, як промислова революція. Однак точно має бути таким самим визначним та революційним, як поява свого часу персональних комп’ютерів.

Втім, він цілком усвідомлює й ризики ШІ, включаючи "дезінформацію та дипфейки, загрози безпеці, зміни на ринку праці та вплив на освіту", як зазначив раніше в особистому блозі.

"Але у чому точно можна бути впевненим, то це в тому, що майбутнє штучного інтелекту не таке похмуре, як думають деякі, і не таке райдужне, як думають інші. Ризики реальні, але я оптимістичний, що ними можна керувати", - зауважив мільярдер.

Однак ідея щодо скорочення часу праці Гейтсу не належить. Про можливість переходу на триденний робочий тиждень із розвитком ШІ каже й голова JPMorgan Джеймі Даймон.

Втім, не всі сповнені щодо ШІ такого ж оптимізму. Як повідомило видання The Guardian, група старших експертів напередодні першого саміту з безпеки ШІ у листопаді попередила: потужні системи штучного інтелекту загрожують соціальній стабільності. Компанії, що займаються штучним інтелектом, мають нести відповідальність за шкоду, заподіяну їхніми продуктами.

До речі, на безпековий саміт щодо ШІ збиралися запросити, зокрема, Джеффрі Гінтона і Йошуа Бенгіо, двох із трьох "хрещених батьків штучного інтелекту". При цьому відомо, що Гінтон звільнився з Google через "екзистенціальний ризик", котрий створює цифровий інтелект. А професор інформатики Монреальського університету Бенджіо приєднався до нього та тисяч інших експертів, підписавши лист і закликаючи до мораторію на гігантські експерименти з розвитку ШІ.

Вони попереджають: недбало розроблені системи штучного інтелекту загрожують "посилити соціальну несправедливість, підірвати наші професії, підірвати соціальну стабільність, сприяти широкомасштабній злочинній чи терористичній діяльності та послабити наше спільне розуміння реальності, яка є основою суспільства".

Перехід ШІ "на бік зла"

Учасники першого в історії AI Safety Summit з безпеки у Великобританії виокремили два основні ризики ШІ: потенційне навмисне неправильне використання (наприклад, коли системи ШІ застосовують для шахрайських дій); ненавмисні проблеми контролю (наприклад, проблеми в роботі системи ШІ, яка модерує коментарі на веб-сайті). Особливу увагу цим ризикам приділяють у сфері кібербезпеки та боротьби з дезінформацією.

Як пояснила системний аналітик Наталя Глоба, для оцінки ризиків ШІ та його можливого впливу на війну в Україні і гіпотетичну Третю світову - треба згадати поняття "ідеального шторму".

"Ми маємо оцінювати увесь контекст подій навколо нас. Уявімо собі, що Україна – такий собі кораблик, рухається сам по собі. Й ось він потрапляє у сильний шторм, на кораблик нападають пірати. А ті, на кого ми сподівалися - десь недалеко авіаносець Америка, далеко авіаносець Китай та очільник піратської флотилії Росія - теж потрапляють у шторм, коли треба піклуватися про власну безпеку. У нас стареньке судно, діряве обладнання, але виявилась відчайдушна команда. Але яка наша основна проблема? Це ідеальний шторм. Завдання, що стоїть перед нами - відбитися від піратів та вистояти в ідеальному шторі. Для цього треба розуміти, що це за шторм, а не будувати стратегію не лише на боротьбу з піратами", - зауважила вона в інтерв’ю для UKRLIFEз Людмилою Немирею

За словами аналітика, перший із супетрендів нині - це перехід до цифрової епохи. Другий - зміна кліматичних та біологічних умов існування людства. Третій - епідемія ревізіонізму. Однак зупинимось на першому пункті.

У меншій мірі від інформаційного цунамі страждають автократичні режими та диктатури, продовжила вона. Й у дуже великій - демократичні, бо останнім часом тут погано працює "захист від дурня" - тобто політика, заснована на доказах, а не на чийомусь уявленні (Трамп - тому яскравий приклад). І ось тут, зокрема, включається небезпека ШІ.

"У "всій красі" постала історія з ізраїльською війною, оце руйнування права: кожен вірить у те, у що йому хочеться вірити. Вивалюється купа різних фактів, але вони переважно ігноруються сторонами. Зараз це просто тотальне явище. Хто підтримує Палестину у США? Професори-ліваки, люди, що у змозі відрізнити факт від уявлення. Та для них більше важить власна уява. Політика, не заснована на доказах, дуже небезпечна", - заважила науковець.

На цьому тлі більш загрозливо виглядає створення за допомогою ШІ дипфейків високої якості (поки таких немає) - котрі будуть дуже подібні до реальності й використовуватимуться нечистими на руку людьми.

"У цьому році ми вже маємо генеративно-лінгвістичні моделі ШІ. Й до ворожки не ходи, що у наступному виборчому році вони дозволять людям змінити реальність до невпізнаваності: ці моделі можуть створювати відеоряд, що зараз ще легко відрізняється від оригіналу. Але велике питання: це ще навмисно, чи ці моделі вже можуть створити відеоряд з людиною, що практично не відрізняється від реальності", - попередила вона.

Які заходи вживатимуть

Для подолання негативних наслідків розвитку ШІ участники AI Safety Summit пропонують світові здійснювати низку заходів. Це, зокрема, співпраця для подолання ризиків ШІ та сприяння тому, аби його проєктували, розробляли, запускали та використовували у безпечний спосіб (коли ШІ  орієнтований на людину, надійний і відповідальний). Це стосується і державних послуг, таких як охорона здоров’я та освіта, продовольча безпека, наука, енергетика, біорізноманіття та клімат.

Розробники систем ШІ, які є надзвичайно потужними та потенційно шкідливими, мають забезпечити прозорість та підзвітність їхніх планів моніторингу, дозволити вимірювання та пом’якшення шкідливих наслідків.

Рекомендуються й певні політичні рішення: підвищення прозорості гравців ринку систем ШІ, встановлення показників оцінки, формування інструментів для перевірки безпеки, сприяння розвитку можливостей державного сектору та наукових досліджень у цій сфері.

Аби реалізувати завдання, визначені у Декларації саміту, держави-члени будуть співпрацювати для сприяння науковим дослідженням безпеки ШІ - проводити міжнародні форуми, присвячені питанням безпеки. Таке співробітництво не лише поліпшить контроль, а й має бути спрямоване на формування політики зміцнення розвитку ШІ на допомогу країнам, що розвиваються.

Держави при цьому можуть класифікувати ризики ШІ на основі національних обставин і застосовної правової бази. Однак учасники саміту відзначили необхідність спільних принципів та кодексів поведінки.

"Ми маємо слідувати світовим трендам розвитку інновацій. Коли йдеться про кібербезпеку, ШІ може як значно підвищувати захищеність систем, так і спрощувати процес проведення кібератак і робити їх більш успішними. Важливо знайти баланс між регулюванням цієї технології, при цьому не зупиняючи її розвиток", - зазначив заступникглави Мінцифри Георгій Дубинський.

Ірина Носальська

ТЕГИ: IT-технологии машины вакансии разработки искусственный интеллект