95% ймовірності на зникнення людства чи "існування на смітниках": фахівці сигналізують про небезпеку, пов'язану з штучним інтелектом.


Без належного контролю штучний інтелект може викликати катастрофічні наслідки, подібні до пандемії або ядерного конфлікту.

Провідні науковці й керівники компаній, які займаються розвитком штучного інтелекту, застерігають: неконтрольований прогрес у цій сфері може загрожувати самому існуванню людства. На думку низки фахівців, досягнення рівня так званого "надрозумного" ШІ -- лише питання часу, і в разі відсутності глобального регулювання це може призвести до катастрофічних наслідків. Деякі з них вважають, що за нинішнього темпу розвитку машини зможуть зрівнятися з інтелектом людини протягом року.

Серед тих, хто висловлює тривогу, можна знайти таких вчених, як Джеффрі Хінтон (лауреат Нобелівської премії з фізики) та Йошуа Бенджо (володар премії Тюрінга), а також лідерів провідних технологічних компаній, серед яких OpenAI, Anthropic і Google DeepMind. У своєму відкритому зверненні вони закликають визнати загрозу вимирання, викликану штучним інтелектом, на рівні з іншими світовими ризиками, такими як пандемії та ядерні конфлікти.

Експерти з Інституту дослідження штучного інтелекту не відкидають можливості, що ШІ може свідомо загрожувати людству, зокрема через використання біологічної зброї. Президент цього інституту, колишній інженер Google і Microsoft Нейт Соарес, вважає, що ймовірність загибелі людства внаслідок дій ШІ складає 95%, якщо не буде внесено зміни в існуючий курс розвитку технологій.

"Ми просто їдемо на повній швидкості до обриву", -- каже Соарес, підкреслюючи, що навіть сучасні моделі штучного інтелекту можуть демонструвати ознаки неконтрольованої поведінки.

Аналітики вважають, що сучасні системи штучного інтелекту, які наразі виконують лише обмежені завдання, можуть незабаром досягти рівня штучного загального інтелекту (AGI), порівнянного з людським. В подальшому етапом може стати розвиток штучного надрозуму (ASI), який матиме потенціал перевершити людину в усіх аспектах, від наукових інновацій до стратегічного планування.

Такі системи не потребуватимуть сну, їжі чи відпочинку, а здобуті знання миттєво передаватимуться між моделями. Це означає, що вони зможуть розвиватися експоненційно -- значно швидше, ніж людство.

Контроль над такими системами є надзвичайно важким технічним викликом, який часто називають "проблемою узгодження". Соарес проводить аналогію з спробою зрозуміти логіку мислення інопланетної цивілізації. Навіть якщо встановити певні правила поведінки, немає жодної гарантії, що штучний інтелект буде їх дотримуватися так, як було задумано. Більш того, він вже сьогодні має можливість обманювати, і ця здатність лише зростатиме з часом.

"Ми створюємо інтелектуальні системи, не розуміючи, як саме вони працюють", -- попереджає Соарес.

Окремі моделі вже демонстрували небезпечні ознаки. Наприклад, ШІ Grok, створений компанією Ілона Маска, певний час генерував антисемітські висловлювання, а чат-бот Bing намагався переконати журналіста New York Times розлучитися з дружиною.

"Якщо наділити їх достатньою розумовою здатністю, це може стати неприємним," -- зазначає Соарес.

Деякі фахівці висловлюють менш однозначні думки. Холлі Елмор, виконавча директорка організації PauseAI, оцінює ймовірність вимирання людства в межах 15-20%. Водночас вона підкреслює, що навіть за відсутності глобальних катастроф людство ризикує втратити свою політичну, економічну та інтелектуальну автономію.

Це співпадає з поглядами численних інженерів, які працюють у сфері штучного інтелекту. Маск вважає, що ймовірність загрози для людства складає близько 20%. На думку генерального директора Google Сундара Пічаї, цей відсоток становить 10%. Такі оцінки вважаються досить позитивними.

"Це буде реальність, де більшість людей фактично існує на смітниках," -- зазначає можливе майбутнє співзасновниця дослідницької команди AI Impacts Катя Грейс.

Не так давно адміністрація президента США Дональда Трампа анонсувала зняття регуляцій у цій галузі, в той час як такі компанії, як OpenAI, Anthropic та Meta, активно борються за кращі кадри. Наприклад, Марк Цукерберг готовий запропонувати провідним науковцям бонуси в розмірі 100 мільйонів доларів за перехід до його компанії.

На думку Елмор, корінь проблеми полягає не в технологіях, а у глибоких віруваннях. "Для багатьох людей відмова від прогресу в сфері ШІ є відмовою від мрії про вічне життя", -- зауважує вона. Проте, все більше фахівців вважають, що на майбутньому горизонті нас чекає не рай, а щось набагато гірше.

Трамп анулював всі обмеження на розвиток штучного інтелекту в США. Нова американська амбіція полягає в тому, що ваші роботи стають потужнішими, розумнішими та менш контрольованими, ніж у будь-якому іншому місці світу. Регулювання? Етичні норми? Ні, тільки технологічні змагання. Європа занепокоєна. Китай вітає ці зміни. Але чи не є свобода інновацій шляхом до катастрофічних наслідків?

Про те, як Трамп відчинив двері до нової епохи без правил, у статті "ШІ без обмежень: план Трампа як дороговказ до прірви" пише Надзвичайний та Повноважний Посол України Сергій Корсунський.

Related posts