Anthropic закрила доступ до Mythos через загрози кібербезпеки. Це свідчить про новий етап еволюції штучного інтелекту - Bloomberg.


Anthropic презентувала свою нову модель Mythos, але відмовилася надавати до неї широкий доступ через потенційні ризики, пов'язані з її кібербезпековими функціями. Як зазначає Bloomberg, це може сигналізувати про початок нової ери в еволюції штучного інтелекту, де важливими питаннями стають не лише потужність моделей, а й обмеження їхнього публічного використання. Видання акцентує увагу на зростаючій тривозі американських компаній щодо можливості копіювання їхніх технологій китайськими розробниками. У цьому контексті обговорення питань безпеки, конкуренції та контролю над найпотужнішими ШІ-моделями стає ще більш актуальним.

Упродовж останніх трьох років, провідні розробники ШІ змагалися між собою, представляючи дедалі кращі моделі штучного інтелекту, а нові релізи виходили все частіше, пише Bloomberg. Тепер, на думку видання, світ, можливо, входить в еру, коли прогрес у сфері ШІ визначатиметься, зокрема, і тим, що саме розробники вирішують не випускати публічно.

У вівторок компанія Anthropic анонсувала Mythos — нову, більш потужну універсальну модель, яка, за їхніми словами, значно перевищує попередні версії за рядом критеріїв, включаючи програмування та аналітичне мислення. Однак через побоювання щодо її розширених можливостей у сфері кібербезпеки, компанія вирішила обмежити доступ до моделі лише для невеликої кількості перевірених партнерів.

Під час проведення тестування Anthropic, її команда безпеки виявила, що Mythos має можливість виявляти та експлуатувати вразливості в усіх основних операційних системах і популярних веб-браузерах, якщо її таким чином налаштувати. У блозі компанії зазначається, що Anthropic сподівається, що обмежений випуск дозволить організаціям використовувати Mythos для ідентифікації власних вразливостей у сфері кібербезпеки ще до того, як цим скористаються зловмисники.

В той же час OpenAI завершує розробку нового продукту з розширеними функціями в сфері кібербезпеки, який планує запропонувати обраним партнерам, як повідомив Axios у четвер. Раніше компанія, яка створила ChatGPT, вже запустила пілотний проєкт, метою якого є "спочатку надати ці інструменти тим, хто захищає".

Багато інсайдерів індустрії ШІ схвально оцінили дії Anthropic, яка давно позиціонує себе як організацію, зосереджену на безпеці, і, вочевидь, відповідально підійшла до виведення цієї технології на ринок. Водночас деяких насторожила модель, яка, за словами одного зі співробітників Anthropic, "повинна лякати".

Оскільки Mythos недоступна публічно, зауважує Bloomberg, перші відгуки про її можливості здебільшого надходять від самої компанії та кількох партнерів із раннім доступом. У картці системи для нової моделі Anthropic зазначила, що перші користувачі побачили: Mythos краще самокоригується і загалом "працює більше як старший інженер", помічаючи й усуваючи проблеми, які інші моделі пропускали.

В цілому, Anthropic підкреслює, що Mythos "досі не готовий стати заміною для науковців-дослідників та інженерів-дослідників - особливо тих, хто має великий досвід".

Крім питань безпеки, у компанії Anthropic можуть бути й інші мотиви для зміни стратегії випуску своїх моделей, зокрема потреба в ефективному управлінні обчислювальними ресурсами. Mythos представляє собою складну та витратну систему, яка виникає в той момент, коли Anthropic уже має труднощі з задоволенням швидко зростаючого попиту на свої існуючі продукти.

"Ми вже повністю ввійшли в еру, коли найкращі моделі лабораторій цілком можуть не бути публічними в тому вигляді, до якого ми звикли", - написав у X Дін Болл, колишній радник з питань ШІ в адміністрації Трампа. "Це буде наслідком поєднання обмежень обчислювальних ресурсів, економічної реальності, конкурентної переваги та міркувань безпеки", - додав він.

Вибір не розширювати випуск Mythos також може стати відповіддю на ще одну важливу проблему, яка хвилює Anthropic та інших гравців на ринку: як обмежити вплив китайських компаній у галузі штучного інтелекту.

Як вже повідомлялося Bloomberg, компанії Anthropic, OpenAI та Google, які зазвичай є жорсткими суперниками, тепер співпрацюють, обмінюючись досвідом щодо запобігання китайським розробникам ШІ в копіюванні їхніх моделей через методику, відому як ворожа дистиляція.

У процесі дистиляції розробники намагаються витягти знання з однієї "моделі-вчителя" для вдосконалення навчання іншої "моделі-учня". Існують деякі загальновизнані методи дистиляції, наприклад, коли лабораторії штучного інтелекту створюють компактніші та ефективніші версії своїх моделей. Проте в Кремнієвій долині виникають занепокоєння, що китайські компанії застосовують цю стратегію для розробки конкуруючих систем штучного інтелекту, які мають подібні можливості, але за набагато нижчою вартістю.

Для американських технологічних компаній ризики надзвичайно високі. На сьогоднішній день вважається, що США випереджають Китай у сфері розробки штучного інтелекту. Проте Китай активно заповнює ринок доступними та потужними моделями, які можуть загрожувати фінансовим можливостям таких компаній, як OpenAI і Anthropic, у плані підвищення цін на свої продукти. Згідно з оцінками американських чиновників, несанкціоноване використання технологій обходиться компаніям США у мільярди доларів втрат щорічно.

Водночас дехто стверджує, зазначає Bloomberg, що ця практика створює ризики для безпеки, оскільки дистильовані моделі часто не мають запобіжників, покликаних не допустити використання інструментів ШІ зловмисниками. Після появи такої просунутої моделі, як Mythos, яка теоретично здатна завдати великої шкоди критично важливому програмному забезпеченню, це питання може звучати ще гостріше.

Дистиляція стає все більш актуальною темою для американських компаній, які з нетерпінням чекають на вихід нової моделі, давно анонсованої стартапом DeepSeek. Ця китайська компанія вразила ринки на початку минулого року, представивши потужного конкурента моделям OpenAI, розробка якого, за повідомленнями, обійшлася значно дешевше.

OpenAI звинуватила DeepSeek у витягуванні великих масивів даних через систематичне надсилання запитів до її інтерфейсу програмування застосунків і приховування джерела цих запитів. Якби таке зробила компанія, розташована у США, OpenAI могла б спробувати заблокувати їй доступ до сервісу та подати до суду. Коли ж користувачі перебувають у Китаї й діють через приховані канали, зробити це складніше.

Компанії Microsoft та OpenAI вже почали вивчати потенційні практики DeepSeek. У лютому цього року OpenAI також звернулася до Конгресу з меморандумом, в якому повідомила про виявлення тривалих і складних спроб дистиляції, що здійснюються акторами з Китаю та Росії.

"Наступну модель DeepSeek, в якій би формі вона не вийшла, слід розглядати в контексті її постійних зусиль паразитувати на можливостях, розроблених OpenAI та іншими американськими передовими лабораторіями", - написала OpenAI в меморандумі.

Деякі коментатори швидко вказали на очевидне лицемірство такої риторики. Ті самі ШІ-лабораторії, які звинувачують китайських розробників у фактичному копіюванні їхньої технології без дозволу, раніше самі були відповідачами у справах про використання без дозволу творів художників і письменників для навчання власних моделей.

Не зважаючи на те, чи мають американські компанії етичну перевагу, вони безумовно привертають увагу адміністрації Трампа, яка зосередилася на технологічній суперечці з Китаєм. Оскільки такі компанії, як Anthropic і OpenAI, продовжують розробляти все більш потужні моделі з новими наслідками для національної безпеки, обговорення теми дистиляції, ймовірно, стане ще більш актуальним як у Вашингтоні, так і за його межами.

Рей Курцвейл, футуролог і письменник, відомий завдяки своїй роботі "Сингулярність невдовзі", висловив думку:

У 1999 році, коли я спрогнозував, що AGI (штучний загальний інтелект, здатний виконувати будь-які інтелектуальні завдання, які під силу людині, і навіть перевершувати їх) з'явиться у 2029 році, основне питання полягало в тому, чи взагалі це відбудеться. Сьогодні ж дискусії зосереджені на тому, чи буде це корисно для людства.

В інтерв'ю на конференції HumanX у вівторок Курцвейл певною мірою відзначив справдження своїх ранніх прогнозів про те, що потужніша форма ШІ, відома як загальний штучний інтелект, буде досягнута вже цього десятиліття. Інші технологічні лідери тепер також бачать подібні часові рамки завдяки недавнім проривам у сфері ШІ. "Саме конкуренція стимулює експоненційне зростання", - зазначив він у розмові з Bloomberg.

Related posts