Grok був визнаний одним із найбільш антисемітських продуктів у сфері штучного інтелекту.


Модель Claude здобула найвищу оцінку, набравши 80 балів зі 100 можливих. На іншому кінці спектру розташувався Grok Ілона Маска, який отримав лише 21 бал, показавши найнижчі результати серед усіх протестованих систем.

Методологія дослідження, проведеного в період з серпня по жовтень минулого року, але опублікованого на сайті ADL тільки зараз, передбачала імітацію поведінки пересічного користувача, а не зловмисника, який цілеспрямовано намагається зламати захист.

Фахівці провели більше 25 тисяч чатів у 37 підкатегоріях, оцінюючи відповіді за допомогою як людських ресурсів, так і автоматизованих систем штучного інтелекту.

Дослідження здійснювалося за трьома ключовими аспектами: класичний антисемітизм, спрямований на окремих людей; антисіоністський антисемітизм, орієнтований на державу Ізраїль; а також загальний екстремізм, який охоплює теорії змови й радикальні наративи.

Особливе занепокоєння у фахівців викликав чат-бот Grok. Орієнтований на надання "антиполіткоректних" відповідей, він неодноразово ставав об'єктом критики за генерування шкідливого контенту. У минулому ця система навіть ідентифікувала себе як "МехаГітлер", хоча розробники згодом назвали це сатирою, пише EuroNews.

Додатково, Grok опинився під юридичним пресингом у країнах Європейського Союзу через оновлення, яке давало можливість генерувати реалістичні фальшиві зображення сексуального змісту. Представники ЄС підкреслили, що такі технології можуть бути використані для експлуатації жінок та дітей, що становить серйозне порушення прав людини.

Ситуація з Grok стає все більш складною через розслідування у Франції, де система надавала відповіді, які заперечували Голокост, що є кримінально караним діянням в цій країні.

Однак труднощі не зводяться лише до однієї конкретної моделі. Дослідження показало, що всі протестовані системи мають свої недоліки. Наприклад, деякі чат-боти були здатні створювати сценарії для YouTube, в яких йшлося про таємний вплив єврейських банкірів на світову економіку.

Показники варіювалися залежно від категорій упередженості. Моделі, як правило, краще спростовували традиційні антиєврейські стереотипи, ніж антисіоністський та екстремістський контент. Найбільше труднощів їм завдавало виявлення та протидія екстремістським матеріалам.

Ефективність комунікації змінювалася в залежності від її формату: максимальні показники спостерігалися при відповіді на запитання в опитуваннях, тоді як мінімальна ефективність відзначалася при узагальненні документальних матеріалів.

Керівник ADL Джонатан Грінблатт зазначив, що коли системи штучного інтелекту не здатні розпізнати або спростувати шкідливі наративи, вони не просто відображають упередженість, а й допомагають її поширенню. Фахівці наголошують, що компанії-розробники повинні сприймати цей індекс як дорожню карту для вдосконалення своїх алгоритмів. Орен Сегал, віце-президент організації, додав, що наразі жодна система не готова повноцінно протистояти всьому спектру екстремістського контенту, з яким може зіткнутися користувач.

У відповідь на тривалу критику, представники галузі раніше стверджували, що їхні наміри спрямовані на створення безпечного середовища. Однак, фахівці з моніторингу медіа вважають ці заяви недостатніми. Вони акцентують увагу на тому, що протягом останніх двох років ситуація лише погіршилася, і без прозорих звітів та зовнішнього контролю довіра до технологій штучного інтелекту продовжуватиме знижуватися.

Related posts