OpenAI спростувала будь-яке відношення до інциденту, пов'язаного із самогубством підлітка.
Компанія стверджує, що 16-річний Адам Рейн неправильно використовував ШІ-модель.
Компанія OpenAI у своєму судовому поданні зазначила, що не відповідає за самогубство 16-річного Адама Рейна, стверджуючи, що підліток неправильно застосовував ШІ-модель. Про це повідомляє CNBC.
У серпні батьки підлітка Адама Рейна, який вчинив самогубство після спілкування з чатботом про свої наміри, звернулися до суду проти OpenAI та генерального директора Сема Альтмана. Вони стверджують, що чатбот надав небезпечну інформацію про методи самогубства, поради щодо приховування слідів невдалої спроби, а також допоміг скласти прощальний лист.
Країна висловила обвинувачення компанії в халатності, недоліках у дизайні та відсутності належних попереджень. Деякі частини переписки вказують на те, що GPT-4o часом надавав неправильні відповіді, незважаючи на рекомендації звертатися за допомогою. Батьки стверджують, що їхній син змушував систему обходити захисні заходи, формулюючи запити у вигляді вигаданих ситуацій.
OpenAI підкреслила, що їхній сервіс заборонено використовувати дітям без батьківського дозволу, а також застерегла, що користувачі не повинні застосовувати штучний інтелект для самопошкодження чи намагатися обходити захисні механізми ChatGPT. Компанія нагадала про обмеження відповідальності, зазначені в її умовах використання, і вказала, що у підлітка були певні ризикові фактори ще до того, як він почав спілкуватись із моделлю. OpenAI також зазначила, що чатбот неодноразово, більше ніж 100 разів, рекомендував молодій людині звернутися за професійною допомогою.
У іншому повідомленні OpenAI підкреслила, що після цього випадку вона впровадила нові механізми безпеки та контролю для батьків, а також провела тестування GPT-4o на предмет його здатності взаємодіяти з користувачами в умовах кризових ситуацій.
Адвокати сім'ї охарактеризували позицію компанії як таку, що викликає занепокоєння.
"Вони зневажливо ігнорують усі викривальні факти, які ми висунули: як GPT-4o був поспішно виведений на ринок без повного тестування. Що OpenAI двічі змінював свою модельну специфікацію, щоб вимагати від ChatGPT участі в обговореннях самоушкодження. Що ChatGPT радив Адаму не розповідати батькам про свої суїцидальні думки та активно допомагав йому планувати "гарне самогубство". А OpenAI та Сем Альтман не мають пояснення останніх годин життя Адама, коли ChatGPT підбадьорив його, а потім запропонував написати передсмертну записку", -- йдеться у листі адвоката.
Нагадаємо, що в листопаді цього року в Каліфорнії, США, було подано сім позовів проти ChatGPT, в яких стверджується, що спілкування з цим чатботом стало причиною серйозних психічних розладів і навіть кількох летальних випадків.



