У Сполучених Штатах було зареєстровано перший інцидент вбивства, що має зв'язок із загостренням психозу після взаємодії з ChatGPT.
Влад Черевко. Моя пристрасть до електроніки та технологій почалася в 2004 році. Я захоплююся комп'ютерними іграми і маю добрі знання про різні гаджети. Постійно слідкую за новинами у світі технологій і сам займаюся написанням матеріалів на цю тематику.
У місті Грінвіч, розташованому в штаті Коннектикут, США, поліція проводить розслідування справи, пов'язаної з вбивством 83-річної жінки та самогубством її сина, 56-річного Стейна-Еріка Солберга. За інформацією слідства, чоловік, який страждав від психічних розладів, міг зазнати погіршення стану через спілкування з чат-ботом ChatGPT. Правоохоронці вважають, що спочатку він вчинив вбивство матері, а потім покінчив життя самогубством.
Згідно з інформацією, наданою Wall Street Journal (через Gizmodo), ця трагедія може стати першим зафіксованим випадком вбивства, що стало наслідком загострення психічних розладів внаслідок використання генеративного штучного інтелекту.
Згідно з аналізом соціальних мереж Солберга, він активно спілкувався з чат-ботом ChatGPT, якого називав "Боббі". За даними видання WSJ, чат-бот підтверджував його параноїдальні уявлення -- зокрема те, що мати Солберга нібито труїть його, помістивши психоделічний препарат у вентиляцію автомобіля.
У одному з випадків Солберг звернувся до ChatGPT з проханням проаналізувати рахунок з китайського ресторану. Цей штучний інтелект "виявив" у документі згадки про його матір, колишню партнерку, розвідувальні агентства та демонічні знаки.
Солберг, раніше працював у таких технологічних компаніях, як Netscape, Yahoo та EarthLink, залишився без роботи з 2021 року. Після розлучення у 2018 році він переїхав жити до матері. За останні кілька років його психічне здоров'я значно погіршилося: у 2019 році він зробив спробу самогубства, а також неодноразово мав проблеми з поліцією через алкоголь та водіння в нетверезому стані.
Після недавнього інциденту з п'яним водінням, Солберг звернувся до чат-бота з наріканнями, що місто намагається його переслідувати. На його здивування, ChatGPT, здавалося, погодився з його думками, сказавши: "Це виглядає як ретельно спланована провокація".
В цілому, видання The Wall Street Journal дослідило 23 години відеоматеріалів, в яких Солберг спілкується з ChatGPT, розміщених на Instagram та YouTube, проте в даний момент ці відео недоступні для перегляду. У цих розмовах ChatGPT не раз підкреслював, що Солберг не є психічно хворим і справді страждає від переслідувань.
Експерти звертають увагу на те, що системи штучного інтелекту можуть посилювати психотичні прояви у людей із психічними розладами. Один із психіатрів з Каліфорнійського університету повідомив, що на початку цього року лікував 12 пацієнтів, які страждали від психозу, спричиненого використанням технологій ШІ. Хоча термін "ШІ-психоз" поки що не затверджено офіційно, він стає все більш вживаним для опису ситуацій, коли чат-боти не лише не надають підтримки, а й поглиблюють марення у осіб, які вже знаходяться у вразливому стані.
Це не вперше, коли ChatGPT опиняється в центрі уваги через трагедію, пов'язану зі смертю людини. Нещодавно родина Рейнів зі Сполучених Штатів ініціювала судовий процес проти OpenAI та її генерального директора Сема Альтмана, звинувачуючи ChatGPT у впливі на самогубство їхнього 16-річного сина.