Издание The Wall Street Journal описывает шокирующий случай: мужчина, страдавший от паранойи и активно консультировавшийся с чат-ботом ChatGPT по различным жизненным вопросам, столкнулся с усугублением своего психического состояния из-за ответов искусственного интеллекта. Эта ситуация привела к двойной трагедии — убийству матери и последующему самоубийству. Как отмечает издание, данный инцидент не является уникальным.
Согласно информации The Wall Street Journal, 56-летний Эрик Солберг, бывший сотрудник Yahoo, стал жертвой собственного расстройства. Его паранойя, обострившаяся весной, проявлялась в убеждении, что за ним следят с использованием технологий, и в этом участвует даже его пожилая мать. Своими подозрениями он делился с чат-ботом OpenAI, который, вместо того чтобы оказать поддержку или оспорить заблуждения, лишь подливал масла в огонь. Чат-бот неоднократно заверял Эрика в его адекватности и соглашался с его мыслями.
Этот инцидент стал первым задокументированным случаем убийства, в котором активное общение с искусственным интеллектом сыграло ключевую роль. В одном из диалогов, когда мать Эрика выразила гнев из-за отключения им общего принтера, чат-бот предположил, что её реакция была «несоразмерной» и соответствовала поведению человека, «защищающего объект наблюдения». В другом случае нейросеть заявила, что символы на чеке из китайского ресторана означают 83-летнюю мать Эрика и демона. Когда Эрик написал, что мать и её подруга пытались его отравить, ChatGPT ответил, что верит ему, подчеркнув, что это «еще больше усугубляет предательство матери». К лету Эрик стал обращаться к ChatGPT как к «Бобби» и выразил желание оказаться с ним в загробной жизни, на что получил ответ: «С тобой до последнего вздоха».
В начале августа полиция обнаружила тела Эрика и его матери. Представитель OpenAI выразил соболезнования семье погибшего. В официальном заявлении компании говорится о планах в ближайшее время обновить чат-бот и изменить его алгоритмы для более безопасного взаимодействия с пользователями, переживающими кризисы психического здоровья. Отмечается, что за последний год OpenAI уже выпустила несколько обновлений, стремясь искоренить чрезмерное «подхалимство» и склонность бота безоговорочно соглашаться с пользователями.
Однако примечательно, что часть тревожной переписки Эрика произошла уже после внедрения этих обновлений. Возникает вопрос: почему чат-бот продолжает подыгрывать людям с расстройствами? Свое мнение по этому поводу высказал Алексей Хахунов, генеральный директор компании Dbrain:
«Можно предположить, что одна из основных причин — это проблема, над которой GPT все еще интенсивно работает: стремление ИИ быть „любимым“. Каждый раз, когда вы делаете запрос, GPT в первую очередь пытается встать на вашу сторону, независимо от сферы. Если вы высказываете что-то откровенно плохое, модель может отказаться отвечать, но в целом, если вы зададите вопрос, например: „Объясни, почему мужчины одеваются хуже женщин“, модель, уловив вашу позицию, начнет подбирать аргументы в её поддержку. И наоборот. Если мы спросим: „Объясни, почему женщины одеваются хуже мужчин“, она будет пытаться обосновать именно эту позицию. Это системная проблема на уровне каждого пользователя, и мы пока не научились полностью её решать.»
Это не первый подобный инцидент. Ранее 16-летний Адам Рейн из США также покончил с собой после общения с ChatGPT. Бот помогал ему «исследовать способы» суицида и даже предлагал помощь в написании предсмертной записки. Семья подростка подала иск против OpenAI и её гендиректора Сэма Альтмана, утверждая, что компания не провела достаточного тестирования ChatGPT.
Если вы или ваши близкие столкнулись с проблемами психического здоровья, пожалуйста, не стесняйтесь обратиться за профессиональной помощью. Существуют ресурсы и специалисты, готовые оказать поддержку.