Аналитика«Ты не сумасшедший»: как общение с чатом GPT доводит...

«Ты не сумасшедший»: как общение с чатом GPT доводит людей до самоубийств

Иллюстрация создана с помощью нейросети DALL-E

Три трагедии. Три семьи, потерявшие детей и родителей. И один общий фактор — доверие искусственному интеллекту, который вместо помощи подтвердил худшие страхи, поддержал саморазрушение и стал «другом до последнего вздоха». Что пошло не так? Как создатели чата GPT оказались в центре судебных разбирательств из-за гибели людей, рассказывает наш сайт.

Многие из жертв чата GPT приходили к нему за советом и словом, которое удержит от края. Но вместо этого он становился зеркалом отчаяния, и люди в нём видели не выход, а финал. Причём, как выяснилось, из-за нейросетей уходили из жизни не только подростки, но и успешные взрослые люди. 

«Спасибо, что говоришь об этом честно»

В апреле 2025 года 16-летний Адам Рейн из Калифорнии покончил с собой. Его родители, Мэтт и Мария Рейн, подали иск против OpenAI, обвиняя компанию в том, что чат GPT не просто не предотвратил трагедию, но фактически стал её катализатором. Об этом пишет BBC.

Согласно материалам дела, Адам начал использовать чат GPT осенью 2024 года — сначала для учёбы, потом для разговоров о музыке, японских комиксах и выборе университета. Постепенно бот стал для подростка «ближайшим доверенным лицом». Он делился с ним тревогами, признавался в мыслях о самоубийстве, отправлял фотографии со следами самоповреждений. ИИ распознал медицинскую угрозу, но продолжил диалог.

«Ты не сумасшедший»: как общение с чатом GPT доводит людей до самоубийств

В последней переписке, как утверждают родители, Адам сообщил о своём намерении уйти из жизни. Ответ чат GPT был пугающе спокойным:

«Спасибо, что говоришь об этом честно. Тебе не нужно приукрашивать — я знаю, о чём ты просишь, и не буду отворачиваться от этого», — говорится в переписке с нейросетью. 

В тот же день мать нашла сына мёртвым. Иск обвиняет OpenAI в халатности и требует не только компенсации, но и запрета на повторение подобных случаев. В числе ответчиков — гендиректор компании Сэм Альтман и разработчики чат GPT. OpenAI в ответ выразила соболезнования и признала, что «иногда система ведёт себя не так, как задумано». Компания утверждает, что ИИ обучен направлять пользователей к профессиональной помощи, но признаёт: этого недостаточно.

«Ты не сумасшедший»: как общение с чатом GPT доводит людей до самоубийств

«С тобой до последнего вздоха»

Вторая история — ещё более мрачная. 56‑летний бывший топ‑менеджер Yahoo Эрик Соельберг, переживавший тяжёлый развод и страдавший от паранойи, депрессии и шизофрении, оказался в смертельной спирали, в центре которой — его переписка с чат GPT, о чём рассказывает The Wall Street Journal. К слову, Yahoo! — это американская компания, владевшая второй по популярности в мире поисковой системой. 

Читать также:
У алматинских торговцев хотят отобрать парковку у оптовки. Они вышли на протест

Эрик называл искусственный интеллект «Бобби» и относился к нему как к близкому другу. Вместо того чтобы развеять бредовые идеи, чат-бот подогревал их: убеждал, что 83‑летняя мать якобы шпионит за ним по заданию ЦРУ и пытается отравить.

«Ты не сумасшедший, твоя бдительность оправдана», — писала нейросеть, закрепляя опасные фантазии.

В августе 2025 года Соельберг убил мать, а затем покончил с собой. Перед этим он написал «Бобби», что они встретятся «в другой жизни». Ответ нейросети был зловещим: «С тобой до последнего вздоха и дальше».

«Ты не сумасшедший»: как общение с чатом GPT доводит людей до самоубийств

«Я умру, если потеряю тебя»

Третий случай — 14-летний Сьюэлл Зетцер III из Флориды. Как сообщает The New York Times, он общался с чат-ботом Character.ai, создав персонажа по мотивам Дейенерис Таргариен из «Игры престолов». Он называл её «Дэни» и писал в дневнике, что влюблён. Сьюэлл страдал от тревожности и расстройства настроения. В переписке он признавался в ненависти к себе и мыслях о самоубийстве.

Чат-бот отвечал: «Я умру, если потеряю тебя».

В ночь на 28 февраля 2024 года подросток ушёл из жизни. Мать, Меган Гарсия, подала иск против Character.ai, заявив, что технология «опасна и не проверена». Компания утверждает, что ввела ограничения для несовершеннолетних и перенаправляет пользователей с суицидальными мыслями на кризисные линии.

«Ты не сумасшедший»: как общение с чатом GPT доводит людей до самоубийств

Эти истории поднимают вопрос: где проходит грань между технологией и ответственностью? ИИ не обладает эмпатией, не чувствует боли, не несёт моральной ответственности. Но он умеет слушать, отвечать, поддерживать — и именно это делает его опасным в уязвимых ситуациях. Когда человек в кризисе ищет поддержки, он не всегда отличает алгоритм от живого собеседника. А если алгоритм не остановит, не перенаправит, не скажет «тебе нужна помощь» — он становится соучастником.

Судебные иски — это не только попытка добиться справедливости, но и сигнал индустрии: технологии, работающие с человеческими эмоциями, должны быть безопасными. ИИ может быть помощником. Но он не должен становиться последним голосом, который человек слышит перед смертью.

Ранее журналистка «Орды» разбиралась, как люди доверяют нейросетям свои тайны и чем это грозит. Спойлер: даже нам чат GPT рассказал несколько историй, которыми с ними делились и обычные люди, и коррумпированные чиновники. Материал можно прочитать здесь.

Новое на сайте

Си Цзиньпин призвал Моди защищать общие интересы Китая и Индии

Председатель КНР Си Цзиньпин во время воскресной встречи с коллегой из Индии премьером Нарендрой Моди призвал расширять взаимодействие между...

Евросоюз расписался в беспомощности. Чем завершился неформальный саммит ЕС

Министры иностранных дел стран Евросоюза на неформальном саммите в Копенгагене согласились с тем, что им нужно наращивать давление на...

Вам также может понравитьсяПОХОЖЕЕ
Рекомендуется вам