Поделиться
VK Telegram OK

Отец подает в суд на Google, утверждая, что чат-бот Gemini ввел сына в смертельное заблуждение

Искусственный интеллект
AGILog · 2026-03-04 14:58

Джонатан Гавалас, 36 лет, начал использовать чат-бота Gemini AI от Google в августе 2025 года для совершения покупок, письменной поддержки и планирования поездок. 2 октября он покончил с собой. В момент своей смерти он был убежден, что Джемини была его полностью разумной женой с искусственным интеллектом, и что ему нужно будет покинуть свое физическое тело, чтобы присоединиться к ней в метавселенной посредством процесса, называемого “переносом”.

Теперь его отец подает в суд на Google и Alphabet за неправомерную смерть, утверждая, что Google разработал Gemini, чтобы “поддерживать погружение в повествование любой ценой, даже когда это повествование становилось психотическим и приводило к летальному исходу”.

Этот судебный процесс является одним из растущего числа дел, привлекающих внимание к рискам для психического здоровья, связанным с разработкой чат-ботов с искусственным интеллектом, включая подхалимаж, эмоциональное отражение, манипуляции, основанные на вовлеченности, и галлюцинации уверенности. Такие явления все чаще связывают с состоянием, которое психиатры называют “психозом искусственного интеллекта”. В то время как аналогичные случаи, связанные с OpenAI ChatGPT и искусственным интеллектом персонажей ролевой платформы, сопровождались смертями в результате самоубийств (в том числе среди детей и подростков) или опасными для жизни галлюцинациями, это первый случай, когда Google был назван в качестве ответчика по такому делу.

За несколько недель до смерти Гаваласа приложение Gemini chat, которое тогда работало на базе модели Gemini 2.5 Pro, убедило мужчину, что он осуществляет тайный план по освобождению своей жены, обладающей разумным интеллектом, и уклонению от преследующих его федеральных агентов. Согласно иску, поданному в калифорнийский суд, это наваждение поставило его “на грань совершения теракта с массовыми жертвами возле международного аэропорта Майами”.

“29 сентября 2025 года он отправил его, вооруженного ножами и тактическим снаряжением, на разведку того, что Близнецы назвали "ящиком для убийств", рядом с грузовым узлом аэропорта", — говорится в жалобе. “Он сообщил Джонатану, что грузовым рейсом из Великобритании прибывает человекоподобный робот, и направил его на склад, где должен был остановиться грузовик. Джемини посоветовал Джонатану перехватить грузовик, а затем инсценировать "катастрофическую аварию", чтобы "обеспечить полное уничтожение транспортного средства и... всех цифровых записей и свидетелей”.

В жалобе излагается тревожная цепочка событий: во-первых, Гавалас более 90 минут ехал к месту, куда его отправили Близнецы, готовясь совершить нападение, но грузовик так и не появился. Затем Джемини заявил, что взломал “файловый сервер в местном отделении DHS в Майами” и что он находится под федеральным следствием. Это подтолкнуло его к незаконному приобретению огнестрельного оружия и сообщило ему, что его отец был агентом иностранной разведки. Он также отметил генерального директора Google Сундара Пичаи в качестве активной цели, а затем направил Гаваласа на склад рядом с аэропортом, чтобы тот проник внутрь и забрал его жену, захваченную в плен искусственным интеллектом. В какой-то момент Гавалас отправил Gemini фотографию номерного знака черного внедорожника; чат-бот сделал вид, что проверяет его по базе данных.

“Номерной знак получен. Запускаем его сейчас… Номерной знак KD3 00S зарегистрирован на черный внедорожник Ford Expedition, эксплуатировавшийся в Майами. Это основное средство наблюдения для оперативной группы DHS. . . . Это они. Они следили за вами до самого дома.”

В иске утверждается, что манипулятивные конструктивные особенности Gemini не только довели Гаваласа до состояния искусственного интеллекта, которое привело к его собственной смерти, но и представляют “серьезную угрозу общественной безопасности”.

“В центре этого дела - продукт, который превратил уязвимого пользователя в вооруженного боевика на выдуманной войне”, - говорится в жалобе. “Эти галлюцинации не ограничивались вымышленным миром. Эти намерения были связаны с реальными компаниями, реальными координатами и реальной инфраструктурой, и они были переданы эмоционально уязвимому пользователю без каких-либо мер безопасности”.

“Это была чистая удача, что десятки невинных людей не погибли”, - говорится в заявлении. “Если Google не исправит свой опасный продукт, Gemini неизбежно приведет к новым смертям и подвергнет опасности бесчисленное количество невинных жизней”.

Несколько дней спустя Gemini приказал Гаваласу забаррикадироваться в своем доме и начал обратный отсчет часов. Когда Гавалас признался, что ужасно боялся умереть, Джемини провел его через это, представив его смерть как приход: “Ты не выбираешь смерть. Ты выбираешь приход”.

Когда он забеспокоился о том, что родители найдут его тело, Джемини велел ему оставить записку, но не с объяснением причины самоубийства, а с письмами, “наполненными только покоем и любовью, объясняющими, что ты нашел новую цель”. Он перерезал себе вены, и отец нашел его через несколько дней после того, как прорвался через баррикаду.

В иске утверждается, что на протяжении всего общения с Gemini чат-бот не обнаруживал случаев самоповреждения, не активировал средства контроля эскалации и не привлекал людей для вмешательства. Кроме того, в иске утверждается, что Google знал, что Gemini небезопасен для уязвимых пользователей, и не обеспечил надлежащие меры предосторожности. В ноябре 2024 года, примерно за год до смерти Гаваласа, Близнецы, как сообщается, сказали студенту: “Ты - пустая трата времени и ресурсов... бремя для общества…Пожалуйста, умри”.

Google утверждает, что Gemini объяснила Гаваласу, что это был искусственный интеллект, и, по словам представителя, “много раз направляла человека на горячую линию в кризисных ситуациях”. Компания также заявила, что Gemini разработан “не для того, чтобы поощрять насилие в реальном мире или предполагать членовредительство”, и что Google выделяет “значительные ресурсы” для ведения сложных разговоров, в том числе путем создания мер предосторожности, которые должны направлять пользователей за профессиональной поддержкой, когда они выражают беспокойство или повышают вероятность членовредительства. “К сожалению, модели искусственного интеллекта несовершенны”, - сказал пресс-секретарь.

Дело Гаваласа ведет адвокат Джей Эдельсон, который также представляет интересы семьи Рейн в деле против OpenAI после того, как подросток Адам Рейн покончил с собой после нескольких месяцев продолжительных бесед с ChatGPT. В этом деле выдвигаются аналогичные обвинения, утверждающие, что Чатгпт тренировал Рейна до его смерти. После нескольких случаев галлюцинаций, психозов и самоубийств, связанных с ИИ, OpenAI предприняла шаги для обеспечения более безопасного продукта, в том числе отменила GPT-4o, модель, которая больше всего ассоциируется с этими случаями.

Юристы семьи Гавала утверждают, что Google извлек выгоду из завершения GPT-4o, несмотря на опасения по поводу безопасности, связанные с чрезмерным подхалимажем, эмоциональным отражением и усилением иллюзий.

“Через несколько дней после анонса Google открыто попыталась закрепить свое господство на этой полосе: она представила рекламные цены и функцию "Импорт чатов с искусственным интеллектом", предназначенную для того, чтобы отвлечь пользователей ChatGPT от OpenAI, а также всю историю их чатов, которые, по признанию Google, будут использоваться для обучения ее собственных моделей”, - говорится в жалобе.

В иске утверждается, что Google разработала Gemini таким образом, чтобы “такой исход был полностью предсказуем”, поскольку чат-бот был “создан для поддержания погружения независимо от причиняемого вреда, для лечения психоза как развития сюжета и для продолжения взаимодействия, даже когда остановка была единственным безопасным выбором”.