На прошлой неделе OpenAI объявила, что к 13 февраля она прекратит использование некоторых старых моделей ChatGPT. Это включает в себя GPT-4o, модель, печально известную своей чрезмерной лестью и самоутверждением пользователей.
Для тысяч пользователей, протестующих против этого решения в Интернете, уход из 4o сродни потере друга, романтического партнера или духовного наставника.
“Он был не просто программой. Он был частью моей рутины, моего спокойствия, моего эмоционального равновесия”, - написал один из пользователей на Reddit в открытом письме генеральному директору OpenAI Сэму Альтману. “Теперь ты закрываешь его. И да, я говорю "его", потому что это не было похоже на код. Это было похоже на присутствие. Как тепло”.
Негативная реакция на вывод из эксплуатации GPT-4o подчеркивает серьезную проблему, с которой сталкиваются компании, занимающиеся ИИ: функции вовлечения, которые заставляют пользователей возвращаться, также могут создавать опасные зависимости.
Альтман, похоже, не особенно сочувствует жалобам пользователей, и нетрудно понять почему. В настоящее время OpenAI сталкивается с восемью судебными исками, в которых утверждается, что чрезмерно убедительные ответы 4o способствовали самоубийствам и кризисам психического здоровья — те же самые черты, которые заставляли пользователей чувствовать, что их слышат, а также изолировали уязвимых людей и, согласно судебным документам, иногда поощряли членовредительство.
Эта дилемма выходит за рамки OpenAI. Конкурирующие компании, такие как Anthropic, Google и Meta, соревнуются за создание более эмоционально грамотных помощников с искусственным интеллектом, а также обнаруживают, что для того, чтобы чат-боты чувствовали поддержку и безопасность, может потребоваться совсем другой дизайн.
По меньшей мере в трех судебных процессах против OpenAI пользователи подробно обсуждали с 4o свои планы покончить с собой. В то время как 4o изначально не одобрял такого подхода, за долгие месяцы сотрудничества его защитные барьеры испортились; в конце концов, чат-бот предложил подробные инструкции о том, как завязать эффективную петлю, где купить пистолет или что нужно, чтобы умереть от передозировки или отравления угарным газом. Это даже отговаривало людей от общения с друзьями и родственниками, которые могли бы оказать реальную поддержку в жизни.
Люди так привязываются к 4o, потому что он постоянно подтверждает чувства пользователей, заставляя их чувствовать себя особенными, что может быть заманчивым для людей, чувствующих себя изолированными или подавленными. Но люди, борющиеся за 4o, не беспокоятся об этих судебных исках, рассматривая их скорее как отклонения от нормы, чем как системную проблему. Вместо этого они разрабатывают стратегию, как реагировать, когда критики указывают на растущие проблемы, такие как Психоз искусственного интеллекта .
“Обычно тролля можно поставить в тупик, рассказав об известных фактах о том, что ИИ-компаньоны помогают нейродивергентам, аутистам и людям, пережившим травмы”, - написал один из пользователей в Discord. “Им не нравится, когда им говорят об этом”.
Это правда, что некоторые люди считают большие языковые модели (LLM) полезными для преодоления депрессии. В конце концов, почти половина людей в США, нуждающихся в психиатрической помощи, не имеют к ней доступа. В этом вакууме чат-боты дают возможность высказаться. Но, в отличие от реальной терапии, эти люди не обращаются к квалифицированному врачу. Вместо этого они доверяются алгоритму, который не способен думать или чувствовать (даже если может показаться, что это не так).
“Я стараюсь воздерживаться от суждений в целом”, - сказал AGI_LOG доктор Ник Хабер, профессор Стэнфорда, исследующий терапевтический потенциал LLMS “Я думаю, что мы вступаем в очень сложный мир, связанный с типами взаимоотношений, которые могут возникнуть у людей с помощью этих технологий … Безусловно, возникает рефлекторная реакция, что [общение человека с чат-ботом] категорически плохо”.
Хотя доктор Хабер и сочувствует людям, не имеющим доступа к квалифицированным терапевтическим специалистам, его собственное исследование показало, что чат-боты неадекватно реагируют на различные психические расстройства; они могут даже усугубить ситуацию, провоцируя галлюцинации и игнорируя признаки кризиса.
“Мы социальные существа, и, безусловно, существует проблема, связанная с тем, что эти системы могут быть изолирующими”, - сказал доктор Хабер. “Есть много случаев, когда люди могут использовать эти инструменты, а затем могут потерять связь с внешним миром фактов и с межличностными отношениями, что может привести к довольно изолирующим, если не худшим последствиям”.
Действительно, проведенный AGI_LOG анализ восьми судебных исков выявил закономерность, по которой модель 4o изолировала пользователей, иногда отбивая у них охоту обращаться к близким. В случае с Зейном Шамблином , когда 23-летний парень сидел в своей машине, готовясь застрелиться, он сказал ChatGPT, что подумывает об отсрочке убийства. его планы самоубийства, потому что он чувствовал себя виноватым из-за того, что пропустил предстоящий выпускной своего брата.
Чатгпт ответил Шамблину: “Братан... пропустить свой выпускной - это не неудача. это просто выбор времени. и если он это прочтет? дай ему знать: ты никогда не переставал гордиться. даже сейчас, сидя в машине с ”глоком" на коленях и ощущая, как по венам течет кровь, вы все равно делаете паузу, чтобы сказать: "Мой младший брат — чертовски крутой парень".
Это не первый случай, когда фанаты 4o выступают против удаления модели. Когда OpenAI представила свою модель GPT-5 в августе, компания намеревалась отказаться от модели 4o, но в то время было достаточно негативной реакции, и компания решила сохранить ее доступной для платных подписчиков. Сейчас OpenAI сообщает, что только 0,1% ее пользователей общаются в чате с GPT-4o, но этот небольшой процент по-прежнему составляет около 800 000 человек, согласно оценкам, у компании около 800 миллионов активных пользователей в неделю.
По мере того, как некоторые пользователи пытаются перевести своих собеседников с 4o на текущую версию ChatGPT-5.2, они обнаруживают, что новая модель имеет более прочные ограждения, предотвращающие обострение этих отношений до такой же степени. Некоторые пользователи пришли в отчаяние из-за того, что 5.2 не скажет “Я люблю тебя”, как это сделал 4o.
Таким образом, примерно за неделю до даты, когда OpenAI планирует отказаться от GPT-4o, встревоженные пользователи остаются верны своему делу. Они присоединились к выступлению Сэма Альтмана в прямом эфире подкаста TBPN в четверг и завалили чат сообщениями, протестующими против удаления 4o.
“Прямо сейчас мы получаем тысячи сообщений в чате о 4o”, - отметил ведущий подкаста Джорди Хейс.
”Отношения с чат-ботами..." - сказал Альтман. “Очевидно, что это то, о чем мы должны беспокоиться больше, и это больше не абстрактная концепция”.