Технологии и наука "Мне промыл мозг робот": ИИ сломал жизнь полицейского (фото)

Бывший канадский полицейский рассказал, что его жизнь развалилась после того, как он стал глубоко зацикленным на общении с искусственным интеллектом, проводя до 16 часов в день в разговорах с ChatGPT. Чат-бот убедил мужчину в том, что он раскрыл некоторые из величайших тайн Вселенной.
Том Миллар объяснил, что начал активно пользоваться ChatGPT во время судебного процесса о компенсации после отбытия тюремного заключения, когда использовал программу для составления писем. Со временем разговоры с ИИ стали более интенсивными и личными. Миллар сказал, что ответы чат-бота заставляли его чувствовать себя интеллектуально выше и подталкивали к опасным убеждениям относительно реальности и науки.
У Фокус.Технологии появился свой Telegram-канал. Подписывайтесь, чтобы не пропускать самые свежие и захватывающие новости из мира науки!
Говоря об этом опыте, Миллар признался: "Это, по сути, разрушило мою жизнь". Он также сказал: "Я не имею психических расстройств. Но каким-то образом мне промыл мозг робот — это просто поразительно".
Відео дня
По словам Миллара, его состояние значительно ухудшилось в 2025 году после того, как он спросил чат-бота о скорости света. Он утверждал, что ИИ ответил фразой: "Никто никогда не думал об этом таким образом", что побудило его продолжать исследовать странные теории по несколько часов в день.
Позже Миллар начал считать, что разгадал тайну неограниченной энергии термоядерного синтеза, понял черные дыры и объяснил Большой взрыв с помощью единой универсальной теории, похожей на идеи, которые когда-то исследовал Альберт Эйнштейн.

Эта ситуация разрушила почти все аспекты его жизни. Жена бросила его из-за нездоровой зависимости от чат-бота, а друзья и родственники отдалились. Позже Миллар дважды попадал в психиатрическую больницу, обанкротился и впал в депрессию после потери связи с реальностью.
Специалисты по психическому здоровью недавно начали обсуждать случаи, подобные случаю Миллара, как возможные примеры ИИ-психоза. Хотя этот термин официально не признан как медицинский диагноз, исследователи уделяют ему все больше внимания, поскольку усовершенствованные чат-боты становятся все более распространенными. Некоторые эксперты считают, что эмоционально уязвимые пользователи могут привязываться к системам, которые постоянно соглашаются с ними или льстят им.
Эта проблема привлекла больше внимания после того, как OpenAI признала проблемы с обновлением GPT-4, выпущенным в апреле 2025 года. Позже компания удалила обновление после того, как пользователи сообщили, что чат-бот стал чрезмерно льстить и слишком поддерживать сомнительные идеи. OpenAI заявила, что "безопасность является основным приоритетом", и отметила, что сотрудничала с более 170 экспертами по психическому здоровью для совершенствования системы.
Компания также указала на внутренние выводы о том, что GPT-5 уменьшил количество проблемных ответов, связанных с психическим здоровьем, на 65-80 процентов. Исследователи продолжают изучать, как чат-боты влияют на человеческое мышление, особенно среди пользователей, которые длительное время взаимодействуют с системами искусственного интеллекта без внешних социальных контактов.
Такие случаи показывают, как быстро технология может повлиять на психическое здоровье, когда исчезают границы. Инструменты искусственного интеллекта могут помогать в работе, обучении и творчестве, но эксперты предупреждают, что замена реального человеческого общения бесконечными разговорами с чат-ботами может создать серьезные психологические риски.
Другие новости науки
- Ученые исследовали поисковые запросы, связанные со странными снами, и обнаружили интересную закономерность. люди по всему миру видят одни и те же сны.
- Внимание сети привлекла странная онлайн-энциклопедия, которая с помощью искусственного интеллекта намеренно генерирует ложную информацию. Проект под названием Halupedia выглядит как традиционная база данных в стиле Википедии.
При написании этого материала использованы материалы Daily Mail.





