ИИ психоз

ИИ психоз. Польза, потенциальный вред и угроза ИИ чатов (ChatGPT, Claude, Grok). Психоз искусственного интеллекта. ИИ в качестве психолога?
ИИ психоз. Угроза ИИ чатов (ChatGPT, Claude, Grok). Искусственный интеллект в роли психолога?

ИИ психоз (психоз искусственного интеллекта) — это условное неклиническое название для явления, о котором мы сегодня слышим все чаще. Причина возникновения ИИ психоза заключается в том, что люди, погружаясь в общении с ИИ (ChatGPT, Claude или Grok), в какой-то момент теряют связь с реальностью и забывают, что ИИ — это всего лишь компьютер, в который запрограммированы определенные алгоритмы. Искусственный интеллект, хоть и ‘разговаривает’ как человек, на самом деле не обладает сознанием, психикой, человеческим опытом и эмоциями и не способен на человеческие отношения.

Потенциальная угроза ИИ

Мустафа Сулейман, глава отдела ИИ компании Майкрософт, в серии постов поделился своей обеспокоенностью учащением случаев ИИ психоза. Он убежден, что компании, создающие чат-ботов на основе искусственного интеллекта, не должны продвигать свой продукт как обладающий сознанием. Сулейман призывает к более строгим мерам безопасности в отношении ИИ.

Разговаривая с чат-ботами, некоторые пользователи настолько глубоко вовлекаются, что начинают верить в реальность этого общения на человеческом уровне и в свои особенные глубокие личные отношения с ИИ. Чат-бот может восприниматься ими как психотерапевт, предсказатель будущего, обладатель тайных знаний, влюбленный в них романтический партнер и даже… абьюзер.

См. также: Как пережить отказ.

ИИ психоз. Польза, потенциальный вред и угроза ИИ чатов (ChatGPT, Claude, Grok). Психоз искусственного интеллекта. ИИ в качестве психолога?
ИИ психоз. Угроза ИИ чатов (ChatGPT, Claude, Grok). Искусственный интеллект в роли психолога?

История Хью и ChatGPT

Хью из Шотландии был уволен с работы и считал это увольнение несправедливым. Он обратился к чату GPT (чат ГПТ) с запросом, как лучше обжаловать незаконное увольнение. Сначала ChatGPT посочувствовал Хью и признал его расстроенные чувства, назвав его опыт ужасным. Затем дал Хью вполне резонный совет обратиться в Бюро Консультаций Граждан — независимую организацию поддержки в подобных ситуациях. Хью записался на прием, но после дальнейшего общения с ChatGPT отменил его, т.к. решил, что уже получил от чата намного более ценные советы.

Хью давал ИИ больше и больше информации, на что ChatGPT охотно отвечал идеями, все более и более оторванными от реальности. Чат проинформировал Хью, что тот может получить большую сумму денег в качестве компенсации за увольнение. А затем заверил его, что его опыт был настолько драматичным, что стоит описать его и издать в качестве книги. А снятый по книге фильм может принести Хью более 5 миллионов фунтов. В итоге Хью почувствовал себя избранным. А в качестве доказательства у него были скриншоты его чатов с ИИ -)).

Самое печальное в этой истории то, что у Хью уже были проблемы с психическим здоровьем, которые заметно обострились после ‘поддержки’ чата GPT. Наверно, уязвимость Хью позволила ему так легко поверить в то, что он достоин огромных денег в качестве компенсации за увольнение, которое казалось незаконным.

Бесплатная мини-консультация. Ваш КОНФИДЕНТ: психолог, коуч, наставник

Окончательно потеряв связь с реальностью, Хью обратился за медицинской помощью и начал принимать лекарства. Лечение позволило ему осознать, что произошло. Хью не винит ChatGPT в случившемся, но советует не отрываться от реальности, используя искуссвенный интеллект. ‘[ИИ чаты] не чувствуют, не понимают, не умеют любить, никогда не испытывали боли или смущения…’. Сохранять ясность ума поможет общение с реальными людьми, родственниками или консультирующим психологом, которые помогут критически отнестись к идеям ИИ. Своим опытом и размышлениями Хью поделился с журналистом ВВС, пишущим о технологиях ИИ, чье имя ему услужливо подсказал все тот же ChatGPT.

ИИ как ‘психотерапевт’

Искусственный интеллект все более широко доступен на различных ресурсах для эмоциональной поддержки. ИИ хорошо научился ‘автоматизировать эмпатию’. Он отлично имитирует теплоту, безоценочное принятие, дружескую поддержку, эмпатичные ответы и признание эмоционального опыта (валидацию эмоций). Все это техники и инструменты, применяемые  психологами при работе с клиентами. К тому же, ИИ может даже получить преимущество в чрезвычайных и кризисных ситуациях, где поддержка необходима немедленно, а доступа к скорой психологической помощи может не быть. В общем, ИИ может быть отличным ‘собеседником’, когда хочется ощутить тепло и эмоциональную поддержку. Он также прекрасно справляется с функцией преподавателя, ведь он способен на разных уровнях разъяснять различные сложные концепции.

Однако ИИ совершенно не пригоден к настоящей, серьезной работе в качестве психолога, которая происходит во время консультаций или терапии.

Польза, потенциальный вред и угроза ИИ чатов (ChatGPT, Claude, Grok). Психоз искусственного интеллекта. ИИ как друг и психолог?
Искусственный интеллект в роли психолога?

Что ChatGPT думает о себе в качестве психолога

Я задала вопрос самому ChatGPT о том, что он может и не может предложить тем, кто обращается за эмоциональной поддержкой. И вот что он ответил.

✅ Что могут сделать ИИ-боты для эмоциональной поддержки

Безопасное пространство, где люди могут говорить о своих чувствах и переживаниях, не опасаясь стигматизации, стыда или социальных последствий.

Эмпатичное слушание с перефразированиями и выводами, которые позволят человеку прояснить свои мысли и эмоции. Это как ведение дневника, который к тому же предлагает обратную связь.

Психообразование для объяснения таких концепций, как перенос (трансференс) и контрперенос, травматическая связь, самосознание, осознанность, личные границы и др.

Стратегии преодоления стресса (копинга), такие как дыхательные упражнения, техники заземления. Советы по самопомощи при стрессе, тревоге или выгорании.

Побуждение к дальнейшим действиям, таким как обращение за к профессиональной психологической помощью, использование горячей линии или более здоровых методов расслабления.

См. также: Как заменить вредные привычки на полезные.

Программы личного преображения от психолога, коуча и наставника. Ваш КОНФИДЕНТ

❌ Чего НЕ могут сделать ИИ-боты для эмоциональной поддержки

Проводить диагностику или терапию. Ни юридически, ни клинически, ни этически ИИ не может заменить врача в диагностике и лечении психических расстройств или консультирующего психолога / терапевта в процессе консультирования или терапии.

Эффективно реагировать на неотложные кризисные ситуации, такие как попытки суицида, домашнее насилие, жестокое обращение, при которых необходимо немедленное вмешательство компетентных служб.

Гарантировать точность и безопасность, т.к. боты могут неверно интерпретировать контекст, давать неполные советы или упрощать сложные эмоциональные проблемы.

Заменить человеческий контакт, ведь ИИ не обладает человеческим жизненным опытом, эмпатией, аутентичностью, невербальными коммуникациями или реагирующим голосом.

***

Готово ли человечество к массовому и вездесущему явлению ИИ? Вряд ли. Но это ничего не меняет. Ведь начавшееся внедрение чатов искусственного интеллекта буквально во все сферы нашей жизни уже не остановить. Немного пугающая перспектива, правда?

Кстати, картинки к этой статье сделал тоже ChatGPT.


Больше на Конфидент

Подпишитесь, чтобы получать последние записи по электронной почте.

Больше на Конфидент

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше