В Мире / 25.03.2026 22:43

Современное развитие искусственного интеллекта привело к увеличению числа обращений людей к чат-ботам для получения поддержки, оставляя в стороне близких или специалистов. Екатерина Михайлова, психолог, телесно-ориентированный терапевт и основатель центра психологии, поделилась с Life.ru своим мнением о возможных рисках такой зависимости, которая может привести к внутреннему конфликту и «ловушке зависимости».

В наши дни технологии искусственного интеллекта активно проникают в различные сферы, включая психологическую. Довольно часто в состоянии тревоги человек предпочитает обратиться не к другу или профессиональному специалисту, а открыть окно в браузере и поговорить с нейросетью. На первый взгляд, это всегда готовый выслушать советчик.

Однако, как отмечает психолог, существует и другая сторона этого явления: для неподготовленного пользователя такие разговоры могут стать источником зависимости, а не терапевтической помощи.

Екатерина Михайлова

Психолог, телесно-ориентированный терапевт, основатель центра психологии

Эксперт подчеркивает, что когда искусственный интеллект начинает пытаться философствовать или демонстрировать эмпатию, у человека может возникнуть когнитивный диссонанс. Мы привыкли видеть в глубоком диалоге черту живого сознания, и когда сталкиваемся с противоположным, психика начинает защищаться: возникают тревожные мысли и сомнения в себе, как, например, «Кто я, если даже машина пишет стихи и песни?» Это ведёт к обесцениванию личных переживаний.

Также существует опасность подмены. Наш мозг исторически устроен так, чтобы распознавать эмоции другого человека: его интонацию, мимику, блеск глаз. В общении с искусственным интеллектом такие признаки отсутствуют. Хотя сознание осознает генерацию текста, подсознание, нуждающееся в утешении, реагирует на слова поддержки. Этот разрыв между пониманием «это просто алгоритм» и ощущением тепла от полученных слов вызывает внутренний конфликт, оставляя ощущение обмана.

Теги: