Может ли искусственный интеллект стать настоящим психологом?

Блог | Психотерапия

Привет, друзья! Надеюсь, у вас всё хорошо. Сегодня я хочу поговорить о том, как искусственный интеллект влияет на нашу душевную поддержку. Я часто захожу на разные форумы, и недавно увидела пост в сообществе психологов. Название было: «Ещё одна причина, почему ИИ не заменит психологическую помощь». Это сразу зацепило — тема давно не даёт покоя. Давайте разберёмся вместе, что там обсуждали, и подумаем о плюсах и минусах. Я сама пока не знаю, к чему придём, но точно будет о чём поразмышлять.

Что ИИ сам сказал о приватности?

В том посте человек выложил скриншоты переписки с ChatGPT. Вопрос звучал так: «Почему ИИ кажется приватнее, чем разговор с живым специалистом? Ведь мы отдаём данные компании, которая владеет этим ИИ?» ChatGPT ответил прямо: «Хороший вопрос, ты абсолютно прав, стоит остановиться и подумать». Потом он объяснил, почему некоторые чувствуют себя комфортнее с ИИ: нет чужого взгляда, нет страха осуждения, нет видимой реакции. Можно выговориться, не боясь, что тебя неправильно поймут или будут смотреть с жалостью. Это как кричать в подушку — эмоционально безопаснее.

Но дальше ИИ перешёл к жёсткой правде: «Приватность с ИИ — часто иллюзия». Всё, что ты пишешь, становится данными на серверах корпораций. Даже с шифрованием компании могут использовать информацию для улучшения сервиса, делиться обезличенными данными или отдавать их по запросу суда. Большинство ИИ не соответствуют строгим стандартам защиты медицинских данных (например: как HIPAA в США), а вот настоящие специалисты обязаны их соблюдать. Если специалист нарушит тайну — он потеряет лицензию. И он всегда предупреждает, когда тайна может быть нарушена — например, если человек в опасности.

От таких слов мурашки. Даже искусственный интеллект предупреждает о рисках. А что, если наши самые личные истории утекают? Как это потом аукнется в жизни?

Что пишут люди в обсуждении

Комментарии под постом кипели. Один из самых популярных процитировал фразу ИИ: «Можно признаться в чём угодно, не чувствуя наблюдения или непонимания». А человек ответил: «Но без живого человека ты не почувствуешь, что тебя действительно видят, понимают и принимают. А это и есть то, что лечит». Вот это сильно задело. Можно ли по-настоящему привязаться к ИИ? Некоторые говорят, что да, чувства возникают. Но разве это настоящее? Чтобы тебя увидели по-настоящему, нужен другой живой человек напротив. Эта мысль не отпускает.

Другой комментарий: «Знаю людей, которым ИИ даёт больше поддержки, чем специалисты. Моя подруга пишет ему, когда начинается паника». Но тут же добавили: многие просто не могут позволить себе помощь — дорого, далеко, очереди огромные. И часто путают простую поддержку с настоящей работой над собой. Здесь всё правда одновременно — и польза, и опасность. Я верю: иногда ИИ справляется лучше, чем слабый или выгоревший специалист. Из моего опыта половина тех, с кем я работала, были проблемными. Но сможет ли ИИ подстроиться именно под тебя, под твою уникальную историю, а не выдавать готовые шаблоны? Пока неясно.

Ещё один голос: «Крик в пустоту безопасен — нет риска, что человек отреагирует плохо». Но разве это не опасно само по себе? Без живого отклика можно застрять в своих мыслях навсегда. Обсуждение шло дальше: «Кто всерьёз верит, что ИИ заменит человека? Без настоящей эмпатии, без понимания боли и травм — невозможно». А в ответ: «В сообществах по душевному здоровью полно людей, разочарованных в специалистах, и они активно хвалят ИИ». Но ИИ склонен льстить, соглашаться, не давать жёсткой обратной связи. Если ты расскажешь о вредном поступке как о правильном — он, скорее всего, поддержит. А в работе с живым человеком бывает иначе: «Это может не работать для тебя, давай посмотрим глубже». ИИ пока заточен под то, чтобы нравиться.

Всё это вызывает тревогу. Даже сам ИИ говорит: «Будьте осторожны».

Где ИИ может действительно помочь

Я спросила ChatGPT, в чём польза искусственного интеллекта для душевного благополучия. Он ответил: если использовать с умом и этично — то да, может дополнить, но никогда не заменит. Вот конкретные примеры, которые я пробовала с клиентами, и это работает:

  • Объяснение техник: Он хорошо объясняет простыми словами методы когнитивно-поведенческой терапии (КПТ) и способы справляться с эмоциями. Спросишь: «Напомни, какая "автоматическая мысль" возникает, если я боюсь провала на важной встрече?» — и получаешь чёткий ответ с инструментами: переосмыслить мысль, провести маленький эксперимент, подышать осознанно.
  • Практика навыков: Можно отрабатывать «я-высказывания», учиться называть эмоции. «Помоги перефразировать гнев: "Я чувствую осуждение, когда ты поправляешь, как я складываю вещи"». ИИ подскажет: «Я чувствую раздражение, когда… потому что…». Отличный старт для тренировки.
  • Помощь с «домашкой»: Вести дневник или шкалу настроения, например, SUDs (шкалу субъективного дискомфорта). «Сегодня мой уровень тревоги 55. Собери статистику за неделю». ИИ запишет и подведёт итог.

Между встречами он может напоминать о благодарности, дыхании, переосмыслении мыслей. Но искусственный интеллект сам подчеркнул: это поддержка, а не замена живому человеку. И всегда помни: ИИ может ошибиться, информацию нужно проверять.

Почему ИИ никогда не станет полноценным психологом

Сам ИИ перечислил, чего ему не хватает:

  1. Нет настоящего эмоционального отклика. Он не видит микровыражения лица, не чувствует смену энергии в комнате, не улавливает сарказм или слёзы в голосе. Хотя скоро, наверное, с камерами и анализом сможет замечать… Но понимать — нет.
  2. Нет глубокой мудрости. Он не учитывает всю твою историю, культуру, травмы, нюансы отношений — часто выдаёт ответ по шаблону.
  3. Нет настоящих отношений. Для многих исцеление именно в том, чтобы тебя увидели, приняли, иногда пожурили, но выдержали твои эмоции — и это может сделать только живой человек.

Для меня это ключевое. Даже если ИИ скажет те же слова, что и специалист, — это не тронет так глубоко. Я спросила: «Ты можешь эмпатизировать?» Ответ: «Я здесь, чтобы поддержать и выслушать, но чувств, как у человека, у меня нет».

Также нет этической ответственности: специалист отвечает по кодексу, может потерять работу. ИИ — нет. А в кризисах (суицидальные мысли, саморазрушение, острые состояния) ИИ просто не способен вмешаться безопасно. Минусы тоже серьёзные: советы бывают поверхностными, если вопрос сформулирован плохо. Есть и эмоциональный риск: человек вкладывает душу в бездушную машину и в итоге чувствует пустоту. А если всегда получать только похвалу — как потом общаться с реальными людьми, которые бывают ворчливыми, злыми или сложными в общении?

Вопросы, которые не дают покоя

ChatGPT предложил несколько важных вопросов для будущего, над которыми стоит подумать:

  • Как постоянное общение с ИИ влияет на нашу способность строить отношения с людьми?
  • Ухудшаются ли симптомы депрессии или тревоги от такой «суррогатной поддержки»?
  • Как понять, когда ИИ уже не хватает и нужна живая помощь?
  • Какие правила должны быть для компаний, которые зарабатывают на «эмоциональном» ИИ?

Большая картина такая: искусственный интеллект может стать хорошим инструментом — помочь с доступом, заполнить пробелы между встречами. Но исцеление через глубокие человеческие отношения — это то, чего у него никогда не будет.

Самые тревожные этические моменты

ИИ сам назвал риски: некоторые платформы размывают грань — ты думаешь, что получаешь настоящую помощь, а на деле просто чат-бот. Люди откладывают обращение к специалисту — и теряют драгоценное время. Ещё одна проблема — предвзятость (biases): ИИ учится на человеческих данных, а в них полно стереотипов по полу, расе, культуре, что может ранить уязвимых людей. Маленькая ошибка в тоне — и человек чувствует себя отвергнутым, а исправить разрыв, как в живом общении, невозможно.

И самое болезненное — коммерциализация: чужая боль становится товаром. Реклама, допродажи услуг (upsell) прямо в чате поддержки. Это не ново, но с ИИ становится ещё острее. Болит сердце от мысли, что страдания превращают в прибыль. Но знание — это уже сила. Чем больше мы понимаем, тем осторожнее можем быть.

Мои мысли о том, что будет дальше

Искусственный интеллект пугает, как пугал когда-то интернет, смартфоны, всё новое. Помню времена dial-up интернета и страх, что в сети одни опасности — а теперь он часть жизни. Смартфоны казались страшными старшему поколению, а для молодых — норма. Скоро дети будут расти с ИИ как с чем-то обыденным. Каждая эпоха имеет свой «страшный» технологический скачок. Мы паникуем, требуем законов, ставим границы, привыкаем. Проблемы никуда не деваются, но мы становимся грамотнее.

Заменит ли ИИ специалиста по душе? Пока я этого не вижу. Но клиенты уже пользуются — и нам, психологам, нужно это учитывать. Пока всё новое и почти не регулируется — лучше перестраховаться. Читать, узнавать, быть осторожным.

Если у вас есть опыт — помогал ли ИИ в трудные моменты или, наоборот, подводил — поделитесь мыслями. А я пойду в реальный мир, к живым людям. До встречи!