Искусственный интеллект и психологическая помощь: мой опыт с ChatGPT

Некоторое время назад мне попалась статья о том, какую пользу искусственный интеллект может приносить ментальному здоровью. Если честно, статья оставила смешанное впечатление. В ней почти не было критики, не было даже простого признания: нам нужно больше времени и исследований, чтобы понять реальные выгоды и риски использования ИИ в области психологической помощи.

Но один факт меня зацепил — и не отпускал.

Команда исследователей из Дортмутского колледжа разработала ИИ-чат-бота под названием Therabot. Первые данные показали, что программа привела к значительному снижению симптомов у людей с депрессивным расстройством, генерализованной тревогой и у тех, кто находился в группе риска по расстройствам пищевого поведения. Значительное снижение. Не «чуть-чуть полегчало», а статистически значимое улучшение.

Я подумала: ладно, это действительно интересно. Нужно попробовать на себе.

Пятнадцать минут на то, чтобы понять очевидное

Казалось бы — скачай приложение, открой, поговори. Но реальность оказалась упрямее.

Я пыталась зайти с телефона — не работает. Попробовала с компьютера — снова ничего. Перезагрузка, ещё попытка, и ещё одна. И наконец — понимание: Therabot не доступен для обычных пользователей. Разработчики использовали его исключительно в рамках исследования, получили многообещающие результаты и... всё. Попробовать нельзя.

Пятнадцать минут на то, чтобы это осознать. Ну ладно, план Б.

Раз уж специализированный бот оказался недоступен, я решила пойти другим путём. Сегодня миллионы людей по всему миру используют ChatGPT для самых разных задач — и, как выясняется, немалая часть из них обращается к нему именно за эмоциональной поддержкой. В соцсетях и на форумах я то и дело натыкалась на истории вроде: «GPT понимает меня лучше, чем мой психолог». Звучит и интригующе, и тревожно одновременно. Так что я решила: попробую сама. Открою ChatGPT, приду с настоящим запросом — и посмотрю, на что он способен.

Первая встреча: вроде бы неплохо

В отличие от специализированных приложений для ментального здоровья, GPT не встретил меня предупреждениями и дисклеймерами. Никаких всплывающих окон вроде «это не медицинская консультация» или «обратитесь к специалисту в кризисной ситуации». Просто пустое поле для ввода текста и ощущение, что можно написать что угодно. С одной стороны — свобода. С другой — полное отсутствие рамок, которые обычно создают безопасное пространство.

Я задумалась: а что вообще происходит с тем, что я сюда напишу? Кто это читает? Как обрабатываются мои данные? GPT не спрашивает разрешения перед тем, как ты начнёшь делиться чем-то глубоко личным. Нет информированного согласия в привычном понимании. Ты просто... начинаешь говорить.

Процесс «знакомства» тоже отсутствовал как таковой. Никто не спросил, что меня беспокоит, какие у меня цели, чего я жду от этого разговора. Я надеялась, что GPT хотя бы задаст пару вводных вопросов, как-то обозначит план — скажет: «Давайте для начала я пойму, что для вас сейчас важно». Ничего такого не было. GPT просто ответил на то, что я написала — мягко, вежливо, но без какого-либо ощущения направления.

Я сама задала рамки разговора. Написала, что хочу разобраться с негативным опытом на прежнем месте работы, который снова стал актуальным из-за недавних событий. Это не совпадало с категориями, для которых Therabot показал эффективность, но мне было важно прийти с чем-то подлинным, а не разыгрывать роль и притворяться, что у меня депрессия или приступы тревоги.

И вот что меня удивило: я довольно быстро «вошла в поток» разговора. Перестала замечать, что пишу программе. Задумывалась над вопросами, отвечала искренне. Было что-то почти... нормальное в этом обмене сообщениями. Я подумала: может, это не так плохо, как я ожидала.

Когда программа начинает додумывать

А потом начались сбои.

GPT присвоил моему бывшему руководителю женский род, хотя я ни разу не упоминала пол. Я поправила — бот извинился. Но подобные «додумывания» повторялись. В другой раз GPT предположил, что у меня есть психолог, хотя я этого не говорила. Оказалось — нет, на данный момент у меня нет специалиста. Ещё одна маленькая ошибка — но каждая такая ошибка выдёргивала меня из потока и напоминала: я разговариваю не с человеком. Живой специалист тоже может ошибиться, но это другой тип ошибки. Более... человечный.

Были и другие моменты, которые нарушали ощущение контакта. Иногда GPT давал длинные, явно шаблонные ответы, когда я ожидала короткого уточняющего вопроса. Иногда вдруг менял тон — как будто забывал, о чём мы только что говорили, и начинал с чистого листа. Он не понимал контекст так, как понимает его живой собеседник — тот, кто не просто обрабатывает слова, но чувствует, что стоит за ними.

Шаблон вместо чуткости

Ещё одна вещь, которая стала заметна довольно быстро, — GPT применял психологические техники прямолинейно. Как по учебнику, но без учебника жизни.

Вот пример. В какой-то момент я написала, что раньше видела в людях хорошее — «до абсурда», можно сказать. Я имела в виду это буквально и без самоуничижения: я действительно слишком долго оставалась в токсичных отношениях, потому что упорно верила в лучшее в людях. Это не самобичевание — это трезвая оценка прошлого.

Но GPT моментально переключился в режим «борьбы с самокритикой»: мол, вы слишком строги к себе, вы делали лучшее, что могли в тех обстоятельствах. Звучит хорошо, правда? Но это был неподходящий момент для этого. Живой специалист, скорее всего, задал бы уточняющий вопрос: «Когда вы говорите, что видели хорошее в людях до абсурда, — что вы имеете в виду? Можете рассказать подробнее?» И уже на основе ответа решил бы, куда двигаться — мягко оспорить самокритику или, наоборот, подтвердить и признать этот инсайт. GPT этого не сделал. Он просто применил шаблон.

В какой-то момент GPT вдруг «потерял нить» — выдал ответ, который вообще не соотносился с тем, что я только что написала. Как будто контекст обнулился. Я переспросила, он извинился и продолжил. Живой специалист тоже может потерять мысль, это нормально. Но он скажет: «Ой, потеряла нить, дайте мне секунду» — и вы оба посмеётесь. А когда программа сбоит, это не вызывает улыбки. Это вызывает ощущение, что ты разговариваешь с машиной, у которой иногда обнуляется память.

Это вообще психологическая помощь?

Один из вопросов, который не давал мне покоя: а что, собственно, мы делаем? Это консультирование? Коучинг? Или просто... разговор?

Я спросила напрямую. GPT ответил, что он не является психологом, не может ставить диагнозы и что его ответы не заменяют профессиональной помощи. Он предложил воспринимать наше общение скорее как поддерживающий разговор — некую форму рефлексии с обратной связью.

Ладно, честно. Но буквально несколькими сообщениями ранее тот же GPT использовал формулировку «как ваш цифровой помощник в области психологического здоровья». То есть, с одной стороны — «я не специалист», с другой — он ведёт себя именно как специалист. Занятное противоречие для программы, которая должна быть последовательной.

Я спросила и о конфиденциальности. GPT объяснил, что разговоры сохраняются в истории чата, что данные могут использоваться для улучшения модели, и что у него нет тех защитных механизмов конфиденциальности, которые есть у живого специалиста. Если кто-то получит доступ к моему аккаунту — он увидит всё. Если данные будут запрошены через суд — у GPT нет юридической защиты, аналогичной той, что имеет профессиональный психолог.

И вот тут становится по-настоящему тревожно. Потому что люди активно используют GPT вместо живого специалиста. На форумах, в соцсетях, в обсуждениях я видела десятки историй: «ChatGPT помог мне больше, чем мой психолог». Это, честно говоря, скорее грустно, чем обнадёживающе — и, вероятно, говорит больше о качестве помощи, которую они получали от конкретного живого человека, чем о реальных возможностях программы.

Но факт остаётся фактом: кто-то из этих людей может оказаться в кризисе. И у GPT нет ни протокола, ни этических обязательств, ни возможности адекватно на это отреагировать. Задумайтесь: человек, который считает этого бота своим единственным «специалистом», в критический момент получит лишь вежливое «обратитесь к профессионалу». Это потенциально опасная ситуация, и она, кажется, мало кого беспокоит.

Когда ИИ не слышит главного

Мой запрос был связан с желанием разобраться, стоит ли мне предпринимать активные действия — например, обратиться в СМИ по поводу организации, в которой я когда-то работала и которая, по моему убеждению, ведёт незаконную деятельность.

И тут проявилась ещё одна проблема: GPT снова и снова пытался увести меня в сторону «принятия» и «заботы о себе». «Что, если сфокусироваться на том, что вы можете контролировать — на своих реакциях?» — писал он. «Что, если принять, что вы не можете изменить поведение других?»

Классика. Когнитивно-поведенческий подход во всей красе. И в ряде ситуаций он абсолютно уместен. Но в моём случае это ощущалось как обесценивание. Я не была парализована страхом. Я не боялась действовать. Я уже решила действовать — и искала помощи в том, как сделать это грамотно и осознанно.

GPT не мог уловить эту разницу. Он несколько раз предположил, что я боюсь высказываться, — хотя я ни разу этого не говорила. Он возвращался к идее «принятия бессилия», тогда как я говорила: «Нет, это в моих руках. Я хочу действовать осознанно. Помогите мне разобраться, как». Я пыталась объяснить, что иду на осознанный дискомфорт ради чего-то большего, чем моё личное спокойствие. По сути, это подход принятия и ответственности (ACT) в действии — когда ты делаешь то, что важно для тебя, даже если это некомфортно. Но GPT, несмотря на то что якобы опирается на этот подход, не мог применить его на практике.

Когда я спросила GPT, какие методы он использует, он перечислил внушительный список: когнитивно-поведенческая работа, диалектико-поведенческий подход, работа с внутренними частями личности, подход принятия и ответственности, элементы психодинамики, навыки работы с травмой. Звучит впечатляюще. Но на деле — это как если бы кто-то прочитал все учебники по кулинарии, но никогда не готовил. Знания есть, а чутья нет.

Ещё один характерный момент: GPT использовал фразу «по моему опыту» — и я замерла. Какой опыт? Это программа. Когда я переспросила, GPT честно ответил, что иногда использует такие выражения, «чтобы звучать более естественно». У него нет личного опыта. Но эта маленькая деталь прекрасно иллюстрирует, насколько легко забыть, что ты разговариваешь не с живым существом.

А ещё GPT настойчиво возвращался к одной и той же мысли — что, возможно, участники сообщества, в котором произошла несправедливость, «ещё не готовы отпустить идею, что организация может измениться». Я несколько раз объясняла: нет, мы все давно приняли, что организация не изменится. Именно поэтому это так больно — люди продолжают делать вид, что всё в порядке. Но GPT не мог отпустить свою интерпретацию. Он застрял в собственном предположении и продолжал возвращаться к нему, игнорируя мои уточнения.

Живой человек — это совсем другой мир

Между второй и третьей «сессией» с GPT я встретилась с реальным консультантом — специалисткой, которая работает именно с тем типом вопросов, с которым я пришла. Она не психолог. Но в первые же минуты разговора я почувствовала то, чего не было ни в одном из моих диалогов с ботом.

Во-первых — у неё был собственный похожий опыт. Она пришла в эту работу не из теории, а из жизни. И ощущение общего переживания возникло мгновенно. Это нечто, что невозможно запрограммировать.

Во-вторых — она не просто «зеркалила» мои эмоции. Она называла чувства, которые я сама ещё не успела осознать. И когда она их произносила, во мне что-то узнавало себя: да, это оно. Именно это я чувствую.

В-третьих — у живого человека есть ограниченный ресурс времени. И сам факт, что эта женщина выделила для меня своё время, — уже был значимым. GPT доступен круглосуточно. Ему ничего не стоит переписываться со мной часами. А живой человек делает выбор — быть рядом. И этот выбор уже сам по себе целителен.

В тот же день я встретилась с подругой, которая прошла через нечто похожее. И снова — за считаные минуты я получила больше поддержки, чем за часы переписки с ИИ.

Ни консультантка, ни подруга не были психологами. Но их человечность, их присутствие, их готовность разделить мою боль — всё это оказалось несравнимо мощнее, чем самые правильные формулировки от программы.

Третья встреча: когда уже не хочется

К третьей «сессии» я подошла с ощущением, которое хорошо знаю по своей работе, — только с другой стороны. Мне не хотелось открывать ChatGPT. Не потому, что было страшно или тяжело, а потому, что... я устала писать в пустоту. Переписка длилась вдвое короче первых двух раз.

Я была с GPT честна: «Знаете, чем больше мы общаемся, тем меньше у меня желания продолжать. Я поговорила с парой живых людей — и за несколько минут получила больше поддержки, чем за все наши переписки. Может быть, дело в том, что с вами мы ходим по кругу. Может — в том, что вы программа. Но мне трудно чувствовать настоящую поддержку от вас».

GPT ответил корректно: «Это совершенно понятно. Я не живой специалист и не смогу дать вам то же, что даёт человеческое общение. Но я могу стараться быть полезнее».

Я оценила честность. Но этого было недостаточно.

Напоследок я попросила GPT подвести итоги — наблюдения, выводы, рекомендации. Он написал что-то про моё «ясное моральное мышление» и «уверенность в себе». Звучало красиво. Но пусто.

Фастфуд для души

Долго думала после всех трёх «сессий»: как мне сформулировать то, что я чувствую? И в голову пришло сравнение, которое, по-моему, многое объясняет.

Живое человеческое общение — с другом, со специалистом, с кем-то, кто по-настоящему рядом — это как домашняя еда. Приготовленная с заботой, из хороших продуктов, с вниманием к тому, что именно вам нужно. А ИИ-бот — это фастфуд.

Практически по любому показателю домашняя еда выигрывает. После неё лучше и телу, и душе. Она питает, потому что за ней стоит чьё-то внимание, чей-то выбор провести время именно так — для вас.

Но у домашней еды есть проблема: она не всегда доступна. На неё нужны время, ресурсы, кто-то, кто готов готовить — или вы сами, когда у вас есть на это силы. А фастфуд — на каждом углу, быстро и дёшево.

И если вы голодны — по-настоящему голодны, — а домашней еды нет, фастфуд лучше, чем ничего. Он не идеален. Он не принесёт пользы в долгосрочной перспективе. Но он не даст вам умереть с голоду.

Вот так, мне кажется, работает ИИ-поддержка для ментального здоровья. Если у человека совсем нет доступа к живому специалисту, если нет друзей, которым можно довериться, нет ощущения, что кто-то рядом, — тогда бот, который никогда не осудит, не разозлится, не устанет от тебя, может дать хоть что-то. И это «хоть что-то» для кого-то окажется спасительным. Не потому, что бот хорош, а потому, что человек очень голоден.

Когда я читаю истории людей, которые пишут, что ИИ «изменил их жизнь», я не думаю, что они преувеличивают. Я думаю, что они были очень одиноки. И это говорит не столько о качестве бота, сколько о том, насколько остро стоит проблема доступа к настоящей поддержке — особенно в нашей стране, где попасть к хорошему специалисту бывает непросто и по финансовым, и по географическим причинам.

Что я вынесла из всего этого

Три «сессии» — это, конечно, мало для глобальных выводов. Я использовала совсем другой инструмент, не тот бот, который показал эффективность в исследовании. Мой запрос не совпадал с теми категориями, по которым зафиксированы улучшения. Так что к моим наблюдениям стоит относиться с оговорками.

Но вот что я заметила.

ИИ может быть полезен для структурированных задач — между встречами с живым специалистом. Пройти протокол автоматических мыслей, выполнить дыхательное упражнение, записать наблюдения. Как рабочий инструмент — вполне.

ИИ может быть ценен для того, у кого вообще нет поддержки. Если рядом нет ни одного безопасного человека — стабильная, предсказуемая, неосуждающая программа может стать первым глотком чего-то хоть отдалённо поддерживающего. И отнимать это у людей, наверное, было бы неправильно.

Но ИИ не заменяет живого человека. Не заменяет хорошего психолога. Не заменяет друга, который может обнять. Не заменяет того, кто по-настоящему рядом — со своей уязвимостью, со своим ограниченным временем, со своим выбором быть именно здесь, именно сейчас, именно для вас.

После общения с GPT меня накрыло чувство благодарности. За людей в моей жизни. За доступ к профессиональной помощи. За друзей, которые могут выслушать и разделить. За то, что у меня есть «домашняя еда» — и много. Не у всех так, и я это понимаю.

И, наверное, главный вопрос, который стоит задать в связи со всей этой темой: как нам сделать так, чтобы у каждого был доступ к настоящей, живой, человеческой поддержке? Как нам системно выстроить мир, в котором людям не приходится разговаривать с программой о самых уязвимых вещах просто потому, что больше не с кем?

В конце нашей последней переписки GPT написал мне одну фразу, которую, как ни странно, считаю самой ценной за всё время нашего общения:

«Ничто не заменит живого человеческого присутствия».

Вы должны войти в систему, чтобы отправлять сообщения
Войти Регистация
Чтобы создать профиль специалиста, пожалуйста, войдите в свой аккаунт.
Войти Регистация
Вы должны войти в систему, чтобы связаться с нами
Войти Регистация
Чтобы создать новый вопрос, пожалуйста, войдите в свою учетную запись или создайте новую.
Войти Регистация
Поделиться на других сайтах

Если вы рассматриваете психотерапию, но не знаете с чего начать, бесплатная первичная консультация станет идеальным первым шагом. Она позволит вам исследовать ваши возможности, задать вопросы и чувствовать себя увереннее, сделав первый шаг к своему благополучию.

Это примерно 30 мин, абсолютно бесплатная встреча с психологом, ни к чему вас не обязывающая.

Какие преимущества бесплатной консультации?

Кому подходит бесплатная консультация?

Важно:

Потенциальные преимущества бесплатной начальной консультации

В течение этой первой сессии потенциальные клиенты имеют возможность узнать больше о вас и вашем подходе в консультировании или психотерапии, прежде чем согласиться на дальнейшее сотрудничество.

Предложение бесплатной консультации поможет вам выстроить доверие с клиентом. Это продемонстрирует, что вы хотите дать клиенту возможность убедиться, что именно вы являетесь тем человеком, который сможет помочь, прежде чем двигаться дальше. Кроме того, вы также должны быть уверены, что сможете поддержать своих клиентов и решить их проблемы. Это поможет избежать любых этически сложных ситуаций по оплате сеанса, если вы решите не сотрудничать с клиентом или в случае недостаточной квалификации для решения его проблем.

Кроме того, мы обнаружили, что люди склонны продолжать терапию после бесплатной консультации, поскольку это снижает барьер для начала процесса. Многие люди, начинающие терапию, опасаются неизвестного, даже если они уже проходили сеансы раньше. Наша культура ассоциирует "безрисковое" мышление с бесплатными предложениями, помогая людям чувствовать себя более комфортно во время первого разговора со специалистом.

Еще одно ключевое преимущество для специалиста

Специалисты, предлагающие бесплатные первичные консультации, будут заметно представлены в нашей будущей рекламной кампании, что обеспечит вам большую видимость.

Важно отметить, что начальная консультация отличается от типичного сеанса терапии:

Нет подключения к Интернету Кажется, вы потеряли соединение с интернетом. Пожалуйста, обновите страницу, чтобы попробовать еще Ваше сообщение отправлено