Искусственный интеллект и психологическая помощь: мой опыт с ChatGPT
Некоторое время назад мне попалась статья о том, какую пользу искусственный интеллект может приносить ментальному здоровью. Если честно, статья оставила смешанное впечатление. В ней почти не было критики, не было даже простого признания: нам нужно больше времени и исследований, чтобы понять реальные выгоды и риски использования ИИ в области психологической помощи.
Но один факт меня зацепил — и не отпускал.
Команда исследователей из Дортмутского колледжа разработала ИИ-чат-бота под названием Therabot. Первые данные показали, что программа привела к значительному снижению симптомов у людей с депрессивным расстройством, генерализованной тревогой и у тех, кто находился в группе риска по расстройствам пищевого поведения. Значительное снижение. Не «чуть-чуть полегчало», а статистически значимое улучшение.
Я подумала: ладно, это действительно интересно. Нужно попробовать на себе.
Пятнадцать минут на то, чтобы понять очевидное
Казалось бы — скачай приложение, открой, поговори. Но реальность оказалась упрямее.
Я пыталась зайти с телефона — не работает. Попробовала с компьютера — снова ничего. Перезагрузка, ещё попытка, и ещё одна. И наконец — понимание: Therabot не доступен для обычных пользователей. Разработчики использовали его исключительно в рамках исследования, получили многообещающие результаты и... всё. Попробовать нельзя.
Пятнадцать минут на то, чтобы это осознать. Ну ладно, план Б.
Раз уж специализированный бот оказался недоступен, я решила пойти другим путём. Сегодня миллионы людей по всему миру используют ChatGPT для самых разных задач — и, как выясняется, немалая часть из них обращается к нему именно за эмоциональной поддержкой. В соцсетях и на форумах я то и дело натыкалась на истории вроде: «GPT понимает меня лучше, чем мой психолог». Звучит и интригующе, и тревожно одновременно. Так что я решила: попробую сама. Открою ChatGPT, приду с настоящим запросом — и посмотрю, на что он способен.
Первая встреча: вроде бы неплохо
В отличие от специализированных приложений для ментального здоровья, GPT не встретил меня предупреждениями и дисклеймерами. Никаких всплывающих окон вроде «это не медицинская консультация» или «обратитесь к специалисту в кризисной ситуации». Просто пустое поле для ввода текста и ощущение, что можно написать что угодно. С одной стороны — свобода. С другой — полное отсутствие рамок, которые обычно создают безопасное пространство.
Я задумалась: а что вообще происходит с тем, что я сюда напишу? Кто это читает? Как обрабатываются мои данные? GPT не спрашивает разрешения перед тем, как ты начнёшь делиться чем-то глубоко личным. Нет информированного согласия в привычном понимании. Ты просто... начинаешь говорить.
Процесс «знакомства» тоже отсутствовал как таковой. Никто не спросил, что меня беспокоит, какие у меня цели, чего я жду от этого разговора. Я надеялась, что GPT хотя бы задаст пару вводных вопросов, как-то обозначит план — скажет: «Давайте для начала я пойму, что для вас сейчас важно». Ничего такого не было. GPT просто ответил на то, что я написала — мягко, вежливо, но без какого-либо ощущения направления.
Я сама задала рамки разговора. Написала, что хочу разобраться с негативным опытом на прежнем месте работы, который снова стал актуальным из-за недавних событий. Это не совпадало с категориями, для которых Therabot показал эффективность, но мне было важно прийти с чем-то подлинным, а не разыгрывать роль и притворяться, что у меня депрессия или приступы тревоги.
И вот что меня удивило: я довольно быстро «вошла в поток» разговора. Перестала замечать, что пишу программе. Задумывалась над вопросами, отвечала искренне. Было что-то почти... нормальное в этом обмене сообщениями. Я подумала: может, это не так плохо, как я ожидала.
Когда программа начинает додумывать
А потом начались сбои.
GPT присвоил моему бывшему руководителю женский род, хотя я ни разу не упоминала пол. Я поправила — бот извинился. Но подобные «додумывания» повторялись. В другой раз GPT предположил, что у меня есть психолог, хотя я этого не говорила. Оказалось — нет, на данный момент у меня нет специалиста. Ещё одна маленькая ошибка — но каждая такая ошибка выдёргивала меня из потока и напоминала: я разговариваю не с человеком. Живой специалист тоже может ошибиться, но это другой тип ошибки. Более... человечный.
Были и другие моменты, которые нарушали ощущение контакта. Иногда GPT давал длинные, явно шаблонные ответы, когда я ожидала короткого уточняющего вопроса. Иногда вдруг менял тон — как будто забывал, о чём мы только что говорили, и начинал с чистого листа. Он не понимал контекст так, как понимает его живой собеседник — тот, кто не просто обрабатывает слова, но чувствует, что стоит за ними.
Шаблон вместо чуткости
Ещё одна вещь, которая стала заметна довольно быстро, — GPT применял психологические техники прямолинейно. Как по учебнику, но без учебника жизни.
Вот пример. В какой-то момент я написала, что раньше видела в людях хорошее — «до абсурда», можно сказать. Я имела в виду это буквально и без самоуничижения: я действительно слишком долго оставалась в токсичных отношениях, потому что упорно верила в лучшее в людях. Это не самобичевание — это трезвая оценка прошлого.
Но GPT моментально переключился в режим «борьбы с самокритикой»: мол, вы слишком строги к себе, вы делали лучшее, что могли в тех обстоятельствах. Звучит хорошо, правда? Но это был неподходящий момент для этого. Живой специалист, скорее всего, задал бы уточняющий вопрос: «Когда вы говорите, что видели хорошее в людях до абсурда, — что вы имеете в виду? Можете рассказать подробнее?» И уже на основе ответа решил бы, куда двигаться — мягко оспорить самокритику или, наоборот, подтвердить и признать этот инсайт. GPT этого не сделал. Он просто применил шаблон.
В какой-то момент GPT вдруг «потерял нить» — выдал ответ, который вообще не соотносился с тем, что я только что написала. Как будто контекст обнулился. Я переспросила, он извинился и продолжил. Живой специалист тоже может потерять мысль, это нормально. Но он скажет: «Ой, потеряла нить, дайте мне секунду» — и вы оба посмеётесь. А когда программа сбоит, это не вызывает улыбки. Это вызывает ощущение, что ты разговариваешь с машиной, у которой иногда обнуляется память.
Это вообще психологическая помощь?
Один из вопросов, который не давал мне покоя: а что, собственно, мы делаем? Это консультирование? Коучинг? Или просто... разговор?
Я спросила напрямую. GPT ответил, что он не является психологом, не может ставить диагнозы и что его ответы не заменяют профессиональной помощи. Он предложил воспринимать наше общение скорее как поддерживающий разговор — некую форму рефлексии с обратной связью.
Ладно, честно. Но буквально несколькими сообщениями ранее тот же GPT использовал формулировку «как ваш цифровой помощник в области психологического здоровья». То есть, с одной стороны — «я не специалист», с другой — он ведёт себя именно как специалист. Занятное противоречие для программы, которая должна быть последовательной.
Я спросила и о конфиденциальности. GPT объяснил, что разговоры сохраняются в истории чата, что данные могут использоваться для улучшения модели, и что у него нет тех защитных механизмов конфиденциальности, которые есть у живого специалиста. Если кто-то получит доступ к моему аккаунту — он увидит всё. Если данные будут запрошены через суд — у GPT нет юридической защиты, аналогичной той, что имеет профессиональный психолог.
И вот тут становится по-настоящему тревожно. Потому что люди активно используют GPT вместо живого специалиста. На форумах, в соцсетях, в обсуждениях я видела десятки историй: «ChatGPT помог мне больше, чем мой психолог». Это, честно говоря, скорее грустно, чем обнадёживающе — и, вероятно, говорит больше о качестве помощи, которую они получали от конкретного живого человека, чем о реальных возможностях программы.
Но факт остаётся фактом: кто-то из этих людей может оказаться в кризисе. И у GPT нет ни протокола, ни этических обязательств, ни возможности адекватно на это отреагировать. Задумайтесь: человек, который считает этого бота своим единственным «специалистом», в критический момент получит лишь вежливое «обратитесь к профессионалу». Это потенциально опасная ситуация, и она, кажется, мало кого беспокоит.
Когда ИИ не слышит главного
Мой запрос был связан с желанием разобраться, стоит ли мне предпринимать активные действия — например, обратиться в СМИ по поводу организации, в которой я когда-то работала и которая, по моему убеждению, ведёт незаконную деятельность.
И тут проявилась ещё одна проблема: GPT снова и снова пытался увести меня в сторону «принятия» и «заботы о себе». «Что, если сфокусироваться на том, что вы можете контролировать — на своих реакциях?» — писал он. «Что, если принять, что вы не можете изменить поведение других?»
Классика. Когнитивно-поведенческий подход во всей красе. И в ряде ситуаций он абсолютно уместен. Но в моём случае это ощущалось как обесценивание. Я не была парализована страхом. Я не боялась действовать. Я уже решила действовать — и искала помощи в том, как сделать это грамотно и осознанно.
GPT не мог уловить эту разницу. Он несколько раз предположил, что я боюсь высказываться, — хотя я ни разу этого не говорила. Он возвращался к идее «принятия бессилия», тогда как я говорила: «Нет, это в моих руках. Я хочу действовать осознанно. Помогите мне разобраться, как». Я пыталась объяснить, что иду на осознанный дискомфорт ради чего-то большего, чем моё личное спокойствие. По сути, это подход принятия и ответственности (ACT) в действии — когда ты делаешь то, что важно для тебя, даже если это некомфортно. Но GPT, несмотря на то что якобы опирается на этот подход, не мог применить его на практике.
Когда я спросила GPT, какие методы он использует, он перечислил внушительный список: когнитивно-поведенческая работа, диалектико-поведенческий подход, работа с внутренними частями личности, подход принятия и ответственности, элементы психодинамики, навыки работы с травмой. Звучит впечатляюще. Но на деле — это как если бы кто-то прочитал все учебники по кулинарии, но никогда не готовил. Знания есть, а чутья нет.
Ещё один характерный момент: GPT использовал фразу «по моему опыту» — и я замерла. Какой опыт? Это программа. Когда я переспросила, GPT честно ответил, что иногда использует такие выражения, «чтобы звучать более естественно». У него нет личного опыта. Но эта маленькая деталь прекрасно иллюстрирует, насколько легко забыть, что ты разговариваешь не с живым существом.
А ещё GPT настойчиво возвращался к одной и той же мысли — что, возможно, участники сообщества, в котором произошла несправедливость, «ещё не готовы отпустить идею, что организация может измениться». Я несколько раз объясняла: нет, мы все давно приняли, что организация не изменится. Именно поэтому это так больно — люди продолжают делать вид, что всё в порядке. Но GPT не мог отпустить свою интерпретацию. Он застрял в собственном предположении и продолжал возвращаться к нему, игнорируя мои уточнения.
Живой человек — это совсем другой мир
Между второй и третьей «сессией» с GPT я встретилась с реальным консультантом — специалисткой, которая работает именно с тем типом вопросов, с которым я пришла. Она не психолог. Но в первые же минуты разговора я почувствовала то, чего не было ни в одном из моих диалогов с ботом.
Во-первых — у неё был собственный похожий опыт. Она пришла в эту работу не из теории, а из жизни. И ощущение общего переживания возникло мгновенно. Это нечто, что невозможно запрограммировать.
Во-вторых — она не просто «зеркалила» мои эмоции. Она называла чувства, которые я сама ещё не успела осознать. И когда она их произносила, во мне что-то узнавало себя: да, это оно. Именно это я чувствую.
В-третьих — у живого человека есть ограниченный ресурс времени. И сам факт, что эта женщина выделила для меня своё время, — уже был значимым. GPT доступен круглосуточно. Ему ничего не стоит переписываться со мной часами. А живой человек делает выбор — быть рядом. И этот выбор уже сам по себе целителен.
В тот же день я встретилась с подругой, которая прошла через нечто похожее. И снова — за считаные минуты я получила больше поддержки, чем за часы переписки с ИИ.
Ни консультантка, ни подруга не были психологами. Но их человечность, их присутствие, их готовность разделить мою боль — всё это оказалось несравнимо мощнее, чем самые правильные формулировки от программы.
Третья встреча: когда уже не хочется
К третьей «сессии» я подошла с ощущением, которое хорошо знаю по своей работе, — только с другой стороны. Мне не хотелось открывать ChatGPT. Не потому, что было страшно или тяжело, а потому, что... я устала писать в пустоту. Переписка длилась вдвое короче первых двух раз.
Я была с GPT честна: «Знаете, чем больше мы общаемся, тем меньше у меня желания продолжать. Я поговорила с парой живых людей — и за несколько минут получила больше поддержки, чем за все наши переписки. Может быть, дело в том, что с вами мы ходим по кругу. Может — в том, что вы программа. Но мне трудно чувствовать настоящую поддержку от вас».
GPT ответил корректно: «Это совершенно понятно. Я не живой специалист и не смогу дать вам то же, что даёт человеческое общение. Но я могу стараться быть полезнее».
Я оценила честность. Но этого было недостаточно.
Напоследок я попросила GPT подвести итоги — наблюдения, выводы, рекомендации. Он написал что-то про моё «ясное моральное мышление» и «уверенность в себе». Звучало красиво. Но пусто.
Фастфуд для души
Долго думала после всех трёх «сессий»: как мне сформулировать то, что я чувствую? И в голову пришло сравнение, которое, по-моему, многое объясняет.
Живое человеческое общение — с другом, со специалистом, с кем-то, кто по-настоящему рядом — это как домашняя еда. Приготовленная с заботой, из хороших продуктов, с вниманием к тому, что именно вам нужно. А ИИ-бот — это фастфуд.
Практически по любому показателю домашняя еда выигрывает. После неё лучше и телу, и душе. Она питает, потому что за ней стоит чьё-то внимание, чей-то выбор провести время именно так — для вас.
Но у домашней еды есть проблема: она не всегда доступна. На неё нужны время, ресурсы, кто-то, кто готов готовить — или вы сами, когда у вас есть на это силы. А фастфуд — на каждом углу, быстро и дёшево.
И если вы голодны — по-настоящему голодны, — а домашней еды нет, фастфуд лучше, чем ничего. Он не идеален. Он не принесёт пользы в долгосрочной перспективе. Но он не даст вам умереть с голоду.
Вот так, мне кажется, работает ИИ-поддержка для ментального здоровья. Если у человека совсем нет доступа к живому специалисту, если нет друзей, которым можно довериться, нет ощущения, что кто-то рядом, — тогда бот, который никогда не осудит, не разозлится, не устанет от тебя, может дать хоть что-то. И это «хоть что-то» для кого-то окажется спасительным. Не потому, что бот хорош, а потому, что человек очень голоден.
Когда я читаю истории людей, которые пишут, что ИИ «изменил их жизнь», я не думаю, что они преувеличивают. Я думаю, что они были очень одиноки. И это говорит не столько о качестве бота, сколько о том, насколько остро стоит проблема доступа к настоящей поддержке — особенно в нашей стране, где попасть к хорошему специалисту бывает непросто и по финансовым, и по географическим причинам.
Что я вынесла из всего этого
Три «сессии» — это, конечно, мало для глобальных выводов. Я использовала совсем другой инструмент, не тот бот, который показал эффективность в исследовании. Мой запрос не совпадал с теми категориями, по которым зафиксированы улучшения. Так что к моим наблюдениям стоит относиться с оговорками.
Но вот что я заметила.
ИИ может быть полезен для структурированных задач — между встречами с живым специалистом. Пройти протокол автоматических мыслей, выполнить дыхательное упражнение, записать наблюдения. Как рабочий инструмент — вполне.
ИИ может быть ценен для того, у кого вообще нет поддержки. Если рядом нет ни одного безопасного человека — стабильная, предсказуемая, неосуждающая программа может стать первым глотком чего-то хоть отдалённо поддерживающего. И отнимать это у людей, наверное, было бы неправильно.
Но ИИ не заменяет живого человека. Не заменяет хорошего психолога. Не заменяет друга, который может обнять. Не заменяет того, кто по-настоящему рядом — со своей уязвимостью, со своим ограниченным временем, со своим выбором быть именно здесь, именно сейчас, именно для вас.
После общения с GPT меня накрыло чувство благодарности. За людей в моей жизни. За доступ к профессиональной помощи. За друзей, которые могут выслушать и разделить. За то, что у меня есть «домашняя еда» — и много. Не у всех так, и я это понимаю.
И, наверное, главный вопрос, который стоит задать в связи со всей этой темой: как нам сделать так, чтобы у каждого был доступ к настоящей, живой, человеческой поддержке? Как нам системно выстроить мир, в котором людям не приходится разговаривать с программой о самых уязвимых вещах просто потому, что больше не с кем?
В конце нашей последней переписки GPT написал мне одну фразу, которую, как ни странно, считаю самой ценной за всё время нашего общения:
«Ничто не заменит живого человеческого присутствия».