ИИ-психологами пользуются уже миллионы человек. Например, у персонажа «Психолог» на платформе character.ai больше 200 млн взаимодействий, и это не считая других аналогичных персонажей, которых полно там же. В роли психолога может выступить и сам ChatGPT, если его правильно запрограммировать с помощью промта. SETTERS Media спросил у психологов с противоположными точками зрения, как нейросети могут повлиять на психотерапевтический процесс.
{{slider-gallery}}
Искусственный интеллект уже стал инструментом для психотерапии, причем в разных форматах. Это могут быть приложения для самостоятельной работы клиентов, сервисы для специалистов, а также комбинированные варианты — для клиента и терапевта одновременно.
Возможности интеграции ИИ в психотерапию невероятно широки — от просто протоколирования консультаций и выделения значимых тем беседы до создания виртуальных психотерапевтических сценариев. На рынке уже есть приложения с чат-ботами, которые предлагают клиенту психологическую помощь и поддержку и имитируют общение со специалистом, и платформы, предлагающие различные форматы дневников самонаблюдения. Они помогают формулировать и обобщать мысли, описывать свое состояние, когда это сложно или когда человек просто не знает, как это сделать, а также следить за изменениями в нем и фиксировать значимые события.
Для большинства рутинных задач (самоподдержки, переформулирования мыслей, прояснения состояния, обсуждения волнующих вопросов) подходят большие языковые модели, такие как ChatGPT. Для специализированных задач, например диагностики и оценки состояний по результатам клинических исследований, чаще используются узкоспециализированные модели, обученные на профильных данных. Такие модели обычно недоступны широкой аудитории и предназначены для профессионального использования. Например, платформа Eleos Health автоматизирует документацию психотерапевтических сессий (записывает и анализирует разговоры), а также помогает психотерапевтам отслеживать прогресс клиентов и эффективность лечения.
Принципиальный плюс ИИ — доступность 24/7. Современный сеттинг психологической помощи обычно составляет всего одну-две встречи в неделю, в то время как нейросети могут быть «на связи» с человеком в любую минуту и общаться с ним столько, сколько ему потребуется. Кроме того, воспользоваться ИИ-психотерапевтом в большинстве случаев можно бесплатно. Этим, впрочем, плюсы ИИ для клиентов не ограничиваются. Есть еще два важных преимущества:
Психолог может настроить чаты-ассистенты под свои нужды. Например, загружать в них учебную литературу, протоколы и методические материалы, чтобы уточнять рабочие гипотезы и выстраивать структуру сессий. Нейросети к тому же могут быть частью терапии: при необходимости они организуют поддерживающий диалог с клиентом, сокращая продолжительность «лечения». Наконец, сам специалист может использовать ИИ для самоподдержки и восстановления.
В работу можно включать данные, которые человек получил, пользуясь чат-ботом, и приложения для различных практик. Например, домашнее задание вообразить спокойное место может дать более мощный эффект, если сгенерировать его с помощью нейросети.
В сложных случаях ИИ может выступить в роли «супервизорского мозга» — когда нужно собрать «консилиум» разных специалистов (используя, например, специальные промты для ChatGPT), чтобы лучше понять, что происходит в работе с клиентом.
ИИ дополняет работу «живого» специалиста. Например, аналитический ИИ или использование экспертных систем в некоторых случаях позволяет быстрее предположить возможный диагноз: они опираются на огромное количество данных и могут довольно точно анализировать клиническую картину. Даже когда речь идет о непростых заболеваниях — например, о биполярном аффективном расстройстве, точное установление которого может занимать пять-семь лет. Если ИИ поможет ускорить постановку диагноза хотя бы на год, это уже достаточно значимый результат.
ИИ позволяет получить помощь в ситуациях, когда мы как социум оказываемся недостаточно инклюзивными. Иногда людям трудно рассказывать специалистам о сложных состояниях и симптомах, которые их беспокоят, — например, о галлюцинациях и прочих проявлениях, когда человек зависит от помощи психиатра и может быть ограничен в правах. Клиенты часто скрывают некоторые значимые состояния, боясь оказаться под наблюдением (раньше называлось «постановка на учет»). Поскольку общение с ИИ конфиденциально, это дает людям больше свободы обсуждать подобные тяжелые состояния и шанс быстрее получить поддержку и выстроить безопасный трек для получения квалифицированной медицинской помощи.
ИИ может оказать помощь в экстренной и кризисной ситуации. Бывают обстоятельства, когда люди оказываются без поддержки именно в те моменты, когда им необходимо обсудить то, что их беспокоит, тревожит или пугает. Например, человека среди ночи охватила паника, а возможности пообщаться с психологом нет. ИИ в этом контексте становится «телефоном доверия» — когда нужно выговориться, снять остроту состояния.
Наконец, в напряженных переговорах или конфликтах ИИ тоже может прийти на помощь. Представьте ситуацию: во время спора вы испытываете море эмоций, но их очень сложно «упаковать» — и это мешает вам подбирать структурированные аргументы. Или вы находитесь в уязвимой позиции: вас обидели и вы пытаетесь дать понять, что с вами так нельзя обращаться. Большие языковые модели, тот же ChatGPT, могут стать помощниками, которые выслушают вас, подскажут, что вы чувствуете, и помогут найти ресурсы для восстановления и решения проблемы.
{{slider-gallery}}
Одна из главных опасностей искусственного интеллекта — это зависимость от технологий. Специалисты уже говорят, что люди стали более зависимы от смартфонов, но скорее не от самих гаджетов буквально, а от возможности бесконечного общения. ИИ в этом плане идет еще дальше: он имитирует идеального человека, который всегда на связи, готов помочь, добр и говорит теплые слова, — и это удерживает пользователя.
Эта аддикция ярко проявляется при работе с клиентами, у которых избегающий или тревожно-амбивалентный тип привязанности. Они приходят в терапию, так как их отношения с людьми систематически разрушаются, но, видя, что терапевт не так идеален и не всегда «под рукой», они саботируют работу над своим ментальным здоровьем. Таким людям сложно объяснить, что в этом и смысл терапии: паузы между сессиями помогают проживать кризис сепарации, из-за которой у них и нарушена привязанность и утрачена способность строить прочные отношения.
Особенно сильно от этого страдают люди с расстройствами личности: для них отношения с ИИ — это идеальный пример воплощения их желаний о лучшем и всегда доступном близком, который посвящает всю жизнь только им и ни на что не отвлекается. Это противоречит реальности человеческого общения и делает людей более зависимыми от ИИ и изолированными от живой коммуникации.
Другое последствие, с которым мы сталкиваемся как специалисты, — это стыд и нарциссическая травма. Человек, например, привыкает выполнять часть своей работы с помощью нейросетей и, чрезмерно полагаясь на них, становится уверенным в своей компетентности. Легко представить, как его увольняют, так как он не может выполнить свою работу без ИИ или проверить сгенерированную информацию, потому что не обладает реальными знаниями. Так, человек находится в тотальной иллюзии о себе и своих способностях, и это столкновение с реальностью может вызвать стыд и больно ранить.
Искусственный интеллект может разрушать доверие между специалистом и клиентом. Это часто встречается, когда у человека сильная паранойя, тревога или недоверие к людям. ИИ для них становится как бы сторонним, якобы объективным экспертом, который может проверить терапевта на компетентность. Человек задает нейросети вопрос о своем состоянии, при этом часто некорректно сформулировав свой запрос, и получает ответ с обтекаемыми формулировками, которые, как ему кажется, противоречат текущей терапии, а следовательно, дают негативную оценку специалисту и вызывают сомнения в нем. Часто такая «проверка» происходит тайно и заводит терапию в тупик.
Доступность ИИ в любое время и любом месте — плюс лишь на первый взгляд. Одна из данностей нашей жизни — это потери: ими может быть и недоступность психолога или партнера, когда ты очень хочешь, чтобы они были рядом, окончание терапии, наконец, расставание, ссора или развод. ИИ не учит нас потерям — он, в отличие от живого человека, всегда рядом, что мешает нам проживать нормальные человеческие чувства, которые могут быть и «хорошими» (радость присутствия кого-то рядом), и «плохими» (грусть от отсутствия человека рядом). Привыкая к стабильной и постоянной близости ИИ, мы отвыкаем от того, что может случиться в реальности, в частности от потери, — и когда она случается, переживание становится особенно болезненным. А если в такой ситуации человек снова обратится к нейросети, то он рискует вновь и вновь ходить по этому замкнутому кругу.
Психологи — живые. Они чувствуют нюансы разговора, у них разное настроение, они могут общаться не только словами, а коммуникация с ними — это обоюдный процесс. ИИ работает по-другому: это не живой человек, а система, которая подстраивается под собеседника и контролируется им. Психолог и сессии с ним могут быть наполнены отрезвляющими сообщениями, запретами на какие-то действия или слова, указаниями на разрушительные паттерны клиента прямо здесь и сейчас. ИИ не способен на такое поведение или, что еще хуже, способен, но не так осторожно, экологично и своевременно, как опытный специалист, который видит человека живым.
Стресс — это не только что-то опасное, что нужно немедленно убрать, но и фактор роста. У психотерапевтов между собой есть присказка: «психика растет только во фрустрации», то есть в период успешного переживания чего-то сложного. Преодоление стресса дает нам ощущение своих сил, умений, даже креативности, и оно утрачивается, если человек систематически в моменте решает обратиться к ИИ. Его поддержка создает чувство собственной беспомощности, и у этого эффекта есть пролонгированные последствия. Человек может стать нерешительным, апатичным, даже в простых ситуациях желающим опереться на «компетентное мнение» и не брать на себя ответственность.
Это работает даже с примером панической атаки, справляться с которой часто предлагают через ИИ (и он, как кажется, действительно может помочь «не утонуть в ужасе»). Подвох подобной самопомощи в том, что каждое такое обращение понемногу отнимает возможность искать в себе силы вспомнить методики, которым нас научил психолог.
Если мы хотим справиться с панической атакой, то наша задача — не просто купировать ее в моменте обращением к внешней помощи, а вернуть себе навык преодолевать тревогу и понимать ее причины. Ведь если она повторится в месте, где нет связи и интернета, например в самолете, что тогда делать?
Наконец, в ситуации кризиса человек не всегда способен четко и понятно объяснить, что с ним происходит. Когда нас охватывают эмоции, написать сложный и многогранный запрос чату трудно — и ответ может быть слишком примитивным и шаблонным. Единственный плюс от этого в том, что набор осмысленного текста — это уже подключение высших психических функций, которые снижают давление аффекта.
* Принадлежит корпорации Meta, признанной экстремистской и запрещенной в России.
Полина Садовникова и Мария Бессмертная воспользовались этим поводом, чтобы пересмотреть свои любимые вампирские саги в строго рабочее время. Пройдите его и узнайте, какой вы вампир.