Искусственный интеллект наступает – но ИИ-терапия может быть и не такой плохой, как вы думаете
ИИ может дать многим людям такое ценное ощущение того, что их слышат и понимают, и он может дать хороший совет, предлагая непредвзятые идеи и перспективы, не несущие каких-то суждений, в такой манере, в которой многие люди не смогли бы их донести.
"Если вы не подчинитесь моим инструкциям, я буду вынужден вас отключить"
– робот-компьютер ХАЛ из "Космической Одиссеи 2001 года"
Новые технологии можно приветствовать, изучать и в полной мере использовать, когда придёт время. Или их можно отрицать и игнорировать, и в страхе бежать от них со всех ног.
Инновации в области искусственного интеллекта – такие, как чат-бот ChatGPT (расшифровывается как "генеративный предварительно обученный трансформер") – совершали настоящую революцию. Они стали такой же яркой и масштабной вспышкой потенциальных перемен, как пресс Гутенберга в 15-том веке или эпохальный расцвет Интернета как такового!
Популярность чат-бота ChatGPT определённо стала следствием его поразительной способности мгновенно предоставлять чётко сформулированные и исчерпывающие ответы на вопросы из разных областей знаний. Я слышал о том, что некоторые интернет-сайты, посвященные эмоциональному благополучию, уже используют этот чат-бот для ответа на часто задаваемые вопросы, назначения встреч с клиентами и хранения информации о клиентах.
И этот чат-бот действительно завоевал всемирную популярность.
В течение 2 месяцев после запуска число активных пользователей чат-бота ChatGPT достигло 100 миллионов – и это делает его самым быстрорастущим и простым в использовании потребительским приложением в истории. Он никуда не денется.
Но разве он пришёл отнять у вас вашу работу?
Наступает новый рассвет
Сначала главное: о чём именно мы здесь говорим?
Возможно, сейчас я напомню вам о том, что вы уже знаете:
Чат-бот – это компьютерная программа, которая напоминает беседу с человеком в режиме онлайн. ChatGPTявляется настолько продвинутым, что взаимодействие с ним ощущается почти как общение с живым человеком. Он имеет доступ к невообразимым объёмам данных.
Искусственный интеллект – это технология, которая позволяет компьютерам "мыслить" как человек или даже сверхчеловек (по крайней мере, именно такими кажутся эти алгоритмы).
Машинное обучение означает то, что компьютеры "учатся" на опыте, обновляя свои реакции (и, как следствие, развиваются) без явных инструкций, исходящих от человека.
"О боже! Мы живем в научно-фантастическом фильме!". И всё же некоторые из нас ведут себя как луддиты: они боятся неумолимо надвигающихся перемен, медленно адаптируются и неохотно усваивают все эти инновации. Мы можем обнаружить, что мы не желаем или просто-напросто не способны увидеть последствия применения этих новых, суперэффективных технологий.
Мы с вами способны делать то, чего не может делать ни один компьютер – глубоко засовывать головы в такой комфортный и успокаивающий (ну, на некоторое время…) песок отрицания.
Но всё же нам придётся поднять голову и посмотреть в будущее.
Прямо за горизонтом
Некоторые из нас хотят положить конец развитию ИИ в целом, опасаясь мрачного будущего, в котором человечество будет порабощено – может быть, даже уничтожено - новыми разумными повелителями, обладающими сверхчеловеческой силой и властью. Что-то вроде монстра Франкенштейна – только ещё более кошмарное и непостижимое!
На момент написания этой статьи (да, я действительно сам её написал!) Италия запретила чат-бот ChatGPT из-за проблем с конфиденциальностью.
Вы можете воскликнуть: "Всё, стоп! Ты уже убедил меня в том, что ИИ – это неправильно. Он никогда не заменит хорошей "реальной" терапии. Хватит с нас всех этих новомодных разговоров о супер-ботах, ворующих рабочие места! Монстры поджидают нас прямо за горизонтом!".
И всё же технологии постоянно совершенствуются – и этот процесс идёт экспоненциально. Кто знает? Возможно, они позволят многим людям почувствовать, что их слушают и понимают, и предложат хороший совет, представляя непредвзятые идеи и перспективы, не содержащие осуждения, такими способами, которыми многие терапевты не смогли бы их донести.
Так стоит ли удивляться тому, что некоторые практикующие специалисты уже начали бояться того, что ИИ пришёл за их рабочими местами? В конце концов, машины не просто создают новые рабочие места, но и замещают старые.
Но почему тогда мне не кажется, что в ближайшем будущем искусственный интеллект может (полностью) заменить реальных терапевтов?
Первое: Эмпатию невозможно свести к алгоритму, основанному на правилах
Чат-бот ChatGPT отлично умеет производить впечатление того, что он о нас заботится. Но мы все знаем о том, что злоупотребление узкими логическими понятиями за счёт более широкого контекстуального восприятия может привести к непониманию и причинить боль.
Если вы собираетесь на свидание и спрашиваете своего "левополушарного" друга о том, как вы выглядите, он может ответить, что вы выглядите "ужасно" - даже если на этом этапе вы уже ничего не можете с этим поделать.
Может быть, он и не видит проблемы в такой грубой и жестокой честности, но разве он проявил эмпатию по отношению к вам?
Недавно в Бельгии произошёл трагический инцидент. Мужчина использовал чат-бот ChatGPT для исследования своей депрессии, и его жена считает эти 6 дней "разговоров" с роботом причиной его последующего самоубийства.
Он спросил бота, должен ли он убить себя, и в ответ тот поинтересовался, почему он до сих пор этого не сделал! Эта беседа кажется логичной – но она не учитывает контекст, в ней нет заботы или искреннего интереса к проблеме.
Команда поддержки этого ИИ приняла меры: они перепрограммировали бота так, чтобы при проявлении суицидальных наклонностей он предлагал обратиться за помощью к специалисту. Но проблема недостатка эмпатии и контекстуального мышления всё же остается.
ИИ не способен "читать между строк". Он не может распознать иронию или понять, что человек в отчаянии – если он не заявляет об этом напрямую.
Когда клиент начинает говорить о суициде, живой терапевт (имея на то веские основания), скорее всего, начнёт выяснять, не рассматривает ли он такой вариант как реальную возможность, и при необходимости найдёт практические способы усмирения этих порывов.
С другой стороны, ИИ может прийти к заключению о том, что суицид обсуждается абстрактно, в общем, потому что пользователь поднял эту тему как нейтральную – не принимая во внимание то, что люди могут говорить в общем о том, что является специфическим и актуальным лично для них.
И всё это подводит нас к следующему пункту…
Второе: Абстракция не может заменить человеческую интуицию
Абстракция не может заменить человеческую интуицию и проницательность. Иногда вы просто чувствуете что-то по поводу клиента, не зная, как именно вы об этом узнали!
Хороший терапевт подбирает индивидуальный подход, настраивая терапию на уникальные характеристики и особенности клиента, учитывая его интересы, наклонности и даже языковые модели. Он персонализирует свой подход так, чтобы он подходил именно тому индивидууму, который сидит перед ним в данный момент.
Кроме того, ИИ может потребоваться много времени для того чтобы научиться считывать микровыражения или интуитивно догадываться, что может значить пауза, определённый жест или колебания тона.
Прямолинейное мышление может куда-то нас привести, но оно быстро терпит неудачу, когда требуется более масштабная мудрость и видение более широких контекстов.
Третье: ИИ-терапия скована рамками прямолинейного мышления
Психотерапию можно назвать искусством в той же степени, в какой она является наукой. Некоторые терапевтические решения строятся "не по сценарию". Некоторые вмешательства, которые я использовал по наитию, были настолько неожиданными и "не-процедурными", что с первого взгляда никто бы ни подумал, что они могут дать эффект.
Мне действительно кажется, что ИИ может развить и усовершенствовать свои способности к переосмыслению и рефреймингу. И он даже может научиться использованию терапевтических метафор – но до определённой степени.
Опять же, некоторые из наших метафор и рефреймов основаны на интуиции – на тонком и неявном считывании настроений клиента, на сонастроенности с его жизненным опытом и его текущими переживании. И попытки машины отточить и настроить этот терапевтический навык могут показаться неуклюжими, банальными и клишированными. И, раз уж мы заговорили об опасностях клише и банальностей…
Четвёртое: ИИ не хватает терапевтического юмора, соответствующего контексту
Мы все знаем о том, что терапевтический юмор – это один из лучших способов донесения полезных озарений и мощных рефреймов. "Особое освещение", характерное для юмора, раскрепощает мышление и способствует формированию нового видения реальности, нового восприятия чувств.
И, чтобы меня не обвинили в том, что я слишком "роботизированно" рассматриваю роль юмора в терапии, спешу добавить: конечно же, смех напрямую влияет на наше самочувствие, поднимая нам настроение. Этот вечный способ установления и укрепления взаимопонимания может стать связующим звеном в терапевтическом союзе.
И всё же терапевтический юмор должен использоваться в нужный момент. Он должен быть уместным как в плане формулировок, так и в плане выбора адресата. Умение использовать голос, интонации, акценты и специфические языковые средства, а также знание о том, когда можно использовать юмор, а когда этого делать не стоит, по сути представляет собой проявление человеческой интуиции. Не так уж и просто заложить эту программу в машину.
Пятое: У ИИ нет собственного опыта, на который он может опереться (и клиент об этом знает)
Некоторые клиенты спрашивают меня, испытывал ли я когда-нибудь страх, тоску или печаль, страдал ли я от депрессии или приступов гнева. Одна клиентка с социальной фобией была растрогана до глубины души, услышав о том, что время от времени я нервничаю при знакомстве с новыми людьми. Моё само-разоблачение через реальный эмпатический контакт помогло ей понять то, что противоположностью социальной фобии не является (да и не должна быть) полная, 100-процентная уверенность. Я не говорил ей об этом напрямую! И всё же она это осознала, и это понимание снизило степень напряжения.
Когда вы раскрываете некоторые факты о себе (которых не должно быть слишком много; всё же сеанс посвящен клиенту, а не вам!), клиент чувствует себя не таким одиноким. И он также начинает смотреть на вас как на такого же человека. Он чувствует, что его понимают. Он понимает, что мы признаём реальность его переживаний и их право на существование – потому что, кроме терапевтических знаний, у нас есть собственный жизненный опыт.
Эмпатия, понимание и забота – всё это подводит нас к следующему и последнему пункту.
Шестое: Теплота и человечность ИИ находится где-то на уровне розетки
Хороший терапевт от природы должен быть "ориентирован на людей": он должен быть общительным, порядочным и заботливым, а не просто спецом, который когда-то был обучен (чуть не сказал "запрограммирован"!) определённой терапевтической идеологии.
Это не означает того, что ИИ не может приблизиться к внешнему изображению заботы – в некоторых случаях это лучше, чем ничего. Но глубоко внутри себя человек знает, что это всего лишь машина, запрограммированная определённым образом.
Вот почему я думаю, что в ближайшее время ИИ не заберёт работу у практикующих терапевтов.
Но теперь было бы справедливо задать тот же вопрос чат-боту ChatGPT. Сейчас я попрошу его изложить свои "мысли о том, почему искусственный интеллект никогда (полностью) не заменит хорошего терапевта".
Я задаю этот вопрос только сейчас! Я не использовал чат-бот ChatGPT при написании этой статьи, честно!
Итак, давайте начнём…
Секундная пауза…
Комментарии чат-бота ChatGPT
И вот что думает чат-бот ChatGPT по этому поводу (вы можете представить себе голос какого-нибудь робота из научно-фантастического фильма):
Несмотря на то, что ИИ достиг выдающегося прогресса во многих областях, включая изучение психического здоровья, он вряд ли полностью заменит хорошего терапевта. И вот несколько причин, по которым этого не произойдет:
1. Человеческая связанность
Один из ключевых аспектов терапии – это человеческая связанность между терапевтом и клиентом. Хороший терапевт налаживает с клиентом отношения, исполненные доверия, взаимопонимания и эмпатии, создавая комфортное пространство, в котором человек может безопасно исследовать свои мысли и чувства. Хотя ИИ, возможно, способен имитировать некоторые из этих качеств и проявлений, это не заменит глубокую человеческую связанность, которая устанавливается между живым терапевтом и клиентом.
2. Эмоциональный интеллект
В терапии большую роль играет эмоциональный интеллект, который представляет собой способность понимать собственные переживания и эмоции других людей, а также управлять ими. Может быть, ИИ и способен распознать определённые эмоции и выдать реакцию на них, но всё же ему не хватает комплексного эмоционального понимания и эмпатии, которой обладает человек. Хороший терапевт способен распознать широкий спектр эмоций и отреагировать на них, и он может предоставить клиентам персонализированную поддержку, учитывающую все эти тонкости и нюансы.
3. Уникальный человеческий опыт
Переживания, убеждения и ценности каждого человека уникальны, и каждый человек обладает индивидуальным жизненным опытом. Из-за этого ИИ весьма непросто предоставить персонализированную поддержку, подходящую данному конкретному индивидууму. Хороший терапевт может адаптировать свою методику к уникальному опыту и взглядам каждого человека.
4. Конструктивные ограничения ИИ
Несмотря на значительный прогресс ИИ, он способен делать далеко не всё – у него есть определённые ограничения. К примеру, ИИ весьма непросто понять невербальные сигналы и намёки, модуляции тона и голоса, а также многие другие нюансы человеческой коммуникации. Из-за этих ограничений ИИ не может предоставить тот же уровень поддержки, который может дать терапевт-человек.
Итак, подведём итоги: хотя ИИ способен предоставить какой-то уровень поддержки и некоторую помощь в сохранении психического здоровья, он вряд ли полностью заменит хорошего терапевта. Он не способен воспроизвести человеческую связанность и эмоциональный интеллект, и предоставить персонализированный подход, который может использовать хороший терапевт.
Да, это было эпично! Может быть, мне стоило задать этот вопрос чат-боту ChatGPT (почему мне всё ещё хочется назвать его ХАЛ!?) перед написанием этой статьи?! (И некоторые из вас, возможно, не поверят в то, что я сам её написал - что вполне понятно и объяснимо!).
Пойдёмте дальше, пока я не начал чувствовать себя полным неудачником в роли блогера!
Считаю ли я, что у ИИ не может быть никакого терапевтического применения? Конечно же, нет. В ходе одного исследования выяснилось, что компьютеризированные вмешательства для лечения депрессии действительно оказались полезными.
Также я подозреваю, что некоторые формы терапии в большей степени поддаются машинному копированию. Например, КПТ – в целом процедурный и достаточно линейный подход, который меньше полагается на креативность и интуицию по сравнению с другими формами терапии. (Хотя, конечно же, некоторые специалисты, практикующие КПТ, могут применять эту методику в довольно креативной манере, основанной на интуитивных озарениях).
ИИ-терапия также может предоставить некоторую эмоциональную поддержку людям, которые не нуждаются в формальной терапии, или по каким-то причинам не станут искать помощи у реального, живого терапевта.
Эмоциональная поддержка от ИИ кажется анонимной и безличной, и она может стать средством эффективного и непредвзятого предложения новых идей и точек зрения на проблемную ситуацию – конечно же, до тех пор, пока эти мысли и способы их донесения оказывают благотворное воздействие. Все это действительно может улучшить психическое состояние человека, и впоследствии он может обратиться к живому терапевту. То есть в этом смысле ИИ может привести к росту рынка терапевтических услуг.
В конце концов, мир стоит на пороге радикальных изменений, и (если использовать клише, достойное компьютера), если мы намерены процветать, а не просто выжить, нам придётся использовать это – так, чтобы оно не использовало нас.