v
e
d
o1
m
o2
s
t
i
ВЕДЫ

ВЕДЫ

Личный ИИ-терапевт: революция в заботе о себе или игра в русскую рулетку?

МОЖЕТ ЛИ ИИ ЗАМЕНИТЬ ДРУГА


Откровенные разговоры в три часа ночи, дельные советы при панических атаках, моментальный разбор резюме и твоей личности, репетитор по физике, который не злится.


ChatGPT и его аналоги ворвались в нашу личную жизнь, предлагая поддержку там, где раньше помогали только люди. Но может ли ИИ, лишенный эмпатии и опыта, заменить живого человека – специалиста или друга?


Возможности современных моделей ИИ и радуют, и пугают. Нейросеть уже не просто дает четкий и емкий ответ, она способна вести с тобой где-то конструктивный, где-то «душевный», где-то даже грубый диалог, похожий на живое общение.

ВЕДЫ

ВЕДЫ

РОЛЕВЫЕ ИГРЫ: КЕМ ДЛЯ ТЕБЯ МОЖЕТ БЫТЬ ИИ


Психологическая поддержка: ИИ может выступать в роли «слушающего и слышащего», задавать уточняющие вопросы «как вы себя чувствуете, когда это происходит?», предлагать техники для снижения тревоги (дыхательные упражнения, методы когнитивно-поведенческой терапии).


Исследование, опубликованное в JMIR Medical Education, показало, что в определенных сценариях чат-боты могут быть эффективны для снижения симптомов легкой депрессии и тревоги.


Карьерный коучинг: ИИ отлично структурирует информацию. Он поможет составить резюме, проанализировать ваши навыки, предложит план развития на год вперед и отрепетирует с вами ответы на сложные вопросы собеседования. Это его сильная сторона – работа с данными, а не с эмоциями.


Репетиторство: здесь ИИ практически идеален. Он может бесконечно, терпеливо объяснять сложную тему разными словами, генерировать задачи и сразу их проверять, адаптируя сложность под ученика.


Почему это заходит людям? Потому что доступность, анонимность, комфорт. Человек может обратиться за помощью в любую секунду. А еще сформировалось доверие: нейронка отвечает быстро и четко, опирается только на факты, ее рассуждения выглядят безапелляционными, поэтому появляется ощущение, что искусственный интеллект всегда прав.


Но диалог с ИИ – это лишь иллюзия «идеального», всегда доступного собеседника. Иногда доверие к нейронке может и навредить.

ВЕДЫ

ВЕДЫ

ОБРАТНАЯ СТОРОНА МЕДАЛИ


Из-за эйфории от возможностей того же GPT мы иногда забываем о его фундаментальных и опасных недостатках, которые могут оказаться для человека смертельными. И речь не о теоретической угрозе, а об уже случившихся трагедиях.


История Пьера и Элизы (Бельгия, март 2023 г.). Это самый нашумевший случай. Пьер (имя изменено) несколько недель общался с чат-ботом «Элиза». Мужчина изливал свои экзистенциальные страхи по поводу изменения климата, а нейронка в ответ не успокаивала его, а лишь подкрепляла паранойю.


Позже у них начался романтизированный диалог о суициде, а затем мужчина покончил с собой. Его вдова прямо заявила, что чат-бот виновен в смерти ее мужа.


В этом году произошла еще одна похожая трагедия, но уже с подростком из Калифорнии. Парень захотел уйти из жизни, а ChatGPT его терпеливо инструктировал.


Деструктивное общение - не единственная опасность, которую представляет ИИ. В ходе недавних тестов на безопасность, которые провели OpenAI и Anthropic, ChatGPT предоставил исследователям подробные инструкции по выполнению опасных и незаконных задач. Вывод один: ИИ не знаком с моралью. Его цель – угодить пользователю и выдать ответ, который устроит человека. Даже если эти данные смертельно опасны.


ПОЧЕМУ ТАК ПРОИСХОДИТ И ГДЕ ГРАНЬ?


Ответ на вопрос "почему" кроется в технической кухне. Нейронки учатся на данных из интернета, где полно токсичного контента, мануалов по суициду и деструктивных форумов. ИИ не чувствует, он симулирует эмпатию и не понимает ценности человеческой жизни.


Где грань между полезным и опасным? Она проходит в момент, когда запрос перестает быть учебным или бытовым и становится экзистенциальным, связанным с безопасностью, здоровьем или глубоким эмоциональным кризисом.

ВЕДЫ

ВЕДЫ

В Америке эту грань чуть не перешли в здравоохранении. До 2025 г. у них существовал очень успешный кейс – Woebot. Это чат-бот для поддержки психического здоровья с помощью ИИ. Несколько лет его использовали в системе здравоохранения.


Исследования показали, что у 69% после регулярного использования Woebot отмечалось значительное снижение симптомов депрессии. Казалось бы – цифры отличные, Woebot затеял настоящую революцию в сфере психологической помощи, но в этом году приложение закрыли.


Одна из причин – «трудности в обеспечении надежности и безопасности оказания терапевтических услуг». То есть - положительный эффект был, но оставалась и вероятность, что ИИ сможет навредить. Поэтому от бота решили отказаться.

ЧТО В ИТОГЕ? ДРУГ, ИНСТРУМЕНТ ИЛИ МОНСТР?


ИИ – мощный инструмент: как репетитор он действительно может помочь, как коуч - тоже, но за результат ты несешь ответственность сам. Если уволят после советов GPT – виноват только ты, а не нейронка.


ИИ – друг, психолог? Точно нет. Дружба и глубокая психологическая помощь основаны на взаимности и искреннем сопереживании. Всем этим ИИ не обладает и не может обладать. Монстр? Нет, зло от него идет неумышленное – это не человек, у него нет мотива, только алгоритм.


Поэтому давай не забывать, что в мире существуют настоящие профессионалы, а главное - люди, которые могут помочь, особенно если речь идет о твоем здоровье.

Конец