Недавно ко мне на приём пришёл пациент (мужчина, возраст 30+) с жалобами на тревожность, неуверенность в себе и трудности в выстраивании близких отношений с людьми.
В ходе общения выяснилось, что до того, как прийти ко мне, он пытался решить свои проблемы с помощью нейросети.
Я уже слышал где-то о том, что ИИ-боты "начали оказывать психологические услуги", но впервые соприкоснулся с этим так близко, услышав историю этого пациента.
Разработчики данной нейросети, по словам пациента, обещали "научить эффективным способам борьбы с тревогой". Сам процесс происходил путём общения в чате в формате "вопрос-ответ".
Пациент проходил данную "психотерапию" в течение нескольких недель, после чего осознал, что "проблема не решена ни на грамм", но теперь появилось "внутреннее неприятное ощущение пустоты, "использованности" и одураченности". При этом, пациент честно признался, что в первые дни "испытывал приятное волнение и заинтересованность процессом, а также серьёзно рассчитывал на то, что терапия окажется эффективной".
Уже некоторое время мы работаем с этим пациентом и, скажу честно, для меня это какой-то необычный новый опыт: никто ещё не приходил ко мне после "курса психотерапии с ИИ-терапевтом".
Эта истории породила во мне много вопросов, заставила задуматься всерьёз о тех угрозах и вызовах, которые несёт собой эра активного развития и внедрения ИИ в нашу жизнь, в частности - в сфере оказания психологической и психотерапевтической помощи.
Считаю, что это - серьёзная проблема, и, в первую очередь, проблема этического характера.
Я уверен, профессионалы поймут и поддержат меня: бесчеловечный бот не способен на столь тонкие и деликатные интервенции в психическую жизнь личности. Вдаваться в подробности здесь не буду: не вижу смысла в подробной аргументации данной точки зрения.
"ИИ-терапевт" - это лишь код, нейросеть. Антропоморфизация в этом случае недопустима!
При всём сегодняшнем уровне развитии ИИ в целом, мы часто, пользуясь его "услугами" сталкиваемся с различного рода "глюками": например, навигатор "ведёт нас тропою Ивана Сусанина" или "умная" станция управления домом вдруг включает свет посреди ночи...
Но эти ошибки - лишь неприятная мелочь, на которую можно закрыть глаза. Ведь и правда же, тот же навигатор - прекрасное изобретение, часто упрощающее нам жизнь и экономящее время.
А вот те "дрова", которые может "наломать" ИИ в области нашей психической жизни...даже думать об этом страшно. Смею предположить, что доморощенный терапевт с двухмесячными курсами "по психологии" - и тот не нанесёт столь много вреда!..
Ещё раз: антропоморфизация (очеловечивание) ИИ недопустима в целом, а сфере "психологических услуг" - тем более! Код не способен к сопереживанию, эмпатии, к выстраиванию терапевтического контакта и отношений в принципе. И не стоит обманываться на этот счёт.
Специалистам это понятно...а вот наших пациентов это может дезинформировать, ввести в заблуждение и привести их к печальным последствиям.
Виду этого, убеждён: одной из наших задач является адекватное информирование широких масс о тех угрозах, которые несёт собою ИИ в области психотерапии и консультирования. Это то, что мы можем делать уже сегодня.
Считаю, что наши уважаемые законодатели при разработке законов о психологической помощи должны также учесть данный аспект и запретить подобные инициативы в любом виде.
А как считаете Вы, коллеги? Что думаете по данному вопросу? Приходили ли к вам уже такие пациенты?