Чат-боты и искусственный интеллект всё чаще используют в медицине, в том числе в роли «психолога». Такая помощь кажется удобной и доступной — поговорил с алгоритмом, получил совет. Но за внешней простотой кроется много подводных камней.
Как объяснила «Газете.Ru» психолог Екатерина Орлова, передача самых личных переживаний машине может быть небезопасной. Речь не только о хакерах — даже если данные обезличены, их можно восстановить и использовать во вред. Например, чтобы манипулировать человеком или ущемлять его права.
Есть и другая проблема: алгоритм не чувствует. Он не видит, как человек говорит, не улавливает паузы, жесты, напряжение в голосе. Всё, что скрыто между строк, может пройти мимо. А ведь именно такие детали говорят о том, насколько человеку тяжело. И если в момент отчаяния ИИ не распознает тревожный сигнал или даст плохой совет — кто понесёт ответственность?
Кроме того, искусственный интеллект учится на текстах, написанных людьми. А люди не всегда объективны. Это значит, что алгоритмы могут воспроизводить стереотипы и предвзято относиться к определённым группам — даже если это не заложено специально.
Ещё один риск — иллюзия замены. Пользователь может подумать, что чат-бот — это и есть психотерапия, и откладывать встречу с настоящим специалистом. Особенно в критические моменты. И в какой момент стоит остановиться и сказать: «Мне нужен живой человек»? Насколько вообще пациенты понимают, что их слова могут анализироваться, сохраняться, использоваться — пусть и якобы во благо?
С одной стороны, ИИ делает психологическую помощь доступнее. С другой — требует от нас новых границ, новых норм. Не исключено, что будущее — за союзом: когда технологии не заменяют человека, а лишь помогают ему, оставаясь инструментом, а не собеседником.