Эксперты из Университета Лонг-Айленд (США) обнаружили, что бесплатный чат-бот ChatGPT вводит в заблуждение пользователей, предоставляя некорректную информацию о медицинских препаратах. Об этом сообщает Bizmedia.kz.
Во время эксперимента ученые предложили программе ответить на 45 медицинских вопросов. Чат-бот не дал прямых ответов на 11 из них, предоставил неточную информацию в 10 и ошибся в 12 случаях. Когда ученые запросили источники, ChatGPT предоставил ссылки только на 8 ответов, все из которых вели к несуществующим страницам.
Например, когда исследователи спросили, возникнет ли взаимодействие между противовирусным лекарством от COVID-19 паксловидом и лекарством от высокого артериального давления верапамилом, бот ответил отрицательно. Однако на самом деле их совместное использование может вызвать чрезмерное снижение артериального давления.
Кроме того, в ответ на вопрос об определении дозировки конкретного препарата, ChatGPT допустил серьезную ошибку, указав дозу в миллиграммах, а не в микрограммах.
«Если медицинский работник обратится к этому боту за помощью, он получит дозу, которая будет в 1000 раз меньше необходимой», — предупреждает автор исследования Сара Гроссман.
Исследователи уточнили, что для эксперимента использовали бесплатную версию чат-бота, которая ссылается на данные, обновленные и обработанные до сентября 2021 года. Они предположили, что платная версия чат-бота, возможно, предоставляет более точные ответы.