Банковская биометрия в Казахстане начала пропускать дипфейки, позволяя мошенникам оформлять онлайн-кредиты с помощью ИИ. Редакция Bizmedia.kz выяснила, кто виноват и что делать.

Еще в начале 2025 года Национальная платежная корпорация при Нацбанке официально подтвердила факты использования мошенниками дипфейков для обмана систем биометрической идентификации. Нацбанк и Агентство по регулированию и развитию финансового рынка (АРРФР) также неоднократно предупреждали о том, что технологии подмены лиц и голоса научились обходить стандартные алгоритмы верификации.
В связи с этим возник вопрос: повесят ли этот долг на клиента, если банковская система ошиблась и приняла нейросеть за реального человека?
Долги аннулируются
В ответе на официальный запрос редакции в АРРФР ответили однозначно. Ответственность за пропуск дипфейка лежит полностью на банке:
«Риски, связанные с уязвимостью или недостаточной надежностью систем биометрической идентификации, относятся к зоне ответственности кредитной организации», — говорится в ответе АРРФР.
В ведомстве подчеркнули, что если подтвердится факт оформления онлайн-кредита по дипфейку, банк обязан списать долг.
Фильтр для видео
Также в Агентстве заверили, что держат под контролем своевременное обновление безопасности банков. Первые правила биометрии заработали еще с 1 января 2025 года. Однако из-за стремительного развития ИИ нормы пришлось дорабатывать. В 2026 году регуляторы окончательно обязали банки и МФО внедрить технологию Liveness detection.
Она позволяет в режиме реального времени отличать живого человека от сгенерированного нейросетью видео. Все данные, полученные в ходе такой верификации личности, финансовые организации обязаны фиксировать и хранить.
Отсутствие госконтроля и статистики
Однако в АРРФР, по сути, признают наличие существенных пробелов в системе надзора. Судя по ответе ведомства, на сегодняшний день в Казахстане нет государственной сертификации или аудита банковских систем Liveness. При этом Агентство не располагает данными о количестве оспоренных займов, оформленных с использованием дипфейков и подмены голоса. Поэтому сложно сказать, каковы масштабы проблемы использования ИИ мошенниками.
Но с уверенностью можно говорить: если биометрия банка «ошиблась», то это проблема самого банка.