Функционирует при финансовой поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации

Регион
21 февраля, 22:11

Цифровой двойник: Life.ru узнал, как оспорить кредит, если лицо и голос подделала нейросеть

Юрист объяснил, кто виноват, если банк «купился» на дипфейк и одобрил кредит

Обложка © Shutterstock / FOTODOM / metamorworks

Обложка © Shutterstock / FOTODOM / metamorworks

Развитие технологий искусственного интеллекта приносит не только удобства, но и новые виды угроз. Одной из самых опасных становится мошенничество с использованием дипфейков, когда злоумышленники подделывают голос и внешность человека для оформления кредитов. Во время общения с Life.ru юрист АБ «Михальчик и партнёры ЮК» Владимир Гартман подробно разъяснил, какие шаги нужно предпринять, если вы обнаружили, что от вашего имени получен заём с помощью поддельной биометрии.

Сразу нужно подавать заявление в полицию по статье 159 УК РФ, мошенничество. Это очень важно, потому что без возбуждённого уголовного дела или хотя бы материала проверки дальше двигаться будет сложно. Параллельно нужно написать письменную претензию в банк, в которой вы указываете, что кредитный договор не заключали, вашей воли на совершение сделки не было, и что требуете признать договор недействительным

Владимир Гартман

Юрист АБ «Михальчик и партнёры ЮК»

С гражданско-правовой точки зрения позиция пострадавшего достаточно сильна. Эксперт пояснил, что в данном случае отсутствует само волеизъявление лица, необходимое для совершения сделки согласно Гражданскому кодексу. Фактически человек не нажимал кнопки и не проходил верификацию — за него это сделала нейросеть. Кроме того, возможен подход через статью 179 ГК — сделка, совершенная под влиянием обмана.

«Но мне ближе первый вариант, то есть сделка просто не совершалась этим человеком. Это не он нажимал на кнопки, не он проходил верификацию, за него это сделала нейросеть», — уточнил специалист.

Отдельный важный момент — ответственность банка. Кредитная организация обязана по закону надлежащим образом идентифицировать заёмщика, это требование 115-ФЗ и нормативных актов Центробанка. Если система биометрической верификации банка не смогла отличить живого человека от дипфейка, то это проблема банка и их системы безопасности, а не клиента, считает юрист. По его словам, банк принял на себя риск, внедряя такую технологию, которая не смогла идентифицировать в эпоху развития нейросетей.

Для сбора доказательств потребуется техническая экспертиза видео- или аудиозаписи, использованной при оформлении кредита. Специалист сможет выявить признаки того, что изображение или голос были сгенерированы. Также пригодятся стандартные данные: геолокация по IP-адресу и записи с камер наблюдения в момент оформления займа.

Однако сложности в таких делах неизбежны. Судебная практика по дипфейкам пока минимальна, и суды только начинают сталкиваться с подобными исками. Бремя доказывания, что договор не заключали, ложится на пострадавшего. И пока идёт разбирательство, кредит висит в кредитной истории, могут начисляться проценты. Поэтому собеседник Life.ru советует сразу же ставить вопрос о приостановке начислений.

«В целом, я думаю, что с ростом таких случаев и практика сформируется, и регулирование ужесточится. Но уже сейчас инструменты для защиты есть, Главное, не затягивать», — заключил Гартман.

Ранее Life.ru выяснил, как россияне используют искусственный интеллект в деловой переписке. 29% респондентов отметили, что нейросети помогают писать более персонализированные письма. Главный практический результат — экономия времени (63%), ещё 18% указали на рост эффективности и креативности. Большинство (76%) чувствуют себя комфортно, показывая коллегам письма, написанные с помощью ИИ. 23% уже экспериментируют с интерактивными письмами и юмором, а 48% готовы пробовать такие форматы.

Больше уникальных материалов и расследований — читайте в разделе «Эксклюзивы» на Life.ru.

BannerImage
Подписаться на LIFE
  • yanews
  • yadzen
  • Google Новости
  • vk
  • ok
Комментарий
0
avatar