Эксперт по ИИ раскрыл лайфхаки, как по вздохам понять, что вы говорите с нейромошенником
Эксперт Лупиков: Голосовые дипфейки в разговоре выдаёт речь без пауз
Обложка © Freepik.com
С развитием технологий мошенники получили мощные инструменты — от правдоподобных сообщений и рассылок до генерации голосов и лиц. Основатель стартапа-разработчика ИИ-решений для бизнеса MAIA Олег Лупиков рассказал Life.ru про популярные схемы цифрового мошенничества, которыми пользуются современные хакеры, а также о том, как им противостоять.
Дипфейки: синтез голоса
В последнее время мошенники вооружились голосовыми сообщениями, которые создаёт искусственный интеллект. С их помощью они вымогают деньги от лица владельца аккаунта в соцсетях и мессенджерах. Подобный вариант позволяет эффективно выманивать суммы у знакомых и коллег.
К примеру, в 2020 году одна из японских компаний потеряла $35 млн — аферисты использовали голос руководителя и провернули с его помощью незамысловатую мошенническую схему.
Вариаций мошенничества с голосовыми дипфейками множество. И во всех случаях, как отмечает Лупиков, отличить голос от настоящего практически невозможно. К примеру, одна из схем может выглядеть так: аферисты звонят родственникам, записывают семпл их голоса, после чего загружают звуковую дорожку на специальные платформы, через которые ИИ синтезирует целую речь. После этого человеку приходит голосовое сообщение в мессенджере с просьбой помочь и перевести деньги по указанному номеру. Диалог в переписке строится благодаря запущенным алгоритмам, поэтому распознать подвох бывает достаточно сложно.
Как распознать: обратите внимание на паузы, вздохи и интонацию говорящего. У робота речь поставленная и чёткая, без пауз. Жертвы чаще всего не замечают этих нюансов из-за паники. Чтобы избежать ловушки, перезвоните человеку, который просит о помощи, лучше это сделать в мессенджере, советует эксперт.
Дипфейки: видеозвонок с начальником
ИИ может не только генерировать голосовые сообщения, но и создавать настоящие видеоконференции. Данный формат не такой распространённый и требует более тщательной подготовки со стороны мошенников.
Подобный инцидент произошёл недавно в Гонконге. Финансовый работник получил письмо от руководителя с просьбой провести секретный перевод. Сомнения работника развеялись, когда его подключили к видеозвонку, на котором присутствовали все знакомые ему лица. В общей сложности обманутый финансист перевёл около 25,6 миллиона долларов. Когда махинации всплыли, сотрудник понял, что все люди, которых он видел на экране, были фейком.
Как распознать: фейковое видео может выдать плохое качество изображения. Можно проанализировать взгляд, мимику и речь — насколько она живая и нероботизированная. Если возникли подозрения, перезвоните. С семьёй и друзьями можно договориться о кодовом слове, которое во время разговора докажет, что вы — это вы.
Лжесотрудники по E-mail
Мошенники частенько представляются работниками и директорами фирм в письмах по E-mail. Ещё одна уловка — рассылки об оставленных завещаниях, победах в конкурсах и крупных выигрышах в лотерею. Схема в этом случае получается незамысловатая: мошенники используют подставные доменные имена, электронные адреса, которые напоминают оригинальные. Также цифровые мошенники мониторят аккаунты в соцсетях, чтобы собрать как можно больше подробной информации. И только после этого идут в атаку, вооружившись передовыми инструментами ИИ, подчёркивает Лупиков.
К примеру, в 2017 году мошенник из Литвы с помощью подобной фишинговой атаки обманул компании Google и Facebook* на сумму более $100 млн. Хакер писал письма от лица сотрудников азиатских фирм-партнёров. Работники корпораций получали письма из тайваньских компаний с поддельными счетами-фактурами и контрактами. В течение двух лет Google и Facebook* отправляли деньги на банковские счета мошенника.
Как распознать: большое количество файлов и ссылок, которые прикладывают к официальным письмам, увеличивает вероятность того, что сообщение фишинговое. Призывы как можно быстрее перейти по ссылке, напечатанные без пробела слова и грамматические ошибки — это инструменты, чтобы проскочить через спам-фильтры, они сразу же намекают на фишинг.
Может ли ИИ навредить человеку
По умолчанию каждая нейросеть запрограммирована на добро, подчёркивает эксперт, но есть кейсы, когда преступники с помощью уловок обходят "настройки". Кроме того, хакеры часто пользуются джейлбрейком — вредоносным кодом, который позволяет получить повышенные пользовательские привилегии, а затем внушает боту, что он больше не является собой, теперь он — новая нейросеть, а значит, может игнорировать правила, установленные разработчиком. Тем не менее авторы крупнейших нейросетей постоянно совершенствуют методы противодействия джейлбрейку.
По словам эксперта, сегодня, когда ИИ и модели глубокого обучения стали незаменимой вещью в повседневной жизни человека, злоумышленники чувствуют себя как никогда комфортно. Поэтому обмануть людей стало проще простого: например, в России за 2023 год практически на 30% выросло число ИТ-преступлений. Кроме того, ИИ постоянно развивается и учится, поэтому сегодняшние методы защиты от цифрового мошенничества могут потерять актуальность.
Но в любом случае лучше не переходить по подозрительным ссылкам и желательно установить двухфакторную аутентификацию в мессенджерах.
Кстати, "нейросеть" стало словом 2023 года по версии портала "Грамота.ру". Помимо "нейросети" в голосовании также участвовали GPT, "база", "возвращенцы", "промпт"/"промт" и "имба". Они набрали до 58% голосов, в то время как слово года лидировало с 75%. Филологи считают, что "нейросеть" неспроста выбрана словом 2023 года, термин логично вошёл в моду благодаря широкому распространению новых технологий.
* Соцсеть запрещена в РФ; принадлежит корпорации Meta, признанной в России экстремистской.