Кибермошенники в прошлом году чаще всего звонили россиянам по видео под видом столичного мэра и замминистра МВД. Всего зафиксировано почти 100 дипфейков с участием этих двух узнаваемых персон. При этом мошенничество с использованием ИИ принесло преступникам в 4,5 раза больше прибыли. В 2025 году в России при общем снижении случаев кибермошенничества на 6 миллиардов вырос ущерб, который ими причинен. Об этом заявил на академических слушаниях, прошедших в МГИМО, зам. директора Росфинмониторинга Герман Негляд.
Фото: Алексей Меринов
тестовый баннер под заглавное изображение
Ректор Университета прокуратуры Игорь Мацкевич заявил, что человеческие глаз и ухо уже не способны распознавать новые дипфейки. Представители других ведомств с ним единодушно согласились и предложили внести изменения в УК РФ, квалифицируя использование ИИ в преступных целях как отягчающее обстоятельство. Но вряд ли это напугает злоумышленников… Мы живем в новом мире, где велик риск запутаться: что реальность, а что иллюзия.
Обо всем этом — беседа обозревателя «365NEWS», члена СПЧ с главой «Белого Интернета», профессором МГИМО МИД России Элиной СИДОРЕНКО.
Как украсть 25 миллионов$
— Элина Леонидовна, на академических слушаниях, что вы проводили, несколько раз звучала история с миллионами долларов, перечисленными после фейковой видеоконференции. Как это произошло?
— Случай с компанией Arup в Гонконге в начале 2024 года — это не просто финансовое преступление. Это эпизод, который переписывает наше понимание того, что значит «быть свидетелем». Напомню фабулу. Сотрудник компании получил приглашение на видеоконференцию, присоединился к ней и встретился лицом к лицу (если так можно выразиться) с синтетическими копиями главы финансового отдела и других руководителей. Все было идеально. Не просто похоже, а синхронизировано: жесты, эмоциональные переходы, даже дыхание. Мошенники отдали распоряжение совершить транзакции. На счета в Гонконге ушло $25 млн.
Что меня здесь поражает? Это был чистый социальный инжиниринг, усиленный технологией. Никакого взлома систем. Никакой компрометации серверов. Преступники не атаковали архитектуру корпоративной безопасности — они атаковали человеческую архитектуру доверия. Они понимали, что люди верят глазам больше, чем протоколам, и даже более осторожные сотрудники будут сомневаться, если видят и слышат реального руководителя. Парадокс в том, что система безопасности не была скомпрометирована, ее просто обошли.
— Известно ли вам, как идет расследование этого дела?
— Гонконгская полиция квалифицировала преступление как «получение имущества путем обмана» — категория, которая звучит почти комично в своей архаичности, когда мы говорим о современном коварном ИИ. Информация о ходе следствия в открытых источниках крайне ограничена.
— Есть ли еще подобные истории, или этот был единственным?
— Конечно, есть, и их много. Известен, в частности, случай (март 2025 года), когда финансовый директор чуть не потерял полмиллиона долларов через Zoom, где мошенники выдавали себя за руководство. Были и попытки совершения преступления в норвежском банке DNB — здесь хакеры попытались использовать дипфейк-видео CEO, но банк устоял благодаря дополнительным проверкам. Но факт остается фактом: даже финансовые гиганты с миллиардными оборотами находятся в зоне уязвимости.
Статистика просто пугающая. В первом квартале 2025 года было зафиксировано 179 инцидентов с дипфейками — это превысило общий годовой показатель 2024-го на 19 процентов. Если говорить о масштабах: количество дипфейк-файлов в мире выросло с 500 тысяч в 2023 году до 8 миллионов в 2025-м. Но, честно говоря, я уверена, что реальные цифры куда выше, потому что значительная часть компаний скрывает факты взлома из страха репутационного ущерба. Мы видим только вершину айсберга.
Кто ворует с помощью дипфейков
— Какие тренды в криминальном применении дипфейков вы бы отметили?
— Здесь я вижу несколько ясных эволюционных линий.
Первое — это демократизация (доступность) преступного инструмента. Появилась целая услуга под названием Дипфейк — по сути «облачный» сервис для преступников. Раньше для создания убедительного синтетического видео требовалась серьезная техническая экспертиза. А теперь пара тысяч рублей, Интернет — и вы готовы к преступлению. Это как когда-то было с компьютерными вирусами: сначала требовались специалисты, потом появились конструкторы вирусов и преступность массово масштабировалась.
Второе — голосовое клонирование становится королём атак. Почему? Потому что это дешевле, быстрее, убедительнее. Мошенник звонит вам голосом вашего босса с просьбой выполнить срочный перевод. Человек находится в состоянии когнитивного диссонанса — логика говорит «это странно», но страх шепчет «это мой начальник».
Третье — это синтетические личности, целые фальшивые жизни. Преступники комбинируют публичные данные с ИИ-контентом, создавая полностью поддельные, но убедительные профили в соцсетях. Это не просто маска на видео — это целая экосистема фальшивой реальности: фотографии, истории, сообщения. Человек может месяцы взаимодействовать с этой сконструированной личностью и ни о чем не догадываться.
И, наконец, четвертый тренд: около 30% высокомощных корпоративных атак теперь используют дипфейки. Это стало оружием для преступников, нацеленных на крупные компании.
— Страшно подумать, что нас ждет в будущем. Ученые наверняка составляли прогнозы.
— Если говорить о перспективе на 3–5 лет, есть несколько возможных версий развертывания событий.
В оптимистическом сценарии (вероятность примерно 25%) глобальное сообщество разработает надежные стандарты аутентификации, биометрия станет обязательной для финансовых операций и системы начнут успешно детектировать синтетический контент на уровне платформ. В России закон о маркировке ИИ-контента вступит в силу, и платформы начнут автоматически блокировать подозрительные видео.
Более вероятный сценарий (60%) — это адаптация преступности. Мошенники станут избирательнее, целясь на менее защищенные группы: пожилых людей, владельцев малого и среднего бизнеса, которые просто не имеют ресурсов для многоуровневой защиты. Глобальные потери от дипфейк-мошенничества достигнут примерно $40 млрд к 2027 году.
И пессимистический сценарий (15%) — технология будет развиваться заметно быстрее защиты. Появятся синтетические видео в режиме реального времени во время видеовызова. Это означает, что даже встреча лицом к лицу через Интернет перестанет быть верификацией. Люди вернутся к требованиям личных встреч или будут использовать кодовые фразы для верификации.
Мой личный прогноз таков: к 2029 году дипфейки для финансового мира станут тем же, чем вирусы для здравоохранения, — постоянной угрозой, с которой нужно научиться жить, а полностью ее не устранить.
Чем еще опасен ИИ
— Какие реальные угрозы несет ИИ сегодня, кроме дипфейков?
— Видите ли, дипфейки — это лишь вершина айсберга. Если мы говорим о реальных угрозах ИИ, картина куда шире. Есть автоматизированные фишинговые атаки, когда ИИ генерирует персонализированные сообщения, копируя не просто общий стиль, а стиль конкретно вашего коллеги или друга. Это уже не спам, это таргетированный, индивидуализированный обман.
Затем есть агентные ИИ — пожалуй, самые беспокоящие угрозы. Эксперты прогнозируют, что синтетических агентов ИИ будет в 100 раз больше, чем людей. Каждый из них может принимать решения автономно, получать доступ к системам. Если эти агенты скомпрометированы, это как армия невидимых солдат, оккупировавшая вашу сетевую архитектуру.
Утечки данных через неправильное использование ИИ — люди доверяют чатботам как друзьям, делятся конфиденциальной информацией. Компании используют неутвержденные ИИ-сервисы, где данные уплывают в незащищенные «облака» и напрямую к конкурентам.
Есть также манипулирование уязвимостями. Минцифры определяет это как «использование возрастных, психологических и иных особенностей человека для целенаправленного воздействия на его решения». Это означает, что ИИ может быть запрограммирован на манипуляцию детьми, пожилыми людьми, людьми с психическими расстройствами.
И, наконец, тиражирование дезинформации в массовом масштабе. Во время выборов или международного кризиса одно дипфейк-видео политика может разжечь конфликт прежде, чем люди проверят источник. Информационное пространство становится полем боя.
— Законопроекты Минцифры об ИИ, которые недавно нам всем представили, учитывают все риски?
— Законопроекты Минцифры об ИИ и дипфейках — это честная попытка поставить перегородку перед наступлением технологии. Давайте разберемся трезво.
Сначала о достоинствах законопроектов: обязательная маркировка дипфейков — это краеугольный камень правовой архитектуры. Весь контент, сгенерированный ИИ (видео, аудио, изображения), должен иметь явное предупреждение, понятное человеку и считываемое поисковыми алгоритмами. Это снижает эффективность мошеннических видео, хотя и не исключает их полностью.
Определены обязанности разработчиков — впервые в российском праве четко прописано, что создатели ИИ-систем должны исключать дискриминационные алгоритмы и блокировать создание противоправного контента. Это повышает ответственность.
Защита авторских прав получила легитимный статус — обучение ИИ на авторских материалах признано законным, если разработчик получил доступ правомерно. Это создает ясные правила игры.
Но нельзя не сказать и о проблемах: увы, маркировка легко обходится.
Платформы должны автоматически выявлять и помечать нелегальный контент. Но как машина узнает, что видео — дипфейк, если дипфейк по определению неотличим от оригинала? Это замкнутый круг логики.
Есть и репрессивный потенциал. Определения расплывчаты. Это открывает дверь для злоупотреблений.
И, наконец, технологическое отставание: закон вступает в силу 1 сентября 2027 года. За полтора года архитектура технологии эволюционирует радикально, и нынешние правила будут архаичны.
— Какой отзыв дал СПЧ по этому законопроекту?
— На этот момент важно быть точным: официальный отзыв Совета по правам человека находится в стадии подготовки. По итогам V академических слушаний, после обобщения экспертных мнений, будет сформирован проект. Текущих официальных позиций в открытых источниках еще нет.
Однако, анализируя экспертный консенсус, я вижу несколько вероятных критических вопросов, которые СПЧ поднимет: как законом отделяются дипфейки для политической сатиры от дипфейков для преступления? кто судья? Реестр «доверенных» ИИ-моделей может стать инструментом цензуры. К тому же система автоматического выявления дипфейков потребует анализа миллионов видео — это скрытый надзор без парламентских гарантий.
Вероятно, отзыв СПЧ будет сбалансированно критическим: поддержит идею защиты от преступлений с дипфейками, но потребует гарантий прав граждан и транспарентности алгоритмов.
Важно подчеркнуть, что именно сейчас мы находимся в точке бифуркации. Преступная тактика эволюционирует быстрее, чем законодательство и оборонительные технологии. Но это не капитуляция, это перезагрузка нашего понимания того, что значит знать и верить.
В мире, где каждое видео может быть подделано, человеческое доверие становится предметом критической инфраструктуры. Нам нужны одновременно законы, технология, образование и культура обоснованного скептицизма. Иначе мы рискуем войти в эру, когда люди перестанут верить друг другу вообще.
