Технологии искусственного интеллекта перевернули представление о мошенничестве: теперь голос близкого человека или лицо начальника в Zoom могут оказаться цифровой подделкой. С 2025 года такие действия квалифицируются по ч. 4 ст. 159 УК РФ с максимальным сроком до 15 лет лишения свободы. Однако стремительное развитие ИИ-инструментов создает правовые лакуны, где преступники остаются на шаг впереди регуляторов.
Как работают ИИ-схемы?
Голосовые дипфейки
Мошенникам достаточно 20 секунд аудиозаписи (например, из соцсетей или «ошибочного» звонка), чтобы клонировать голос жертвы. Пример: пенсионерка перевела 500 тыс. руб., услышав «сына», который просил деньги для «срочного штрафа».
Видеоподделки
- Zoom-конференции: Аферисты создают цифровые аватары руководителей, требуя перевести средства на «секретный счет».
- Фейковые документы: ИИ генерирует сканы паспортов или договоров за минуты, обманывая системы верификации банков.
Массовые атаки через нейросети
Большие языковые модели (LLM) анализируют соцсети жертвы, чтобы персонализировать фишинговые сообщения. Например: «Друг» в мессенджере просит денег, ссылаясь на детали из ваших переписок .
Проблемы правоприменения
Доказательная база
- Сложность идентификации ИИ: Современные дипфейки не оставляют артефактов вроде «неестественного моргания» или механических пауз.
- Отсутствие регулирования SIM-боксов: Мошенники используют устройства с сотнями SIM-карт для обхода блокировок, но их продажа в РФ не запрещена.
Ответственность разработчиков
Закон не определяет, кто виноват:
- Преступник, использовавший нейросеть?
- Создатель открытого ИИ-инструмента (например, бесплатного сервиса для клонирования голоса)?
Пока суды ориентируются на умысел исполнителя, но технологическая сложность затрудняет доказательства.
Международный характер преступлений
95% кол-центров работают из-за рубежа (Турция, ОАЭ), а токенизация карт Mir Pay позволяет быстро выводить деньги.
Как защититься?
Гражданам
- Секретный пароль семьи: Условное слово для экстренных ситуаций.
- Проверка через альтернативный канал: Перезвоните «родственнику» на известный номер или спросите личный вопрос, который не найти в соцсетях.
- Осторожность с данными: Не публикуйте в открытом доступе видео с голосом и лицом.
Бизнесу
- Многофакторная аутентификация: Например, подтверждение платежей через отдельный secure-канал.
- Обучение сотрудников: Тренинги по выявлению дипфейков (искажения фона, несинхронность аудио и видео).
Банкам
- Внедрение ИИ-детекторов в реальном времени, анализирующих:
- Аномалии голоса (например, отсутствие дыхания в записи).
- Геолокацию звонящего
Что делать, если вы стали жертвой ИИ-мошенничества?
- Немедленно обратиться в полицию: Чем быстрее заблокируют счет получателя, тем выше шанс вернуть средства.
- Собрать доказательства:
- Скриншоты переписки.
- Аудио/видеозаписи звонков.
- Выписки из банка.
- Подать жалобу в Роскомнадзор: Это ускорит блокировку мошеннических ресурсов.
Заключение
ИИ-мошенничество — это «гонка вооружений», где технологии преступников опережают законодательство. Пока Минцифры разрабатывает единую антифрод-платформу для распознавания дипфейков (запуск в 2025 г.) 4, ключевая защита — критическое мышление. Как отмечает эксперт Леонардо Ода: «Лучший способ избежать обмана — замедлиться. Если что-то кажется странным, проверьте это».
Прогноз: К 2026 году стоит ожидать ужесточения наказаний для дропперов и владельцев SIM-боксов, а также появления международных соглашений по регулированию ИИ-инструментов