Новая схема мошенничества с ИИ угрожает уральцам

Владислав Тушканов из «Лаборатории Касперского» объяснил, как искусственный интеллект используется для кражи данных и денег.
22 февраля, 2026, 03:40
1

Бесплатные чат-боты часто имеют низкий уровень защиты и представляют повышенную опасность.

Источник:

Наталья Лапцевич / 74.RU

В России активно развивается новый вид мошенничества, в котором злоумышленники комбинируют методы социальной инженерии с технологиями искусственного интеллекта.

При использовании ИИ-сервисов необходимо изучать пользовательское соглашение, где указаны правила обработки данных.

Источник:

Наталья Лапцевич / 74.RU

Руководитель группы исследований технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов детально описал способы защиты от дипфейков и несанкционированного доступа к информации.

Эксперт отметил, что ИИ задействуется на всех стадиях кибератаки — от установления контакта с потенциальной жертвой до разработки вредоносного программного обеспечения.

«Мы регулярно фиксируем использование ИИ для создания фишинговых страниц, написания программ-вымогателей (например, FunkSec), а также инструментов для продвинутых целевых атак, подобных операциям группы Bluenoroff», — сообщил Владислав Тушканов.

Дипфейки представляют собой поддельные видео- или аудиосообщения, созданные с помощью ИИ, которые преступники используют для хищения персональных данных и финансовых средств.

Повсеместное использование искусственного интеллекта обычными пользователями также увеличивает риски, поскольку даже на официальных платформах возможны утечки конфиденциальной информации.

«Причинами могут быть как кибератаки, так и ошибки в архитектуре или конфигурации сервисов, — продолжил эксперт. — Крупные ИТ-компании следят за безопасностью, но пользователи нередко обращаются к малоизвестным сервисам или бесплатным версиям чат-ботов, уровень защиты которых может быть ниже».

«Проблема в том, что такие сервисы часто не раскрывают информацию о политике конфиденциальности. Если их создатели окажутся недобросовестными, данные пользователя могут быть скомпрометированы», — добавил Владислав Тушканов.

Следует помнить, что любая информация, введённая в чат-бот, теоретически может быть использована провайдером сервиса — например, для обучения и улучшения алгоритмов.

«Мы сталкивались с примером, когда сайт предлагал доступ к ChatGPT, и пользователь получал возможность работать с ботом. Однако параллельно на этом же ресурсе публиковались переписки пользователей в открытом доступе, — обратил внимание эксперт. — Поэтому при работе с ИИ-сервисами важно задавать себе вопрос: является ли информация, которую я загружаю, конфиденциальной и критичной для меня или моей компании?»

Специалист рекомендует не передавать чат-ботам корпоративные секреты из-за риска их обнародования. Также он приводит несколько базовых правил безопасности:

  • Активируйте двухфакторную аутентификацию на всех возможных ресурсах.
  • Не переходите по подозрительным ссылкам в сообщениях.
  • Применяйте уникальные сложные пароли и используйте менеджеры паролей.
  • При получении аудио- или видеосообщений проверяйте личность собеседника, особенно если речь идёт о финансовых операциях.

В качестве примеров дипфейков можно привести фальшивые видео с мэром Екатеринбурга Алексеем Орловым и губернатором Свердловской области Денисом Паслером.

Знание схем, которые применяют мошенники, значительно повышает шансы избежать их ловушек.

Читайте также