Новая схема мошенничества с ИИ угрожает уральцам

Бесплатные чат-боты часто имеют низкий уровень защиты и представляют повышенную опасность.
В России активно развивается новый вид мошенничества, в котором злоумышленники комбинируют методы социальной инженерии с технологиями искусственного интеллекта.

При использовании ИИ-сервисов необходимо изучать пользовательское соглашение, где указаны правила обработки данных.
Руководитель группы исследований технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов детально описал способы защиты от дипфейков и несанкционированного доступа к информации.
Эксперт отметил, что ИИ задействуется на всех стадиях кибератаки — от установления контакта с потенциальной жертвой до разработки вредоносного программного обеспечения.
«Мы регулярно фиксируем использование ИИ для создания фишинговых страниц, написания программ-вымогателей (например, FunkSec), а также инструментов для продвинутых целевых атак, подобных операциям группы Bluenoroff», — сообщил Владислав Тушканов.
Дипфейки представляют собой поддельные видео- или аудиосообщения, созданные с помощью ИИ, которые преступники используют для хищения персональных данных и финансовых средств.
Повсеместное использование искусственного интеллекта обычными пользователями также увеличивает риски, поскольку даже на официальных платформах возможны утечки конфиденциальной информации.
«Причинами могут быть как кибератаки, так и ошибки в архитектуре или конфигурации сервисов, — продолжил эксперт. — Крупные ИТ-компании следят за безопасностью, но пользователи нередко обращаются к малоизвестным сервисам или бесплатным версиям чат-ботов, уровень защиты которых может быть ниже».
«Проблема в том, что такие сервисы часто не раскрывают информацию о политике конфиденциальности. Если их создатели окажутся недобросовестными, данные пользователя могут быть скомпрометированы», — добавил Владислав Тушканов.
Следует помнить, что любая информация, введённая в чат-бот, теоретически может быть использована провайдером сервиса — например, для обучения и улучшения алгоритмов.
«Мы сталкивались с примером, когда сайт предлагал доступ к ChatGPT, и пользователь получал возможность работать с ботом. Однако параллельно на этом же ресурсе публиковались переписки пользователей в открытом доступе, — обратил внимание эксперт. — Поэтому при работе с ИИ-сервисами важно задавать себе вопрос: является ли информация, которую я загружаю, конфиденциальной и критичной для меня или моей компании?»
Специалист рекомендует не передавать чат-ботам корпоративные секреты из-за риска их обнародования. Также он приводит несколько базовых правил безопасности:
- Активируйте двухфакторную аутентификацию на всех возможных ресурсах.
- Не переходите по подозрительным ссылкам в сообщениях.
- Применяйте уникальные сложные пароли и используйте менеджеры паролей.
- При получении аудио- или видеосообщений проверяйте личность собеседника, особенно если речь идёт о финансовых операциях.
В качестве примеров дипфейков можно привести фальшивые видео с мэром Екатеринбурга Алексеем Орловым и губернатором Свердловской области Денисом Паслером.
Знание схем, которые применяют мошенники, значительно повышает шансы избежать их ловушек.



















