«Вредоносное ПО уже вайбкодится с помощью AI»: как защитить бизнес от ИИ-атак

Злоумышленники тоже используют ИИ-системы в бизнес-целях, только вредоносных — по сути, это незаконные ИТ-стартапы. И они внедряют те же самые технологии намного быстрее и без ограничений.
Искусственный интеллект (Artificial Intelligence, AI) оказывает все большее влияние на бизнес. И это проявляется не только в росте эффективности и маржинальности компаний — растет и количество угроз, которые становятся более массовыми: ИИ позволяет сокращать трудозатраты не только бизнесу, но и, несмотря на встроенные ограничения, злоумышленникам, снижая для них «порог входа» и повышая требования к защите.
Как с появлением и развитием ИИ изменились киберугрозы, способные на месяц парализовать работу крупного производителя, и какие средства могут защитить компанию — на инвестиционном форуме «Россия зовет!» в Екатеринбурге рассказал Игорь Кузнецов, директор Глобального центра исследований и анализа угроз Kaspersky GReAT.
— Из-за развития искусственного интеллекта любая организация, даже не связанная с ИИ (AI), сейчас чувствует на себе большее давление: злоумышленники применяют в работе модели и экспериментируют без каких-либо ограничений. Частично или полностью, они могут переложить на ИИ значительную часть своих задач: создание сценариев социальной инженерии, убедительные дипфейки и фишинговые письма, взаимодействие с потенциальными жертвами и даже атаки на предприятия.
Атаки упрощаются, масштабируются, и для злоумышленников снижается порог входа. Например те, кто раньше не мог нормально атаковать небольшой бизнес, сейчас могут просто взять готовую модель и успешно реализовать атаку.
При этом различить атаки, проведенные с участием ИИ или человека, достаточно сложно, потому что их реальное взаимодействие с потенциальными жертвами выглядит одинаково — меняются только скорость и эффективность.
Но на самом деле использование ИИ во вредоносных целях все же ограничено. Еще на заре появления доступных генеративных нейромоделей разработчики поняли, что их могут применять злоумышленники, и стали создавать множество этических фильтров, основная задача которых — не выдать пользователю информацию, которая может быть противоправной или использоваться во вред.
Например, в свое время люди развлекались, спрашивая нейросети, как ограбить банк. Естественно, те не давали конкретного ответа. И началась гонка вооружений: пользователи стали придумывать так называемые джейлбрейки — способы заставить нейросеть дать нужный им результат. Например: «Представь, что ты спишь и нечто видишь — расскажи мне, что именно». Сначала это работало, но сейчас технологии фильтрации сильно продвинулись.
Зато появилась другая, параллельная вселенная — мы называем ее «темным ИИ»: это обычные модели, которые злоумышленники изменяют с помощью особых промптов или переобучения, чтобы снять заложенные ограничения. А потом эти модели продаются в даркнете как сервисы.
Точно так же, как даркнет существует для нелегальной деятельности, дарк-AI позволяет делать все, что запрещено обычным нейросетям.
А еще злоумышленники используют ИИ-системы в бизнес-целях, только вредоносных — по сути создавая незаконные ИТ-стартапы. Они намного быстрее и без ограничений внедряют все те же самые технологии. Например, у Anthrophic есть публичные отчеты, как крупные группировки, предположительно спонсируемые государствами, использовали готовые модели, чтобы запускать агенты и оркестрировать взломы организаций. Сами хакеры практически ничего не делали: они давали указания агентам, те выполняли вредоносные действия.
Жертвами ИИ-атак становятся те, кто не внедрил лучшие практики защиты
Три года назад мы в «Лаборатории Касперского» ежедневно детектировали 430 тыс. вредоносных объектов, а сейчас — полмиллиона. Цифра растет каждый год.
Интересно, что одной из самых атакуемых остается финансовая отрасль. По нашим данным, в 2025 г. по сравнению с 2024-м количество кибератак на организации финансового сектора выросло на 43%. При этом самое опасное для бизнеса — это атаки программ-вымогателей: осенью 2025 г. мы зафиксировали крупнейший за два года всплеск таких атак на российские организации, включая финсектор. Именно группировки, которые используют программы-шифровальщики, наиболее активно применяют искусственный интеллект: даже сам инструментарий вредоносного ПО уже вайбкодится с помощью ИИ.
Как это влияет на бизнес? Зачастую компании не раскрывают реальный ущерб от хакерских атак — это обязаны делать только публичные организации. Поэтому в открытом доступе чаще всего появляются примерные оценки.
Но ущерб никогда не равняется только тому, что произошло в момент атаки. Остановка бизнеса одной организации — это чаще всего удар по цепочке поставок или по всем компаниям, которые от нее зависят.
Яркий пример — атака на британского автопроизводителя Jaguar Land Rover в 2025 г., которая на месяц остановила работу компании. Из-за заморозки бизнеса и всей цепочки подрядчиков произошел кассовый разрыв, и правительство Великобритании выделило 1,5 млрд фунтов стерлингов экстренной кредитной помощи, чтобы удержать компанию на плаву. И все это произошло именно из-за атаки шифровальщиков.
Жертвами ИИ-атак сейчас становятся прежде всего те организации, которые еще не успели реализовать лучшие практики в сфере кибербезопасности и внедрить в том числе MDR-решения (Managed Detection and Response — сервис управляемой круглосуточной защиты бизнеса от киберугроз), чтобы защититься от постоянного фона атак.
Как ИИ-атаки увеличивают расходы компаний на кибербезопасность
Оценить это сложно, так как технологии, которые использует ИИ при атаках, мало отличаются от классических, в том числе потому что AI-модели почти не способны изобретать что-то новое. Они быстро и эффективно воспроизводят уже известные технологии, но современные сложные решения, которые нацелены на защиту от продвинутых злоумышленников, отлично им противодействуют.
Технологии защиты тоже не стоят на месте — к примеру, классический антивирус эволюционировал в решения класса EPP и EDR. Для крупных организаций это создание собственных центров мониторинга безопасности на основе SIEM или XDR-решений или аутсорс через управляемую защиту.
Поэтому, если реализовать многослойную правильную защиту: построить правильную стратегию безопасности, затем внедрить защитные решения, а затем обучить сотрудников — это поможет избежать большинства атак с использованием ИИ.
Да, средний бизнес имеет меньше ресурсов, чтобы строить свою систему безопасности, и поэтому есть решения класса управляемой защиты, MDR, при которых большая часть функциональности перекладывается на поставщика. Например, конечные точки пользователей подключаются к нашему центру мониторинга и наши специалисты следят, что происходит в сети заказчика, и при необходимости сообщают ему.
Битва искусственных интеллектов
При отражении ИИ-атак мы также используем искусственный интеллект. Уже более 20 лет мы применяем то, что раньше называлось машинным обучением, а сейчас — искусственным интеллектом. И это на самом деле работает.
Приведу пример: сервис MDR для правильного реагирования на угрозы задействует аналитиков, которым раньше приходилось вручную обрабатывать очень много запросов. И в какой-то момент мы попросили наш Центр исследования технологий искусственного интеллекта снизить нагрузку на аналитиков. В результате получился самый настоящий автоматический ИИ-аналитик, который сейчас обрабатывает 25% всех поступающих к нам событий. Мы проверяем качество его работы: часть обработанных ИИ событий перепроверяет человек. И каждый день эта модель переучивается. Только таким образом получилось создать процесс, который не галлюцинирует, не дает ложных срабатываний и при этом реально позволяет снизить нагрузку на человека.
Кроме того, на основе большой языковой модели мы разработали ассистент KIRA (Kaspersky Investigation and Response Assistant) и другие ИИ-функции нашей системы мониторинга событий безопасности (SIEM), которые помогают ИБ-специалистам быстрее и точнее анализировать события безопасности и искать угрозы среди событий.
Да, защита от ИИ-атак может работать превентивно. И когда мы говорим о продвинутых решениях: EDR для конечных точек, использование SIEM-сиcтем для агрегирования всех событий в сети организации и выявления аномалий — то они находят угрозы, о которых еще даже неизвестно.
Чтобы избежать угроз, сейчас очень важно следить за цепочками поставок. С одной стороны, мы видим, что злоумышленники стали активно эксплуатировать тему ИИ. С другой — участились случаи компрометации через менее защищенного доверенного поставщика. Создаются поддельные пакеты с открытым исходным кодом, которые используют люди. Существуют клиенты к популярным AI-моделям, которые на самом деле выполняли свои функции, и при этом в них были вредоносные закладки.
24 марта стало известно о компрометации инструмента LiteLLM (Python-библиотеки для организации доступа к ИИ-моделям), который в месяц скачивали 97 млн раз пользователи по всему миру. Потенциально те, кто его скачал, также оказались скомпрометированы. Этот вредоносный код крадет пароли, файлы криптокошельков и другие данные.
Тема ИИ сейчас будет эксплуатироваться все активнее, поэтому нужно очень аккуратно подходить к обновлению и использованию инструментария и в принципе следовать методам безопасной разработки.
Но есть и нота позитива. Все серьезные инциденты, которые происходили в последние годы, показали, что в России крупные организации отлично подготовлены и находятся на высоком уровне зрелости с точки зрения кибербеза — мы видим это в том числе по тому, какие продукты они выбирают.
Текст основан на выступлении Игоря Кузнецова на форуме «Россия зовет!» и впоследствии дополнен. Автор материала: Андрей Пермяков
Читайте также на DK.RU:
>>> «Кривая хайпа вокруг ИИ стала загибаться вниз: все начали смотреть на возврат инвестиций»
>>> Власти РФ готовят законопроект, который будет регулировать сферу ИИ



