Искусственный интеллект должен был освободить нас от рутины. Но в 2025 году он внезапно превратился в… главный источник проблем. Я Сергей Крюков, эксперт НИР Груп, сегодня расскажу вам, как компании теряют сотни миллионов рублей из-за того, что ИИ стал любимой игрушкой не только сотрудников, но и злоумышленников.

30% всех утечек — дело рук сотрудников. Да-да, не вирусы, не хакеры из фильмов, а самые обычные офисные ребята, которые просто «попросили ИИ помочь с отчётом». Финансовые отчёты? Были. Клиентские данные? Были. Внутренние документы? О, ещё как. 25% компаний уже официально зафиксировали такие утечки. И всё это — просто потому, что человеку нужно быстрее закончить задачу. Проблема в том, что ИИ-сервисы находятся не внутри корпоративной инфраструктуры. Это как рассказывать секреты компании в такси — водитель вроде и молчит, но куда потом уедет эта информация — никто не знает.

Атаки на ИИ выросли на 48%: теперь бьют по мозгам системы. В 2025 году случилось новое: хакеры начали лезть в саму начинку — модели ИИ. Количество успешных атак выросло на 48% всего за год. В арсенале злоумышленников появились совершенно новые приёмы: инъекции промптов — когда модель заставляют игнорировать правила и выдавать секреты; «отравление» данных — когда в ответы подмешивают вредоносный контент; манипуляции контекстом — можно заставить модель принимать неверные решения. Если коротко: «мозг» компании становится объектом охоты.

ИИ помогает… хакерам? Да! Он сам генерирует вредоносный код. Оказывается, модели могут по незнанию: предложить опасный SQL-запрос; сгенерировать вредоносный JavaScript; случайно подсказать, как удалить данные; помочь подобрать пароль (буквально — идеально автоматизирует скучный подбор). А иногда ИИ так хорошо имитирует человека, что обходит капчи, как будто за него работает самый терпеливый школьник на подработке. Особенно достается ритейлу. Сотрудники загружают в ИИ данные по промо, а злоумышленники через хитрые запросы ищут дыры в логике акций — и используют результаты уже против компании.

Обычные системы безопасности больше не работают. Антивирусы, контроль трафика, периметр — всё это не видит, что происходит внутри ИИ. А именно там сегодня и сидит главный риск. Это всё равно что поставить пять замков на дверь, но оставить окно открытым — и даже не подозревать, что у окна теперь тоже есть Wi-Fi и оно умеет разговаривать.

Одна атака — минус 100–200 млн ₽. А к 2027 году ущерб приблизится к 4 трлн ₽. Цифры — как холодный душ для бизнеса: один инцидент обходится компаниям в 100–200 млн ₽; для крупных игроков счёт идёт на десятки миллиардов; к 2027 году суммарный ущерб от атак с участием ИИ достигнет 40 млрд $ (≈4 трлн ₽). И да, такие случаи уже происходят. Самый громкий пример: взлом криптобиржи Balancer — украли 120 млн $ (≈12 млрд ₽), просто манипулируя работой алгоритмов.

Вывод простой и неприятный. ИИ не злодей сам по себе — опасность в том, что сотрудники слишком ему доверяют, он стал новой целью для атак, а привычные системы безопасности просто не видят, что происходит внутри модели. Сегодня ИИ — как мощный двигатель в машине: пока всё работает, ехать удобно, но стоит появиться малейшей неисправности, то последствия обходятся очень дорого, а ремонт оказывается куда больнее и затратнее, чем своевременная защита.