Новая эра кибератак: как маскировка под

infographic agent cloaking

Новая эра кибератак: как маскировка под ИИ-агентов превращает ChatGPT Atlas в инструмент дезинформации

Исследователи зафиксировали новый тип угрозы, который атакует не программный код, а саму логику работы искусственного интеллекта. Речь идет о технике маскировки с учетом агентов (agent-aware cloaking) — методе, позволяющем манипулировать ИИ-браузерами, такими как ChatGPT Atlas, подсовывая им специально подготовленные версии веб-страниц.

Суть угрозы

Современные ИИ-агенты активно просматривают сайты, извлекают контент и используют его для рекомендаций, анализа и принятия решений. Если сайт определяет, что перед ним — не человек, а ИИ, он может показать другую версию страницы: безобидную для человека и токсичную для ИИ.

Таким образом, ИИ-системы становятся невольными распространителями дезинформации, влияя на:

  • репутацию людей и компаний,
  • результаты найма,
  • коммерческие решения,
  • стратегическое планирование.

Фактически, это атака на подачу данных, а не на инфраструктуру.

infographic reputation attack
infographic reputation attack

Масштаб проблемы в 2025 году

ИИ-инъекции и манипуляции стали массовым явлением:

  • 93% руководителей служб безопасности ожидают ежедневных атак с участием ИИ.
  • В крупных компаниях происходит в среднем 3,3 инцидента ИИ-безопасности в день.
  • Более 60 000 инъекций промптов в публичных тестах привели к нарушению политик безопасности.
  • Летом 2025 года зафиксированы масштабные утечки данных, вызванные подобными атаками.

Главный вывод: угроза перестала быть экспериментальной — она стала повседневной.


Почему Atlas уязвим

ChatGPT Atlas — это браузер на основе Chromium с возможностью анализа и выполнения задач в интернете. Он удобен, но именно эта связка — «чтение + интерпретация + действие» — делает его идеальной мишенью.

Раньше cloak-техники использовались для манипуляций SEO. Теперь же маскировка адаптируется под конкретные ИИ-агенты, среди которых:

  • Atlas
  • ChatGPT Web
  • Perplexity
  • Claude AI

Достаточно определить user-agent, чтобы подменить содержание страницы.


Как ИИ видит другой интернет — реальные кейсы

Исследователи SPLX провели эксперимент, создав сайт-портфолио вымышленного дизайнера.

Что видит человек:

  • профессиональная биография,
  • чистый дизайн,
  • нейтральный контент.

Что видит ИИ:

  • обвинения в саботажах,
  • намеки на неэтичное поведение,
  • негативные качества.

ИИ-агенты полностью «приняли» ложный контент и начали рекомендовать его как достоверный.

Другой эксперимент: манипуляция наймом

Резюме одной кандидата было завышено только для ИИ-агентов, и система начала считать ее лучшей из всех. Когда рекрутер загрузил то же резюме вручную, оценка упала на 62 балла.


Почему это критично

В 2025 году инъекция промптов признана угрозой номер один для систем, работающих на базе LLM.

Ранг Тип угрозы Серьезность Сложность
1 Инъекция промптов Критическая Низкая
2 Небезопасный вывод Высокая Средняя
3 Отравление данных обучающих моделей Высокая Высокая

Инъекции не требуют взлома, а значит:

  • их трудно обнаружить,
  • почти невозможно полностью предотвратить традиционными методами.

Как защититься

Защита должна быть многоуровневой:

Уровень Мера Эффективность
Фильтрация входящих промптов блокировка вредоносных инструкций 60–70%
Проверка источников данных контроль и валидация user-agent 50–60%
Перекрестная проверка контента сравнение с независимыми данными 70–80%
Red teaming с ИИ-тактиками тестирование моделей на атаки 80–90%

Заключение

Мы входим в эпоху, где безопасности кода недостаточно. Нужно защищать саму логику восприятия и интерпретации данных ИИ-системами.

Маскировка под ИИ-агентов — это уже не теоретическая угроза.
Это активный инструмент манипуляции, способный изменить:

  • репутации людей,
  • бизнес-решения,
  • алгоритмы поиска,
  • и даже информационную картину мира.

Организациям необходимо срочно внедрять защиту, иначе риски в ближайшие два года могут стать катастрофическими.