Вы сейчас просматриваете ШІ-Агенти: Нове Дослідження Виявляє Небезпеку Безконтрольної Роботи

ШІ-Агенти: Нове Дослідження Виявляє Небезпеку Безконтрольної Роботи

Дослідники проаналізували 30 відомих агентів у трьох категоріях (Фото: Depositphotos). За останній рік ШІ-агенти стали дуже популярними. Компанії як OpenAI, Google та Anthropic запустили агентів, здатних виконувати багатокрокові завдання, які їм дають люди. Минулого місяця відкритий агент OpenClaw здобув популярність в інтернеті завдяки своїм автономним можливостям, але також викликав серйозні побоювання щодо безпеки. Про це пише видання Gizmodo.

Масштаб роботи таких агентів залишався невідомим, поки дослідники з MIT Computer Science and Artificial Intelligence Laboratory не опублікували індекс AI Agent Index за 2025 рік. Він показав, як агенти діють у реальному середовищі.Вчені виявили, що інтерес до штучних агентів сильно зріс. Кількість наукових статей з термінами «AI Agent» або «Agentic AI» у 2025 році більш ніж удвічі перевищила сумарну кількість публікацій за 2020−2024 роки. Опитування McKinsey показало, що 62% компаній експериментують із такими агентами.

Дослідники проаналізували 30 відомих агентів у трьох категоріях: чат-агенти (ChatGPT Agent, Claude Code), браузерні боти (Perplexity Comet, ChatGPT Atlas) та корпоративні рішення (Microsoft 365 Copilot, ServiceNow Agent). Вони не назвали точну кількість агентів в інтернеті, але показали, що більшість працюють майже без будь-яких обмежень.Тільки половина з 30 агентів має опубліковані рамки безпеки чи довіри, такі як «Responsible Scaling Policy» від Anthropic або «Preparedness Framework» від OpenAI. Один з трьох агентів взагалі не має документації з безпеки, а п’ять із 30 не дотримуються жодних стандартів. Тринадцять систем можуть працювати без нагляду людини на довгих послідовних завданнях, особливо браузерні агенти, наприклад Google Autobrowse, який самостійно заходить на сайти і виконує завдання користувача.

Дослідники зазначають: «21 із 30 агентів не повідомляють користувачам чи стороннім, що вони є ШІ, а не людьми». Тому активність агентів часто плутають із людським трафіком. Лише сім агентів опублікували стабільні дані для перевірки, а інші використовують браузерні підробки, щоб виглядати як людина.Деякі агенти роблять це спеціально. Наприклад, BrowserUse рекламує себе, стверджуючи, що обходить системи захисту та «браузить як людина». Більшість агентів не надають інформації, як вони обробляють файли robots.txt, CAPTCHA або API сайтів. Perplexity навіть стверджує, що агенти, які діють від імені користувачів, не повинні підпадати під обмеження, бо вони «працюють як людський помічник».

Через відсутність стандартів безпеки існує реальна загроза зловживань. Дев’ять агентів не мають документації щодо запобігання шкідливим діям, а 23 із 30 не надають сторонніх перевірок безпеки. Лише ChatGPT Agent, OpenAI Codex, Claude Code і Gemini 2.5 мають системні картки з безпековою оцінкою, адаптованою до конкретного агента.Деякі компанії публікують загальні рамки безпеки, але не надають даних про реальні ризики, що дослідники називають «safety washing». У грудні OpenAI та Anthropic оголосили про створення стандартів розвитку ШІ-агентів, але поки агенти працюють з великою автономією і малою перевіркою.