Агентный ИИ: модели, которые действуют самостоятельно

Что такое ИИ-агенты, как они работают, чем отличаются от чат-ботов. ReAct, tool use, мультиагентные системы — обзор технологий.

Агентный ИИ: модели, которые действуют самостоятельно

Обычный чат-бот отвечает на вопросы. ИИ-агент действует: ищет информацию, вызывает API, пишет и запускает код, принимает решения на основе результатов. Если чат-бот — справочная, то агент — сотрудник, который получает задачу и выполняет её, самостоятельно выбирая инструменты и последовательность действий.

От чат-бота к агенту

Языковая модель сама по себе — генератор текста. Она принимает промпт и возвращает ответ. Один цикл: вход → выход. Агент превращает этот цикл в петлю: модель получает задачу, планирует действия, выполняет первое, наблюдает результат, корректирует план, выполняет следующее — и так до завершения задачи.

Ключевое отличие — автономность. Агент сам решает, какой инструмент использовать, какой запрос отправить, как интерпретировать результат. Человек задаёт цель, агент находит путь.

Архитектура: ReAct

Самый влиятельный подход к построению агентов — ReAct (Reasoning + Acting), предложенный исследователями из Princeton и Google в 2022 году. Идея проста: модель чередует этапы рассуждения (Thought) и действия (Action), наблюдая результат каждого шага (Observation).

Задача: Узнай, какой город является столицей страны, занимающей первое место по населению.

Thought: Мне нужно найти страну с наибольшим населением.
Action: search("страна с наибольшим населением в мире")
Observation: Индия — самая населённая страна мира (1.44 млрд человек на 2024 год).

Thought: Теперь мне нужно найти столицу Индии.
Action: search("столица Индии")
Observation: Столица Индии — Нью-Дели.

Thought: У меня есть ответ.
Answer: Нью-Дели.

Этот паттерн масштабируется на сложные задачи. Агент, пишущий код, проходит через цепочку: прочитать файл → понять структуру → написать изменения → запустить тесты → исправить ошибки → повторить.

Tool Use: инструменты агента

Агент силён настолько, насколько сильны его инструменты. Современные LLM поддерживают function calling (tool use) — формализованный способ вызова внешних функций.

Процесс выглядит так: модель получает описание доступных инструментов (имя, параметры, описание). При необходимости она генерирует не текст, а структурированный вызов функции. Фреймворк выполняет вызов и возвращает результат модели. Модель использует результат для продолжения работы.

Примеры инструментов:

  • Поиск в интернете — модель гуглит, когда ей не хватает информации
  • Выполнение кода — модель пишет и запускает Python-скрипт для вычислений
  • Работа с файлами — чтение, запись, редактирование файлов
  • API-вызовы — взаимодействие с внешними сервисами (базы данных, CRM, мессенджеры)
  • Браузер — навигация по веб-страницам, заполнение форм, извлечение данных

Anthropic, OpenAI и Google встроили tool use в свои API. Claude от Anthropic отличается особенно надёжной реализацией — модель корректно решает, когда вызвать инструмент и когда ответить текстом.

Фреймворки для агентов

LangChain / LangGraph

LangChain — самый популярный фреймворк для построения LLM-приложений на Python. LangGraph — его расширение для агентных систем, позволяющее определять workflow как графы с узлами (агентами) и рёбрами (переходами).

Плюсы: огромная экосистема, интеграция с сотнями инструментов, активное сообщество. Минусы: сложная абстракция, быстро меняющийся API, «фреймворковый оверхед» для простых задач.

CrewAI

Фреймворк для мультиагентных систем. Каждый агент имеет роль, цель и набор инструментов. Агенты взаимодействуют друг с другом для решения задач. Подход моделирует командную работу: один агент исследует, другой пишет, третий проверяет.

AutoGen (Microsoft)

Фреймворк для «разговорных» мультиагентных систем. Агенты общаются между собой в текстовом чате, делегируя подзадачи и обмениваясь результатами. Поддерживает включение человека в цикл (human-in-the-loop).

Без фреймворка

Для многих задач фреймворк избыточен. Простой агент на Claude API с tool use — это 50–100 строк кода:

import anthropic

client = anthropic.Anthropic()
tools = [
    {
        "name": "search_database",
        "description": "Поиск в базе данных клиентов",
        "input_schema": {
            "type": "object",
            "properties": {
                "query": {"type": "string"}
            },
            "required": ["query"]
        }
    }
]

messages = [{"role": "user", "content": "Найди заказы клиента Иванов за март"}]

# Цикл агента
while True:
    response = client.messages.create(
        model="claude-sonnet-4-20250514",
        max_tokens=1024,
        tools=tools,
        messages=messages
    )
    if response.stop_reason == "tool_use":
        # Выполнить вызов инструмента
        tool_result = execute_tool(response.content)
        messages.append({"role": "assistant", "content": response.content})
        messages.append({"role": "user", "content": tool_result})
    else:
        print(response.content[0].text)
        break

Мультиагентные системы

Идея: вместо одного всемогущего агента — команда специализированных. Один агент анализирует данные, другой пишет код, третий тестирует, четвёртый планирует. Преимущества: каждый агент оптимизирован под свою задачу, меньше ошибок от перегруженного контекста, возможность параллельной работы.

На практике мультиагентные системы сложны в отладке. Ошибка одного агента каскадирует через остальных. Коммуникация между агентами добавляет latency и стоимость. Для большинства задач один хорошо настроенный агент с правильными инструментами эффективнее трёх посредственных.

Ограничения и риски

Стоимость. Агентный цикл — это десятки и сотни вызовов LLM на одну задачу. Сложная задача может обойтись в $1–10 за выполнение. При масштабировании расходы растут быстро.

Надёжность. Каждый шаг агента — вероятностная генерация. Ошибка на раннем этапе может направить агента по неверному пути. Человеческий контроль критически важен, особенно для действий с необратимыми последствиями.

Безопасность. Агент с доступом к файловой системе, интернету и API — мощный инструмент. Prompt injection — атака, при которой вредоносные данные во входных данных заставляют агента выполнить нежелательные действия — реальная угроза для агентных систем.

Куда движется агентный ИИ

Anthropic, OpenAI, Google и десятки стартапов строят всё более автономных агентов. Computer use от Anthropic позволяет модели управлять графическим интерфейсом — кликать, набирать текст, навигировать. Devin от Cognition позиционируется как «ИИ-разработчик». OpenAI Operator и Google Mariner работают с браузером как человек.

Пока агенты надёжно работают в ограниченных средах с чётко определёнными инструментами. Полностью автономный ИИ-сотрудник — вопрос не «если», а «когда и как безопасно».

Сравнение агентных фреймворков 2026

ФреймворкКомпанияПодходЛучше всего дляЯзыки
LangGraphLangChainГраф состояний (stateful)Сложные многошаговые агентыPython, JS
AutoGenMicrosoftМульти-агентный диалогCollaboration между агентамиPython
CrewAICrewAI IncРоли и командыБизнес-автоматизацияPython
Claude Computer UseAnthropicDesktop / браузер-контрольGUI автоматизацияPython + API
Devin / SWE-AgentCognition / CMUAutonomous codingНаписание и деплой кодаPython
OpenAI Agents SDKOpenAITool-calling + handoffsБыстрая интеграция с GPTPython, JS

Как работает агентный ИИ: цикл ReAct

Большинство агентов работают по циклу Reason → Act → Observe:

  1. Reason: LLM анализирует задачу и выбирает следующее действие
  2. Act: вызывает инструмент (браузер, поиск, код-интерпретатор, API)
  3. Observe: получает результат и добавляет в контекст
  4. Повторяет цикл до достижения цели

Простой агент с OpenAI Agents SDK

from agents import Agent, Runner, WebSearchTool, function_tool

@function_tool
def calculate(expression: str) -> str:
    return str(eval(expression))

agent = Agent(
    name='Research Assistant',
    model='gpt-4o',
    instructions='Отвечай на вопросы, используя поиск и вычисления.',
    tools=[WebSearchTool(), calculate]
)

result = Runner.run_sync(
    agent,
    'Какая была капитализация Apple на 1 января 2026? Раздели на 1 млрд.'
)
print(result.final_output)

Реальные применения агентных систем

  • Автоматизация кода: SWE-bench Verified показывает, что лучшие агенты решают 62–71% реальных GitHub-issues автономно
  • Исследования: Deep Research (OpenAI/Gemini) — многошаговый поиск и синтез информации из десятков источников
  • Тестирование: агенты пишут и запускают тесты, фиксируют баги в CI/CD без участия человека
  • Customer support: агент с доступом к CRM, базе знаний и системе тикетов решает до 70% обращений без эскалации

Ограничения и риски в 2026

  • Надёжность: агенты всё ещё совершают ошибки в длинных задачах — нужен human-in-the-loop для критических операций
  • Стоимость: многошаговый агент может потреблять 10–100× больше токенов, чем простой запрос
  • Безопасность: prompt injection через внешние источники — серьёзный вектор атаки для агентов с браузером
  • Latency: агент с 10 шагами = 10× задержка по сравнению с одним запросом

Читайте также