Искусственный интеллект

Агентность в современных ИИ-системах: текущее состояние и прогноз

Источник: shutterstock/SomYuZu

В последние годы ИИ переживает структурный сдвиг: от диалоговых моделей, генерирующих текст, к полноценным агентным системам, которые способны выполнять сложные задачи, использовать инструменты, планировать, взаимодействовать с внешними средами и проявлять элементы автономности. Большие языковые модели (LLM-модели) GPT-5, Gemini 2 и Claude 4, появившиеся в этом году, стали наиболее яркими представителями этого перехода, однако агентность — это уже не исключение, а общая тенденция всей ИИ-индустрии.

Что означает «агентность» современных моделей? Агентность — это способность ИИ действовать не как пассивный собеседник, а как активный исполнитель задач. Она включает:

  • многошаговое планирование, при котором ИИ-системы формируют многошаговые планы и определяют, какой инструмент нужен;

  • формирование подцелей;

  • использование инструментов (обращаться к API, умеет писать и запускать программный код, выполнять Web-действия как браузер, работать с файлами);

  • самопроверку и корректировку своих решений, т.е. при этом агентные системы отслеживают прогресс и корректируют свои действия;

  • долговременную и эпизодическую памяти. В современных агентных моделях долговременная память — это механизм, который позволяет ИИ сохранять информацию между сессиями и использовать её в будущем для улучшения работы, понимания контекста и выполнения задач, а эпизодическая память – тип памяти в агентных ИИ-системах, который хранит не просто факты и знания, а последовательности событий и действий, произошедших во время выполнения задач;

  • способность к автономным действиям, т.е. агентные системы могут инициировать новые шаги без явного запроса пользователя. Кроме того, они могут вызывать другие модели.

В отличие от классических LLM, агентная система не просто отвечает на вопрос, а интерпретирует запрос как постановку задачи и стремится выполнить эту задачу целиком, при этом она может выполнять длительные самостоятельные задачи, и может делать проекты «под ключ» (анализ → план → исполнение → отчёт).

Агентность как тенденция

Хотя GPT-5, Gemini 2 и Claude 4 демонстрируют наиболее развитую агентность, этот путь выбран практически всеми крупными игроками рынка ИИ-систем:

  • Meta* (признана экстремистской и запрещена на территории РФ) в Llama 3.2 / 3.3 развивает агентный конвейер. Это такой способ построения ИИ-систем, где модель работает не как одиночный чат-бот, а как часть цепочки действий;

  • Mistral внедряет процессное обучение и способность модели самой решать, какой внешний инструмент ей нужен для выполнения задачи, и вызывать его;

  • экспериментальная платформа DeepSeek R1 дала мощный толчок автономным рассуждениям – способности модели самостоятельно продолжать мыслительный процесс без прямых указаний пользователя, формируя планы, подцели, проверки и выводы, пока задача не будет решена;

  • компания xAI Илона Маска готовит Grok Agents (это система, предназначенная для автономного выполнения реальных задач в цифровой среде);

  • открытые фреймворки LangGraph, Aider, AutoGPT и др. позволяют превращать любую модель в агента.

Агентизация становится стандартом де-факто, аналогично тому, как в 2023–2024 годах стали нормой мультимодальность (способность модели работать с разными типами данных, например с видео и аудио, а не только с текстом) и длинный контекст (он позволяет агенту «помнить» весь процесс решения задачи, что важно для автономных рассуждений и долговременной памяти). 

Для успешной агентизации важно в первую очередь развитие технологий непрерывного обучения (continual learning) – способности ИИ-системы долгосрочно обучаться и адаптироваться со временем, по мере поступления новых данных и получения нового опыта, без полного переобучения и без потери ранее усвоенных знаний, т.е. важные знания защищены от перезаписи. Для агентных ИИ непрерывное обучение позволяет учиться на собственных действиях, адаптироваться к пользователю, со временем улучшать планы, не повторять ошибки; работать в меняющейся среде. Понятно, что эта технология ближе к тому, как происходит обучение у людей. Есть ещё десяток довольно сложных технологий, которые сейчас развиваются в агентных системах, но они требуют отдельного описания.

Прогноз на 2026–2027 годы

  • Расширение видов автономных цифровых сотрудников. ИИ-агенты начнут выполнять значительную часть рутинных процессов в документообороте, аналитике, поддержке пользователей, разработке ПО, инженерии. Здесь возможно развитие систем продажи  навыков ИИ-агентов.
  • Развитие многомодульной архитектуры. Модели станут лишь планировщиками, а исполнителями будут подагенты и специализированные модули.
  • Переход от «контекста» к «памяти». Агенты будут иметь долговременную и эпизодическую памяти, вести историю действий, использовать структурированные знания.
  • Новый этап – формирование агентных экосистем. Появятся интегрированные среды разработки программного обеспечения (IDE), офисы и научные среды, в которых агенты смогут выполнять все рабочие процессы.

Прогноз на 2028–2030 годы

  • Развитие многоагентных систем. Будут созданы командные структуры ИИ – группы агентов, работающие как цифровой отдел внутри компании.

  • Будут разработаны новые типы операционных систем (ОС) – агентные операционные системы (АОС), где агенты — базовые элементы взаимодействия: управление ресурсами, памятью, процессами.

  • Вот совсем страшный прогноз: произойдёт почти полная автоматизация разработки ПО. Агенты смогут писать, тестировать и запускать код с минимальным участием человека. Отдельный вопрос касается проектирования ПО. Если есть чёткое и не изменяющееся техническое задание (ТЗ), то превратить его с помощью агентов в программный код, скорее всего будет возможно, но в жизни ТЗ изменяется постоянно по мере того как заказчик осознаёт свои потребности. В этом случае необходим кто-то, кто соизмеряет его «хотелки» с возможностями системы.

  • Будут созданы специализированные профессиональные агенты: агент-юрист, агент-программист, агент-инженер, агент-аналитик, агент-логист и др. Каждый — с глубоким пониманием предметной области и профессиональными инструментальными навыками.

  • Произойдёт интеграция с робототехникой. Агенты начнут управлять реальными устройствами — манипуляторами, дронами, мобильными платформами и т.п.

Риски

Разумеется, определённые действия агентов могут привести к нежелательным последствиям, поэтому необходимы те или иные виды ограничений на автономные действия агентов, например, на финансовые операции и на юридически значимые процессы. Скорее всего, будет введена обязательная сертификация безопасности при взаимодействии ИИ-агентов и роботов с людьми, ведены формальные верификации агентов, разработаны требования к испытаниям агентных систем и т.п. Необходимы также чёткие юридические правила: кто несёт ответственность при ошибке автономной системы (разработчик, производитель или владелец модели).

Поскольку технологии агентных ИИ-систем могут использоваться мошенниками, киберпреступниками и даже недружественными государствами, то всегда будут актуальны вопросы кибербезопасности. Скорее всего, это вызовет возникновение отдельного направления информационной безопасности.

Определённый риск представляет неравномерное развитие агентных систем, возникающее в ходе конкуренции в данной области между крупными игроками ИИ-индустрии и, возможно, государствами, между проприетарными системами и системами с открытыми исходниками.

Вертикальный рост возможностей LLM-моделей по разным причинам (таким как стена данных) замедлился, а горизонтальный рост с помощью агентских систем потенциально обещает сильный прирост новых качеств ИИ. Поэтому мы вступаем в эпоху, когда ИИ становится не только инструментом для получения информации, а полноценным оператором разнообразных действий. До 2027 года агенты станут широко использоваться в рутинной автоматизации. Затем, до 2030 года, — сформируются цифровые многоагентные структуры, агентные ОС и частично автономные профессиональные ИИ-системы. Эта тенденция, полагаю, необратима — именно агентность будет определять развитие искусственного интеллекта в ближайшие годы.

Об авторе: Директор Виртуального компьютерного музея
статья публиковалась в журнале IT News №1 2026
Помещена в музей с разрешения автора 10 января 2026