← Все новости

DeepMind: Как правильно делегировать задачи между ИИ-агентами и людьми

Новость • Категория: RAG / AI-агенты / автоматизация • Автор: Алексей Воронов • Проверил: Екатерина Морозова • 25.02.2026 17:02

Подразделение Google DeepMind опубликовало исследование, посвященное эффективному распределению задач между искусственным интеллектом (ИИ) и человеком. Авторы работы утверждают, что с развитием агентных систем простые правила делегирования уже не актуальны.В своем исследовании ученые DeepMind вводят концепцию «интеллектуального делегирования». Это не просто передача задачи от одного исполнителя другому, а целая последовательность управленческих решений. Процесс включает разбивку работы на подзадачи с четкими критериями проверки, формализацию границ автономии, закрепление ответственности и настройку механизмов доверия. Эти принципы применимы как при взаимодействии человека и ИИ, так и при координации нескольких ИИ-агентов.Один из ключевых принципов, предложенных авторами, — это contract-first decomposition. Суть метода в том, что делегировать можно только те задачи, результат которых можно объективно проверить. Если оценка результата слишком субъективна, сложная или дорогостоящая, задачу следует декомпозировать до уровня формальной верификации. Для этого могут использоваться смарт-контракты, криптографические инструменты, такие как zero-knowledge proofs, а также прозрачные протоколы мониторинга.

Важное внимание уделено «парадоксу автоматизации». Когда ИИ полностью берет на себя рутинные операции, люди постепенно теряют необходимые навыки для вмешательства в критических ситуациях. Это приводит к ситуации, когда человек формально несет ответственность за работу системы, но уже не способен адекватно оценить и скорректировать ее действия. Для предотвращения этого DeepMind предлагает сохранять «контролируемую неэффективность» — периодически поручать часть задач людям даже тогда, когда ИИ мог бы выполнить их быстрее и дешевле.

Авторы также предостерегают от риска «моральной деформации». Это ситуация, когда человек включен в процесс только формально для юридической ответственности за сбои системы, не имея реального контроля над ней. Такие архитектуры считаются недопустимыми при проектировании агентных экосистем.Еще одним риском работы с ИИ-агентами является «когнитивная монокультура». Если большинство агентов используют одни и те же базовые модели, одна уязвимость может парализовать всю систему. Это требует внимательного подхода к разнообразию используемых моделей.

Исследование также анализирует существующие протоколы взаимодействия агентов, такие как MCP от Anthropic и A2A от Google. По мнению авторов, эти протоколы пока не обеспечивают достаточного уровня тонкой авторизации, криптографической проверки результатов и распределения ответственности.

Теги: #агентные системы, #ИИ, #DeepMind, #делегирование задач, #парадокс автоматизации, #интеллектуальное делегирование, #contract-first decomposition