Para gerir milhares de agentes de IA, empresas adotam novo modelo de governança
Chamado de federação de agentes, framework desenvolvido pela EY define papéis, matriz de responsabilidades e processos internos para mitigar os riscos de erro ou de inovação por parte da IA, nomeando inclusive os próprios agentes como supervisores do trabalho.
Andrei Graça, sócio-líder de inteligência artificial e dados da EY Brasil. (Foto: Divulgação)
Se antes as empresas lidavam com alguns poucos agentes de inteligência artificial, hoje a interação já está na casa dos milhares. A proliferação dos agentes de IA – robôs autônomos especializados em tarefas que vão do atendimento ao cliente à gestão financeira – traz o desafio de como fazer a governança deles. Diferentemente do início, que havia a possibilidade de acompanhar diariamente cada um dos agentes de IA, já que o número não era elevado, agora passou a ser impossível fazer isso com os milhares de agentes espalhados por diferentes áreas da organização. Essa força de trabalho que cresce em escala geométrica pode cometer erros que trarão prejuízos financeiros e reputacionais para a organização. É nesse contexto que surge a chamada federação de agentes, que cria uma fundação técnica e normativa para gerir todos esses robôs atuantes na empresa.
“Passamos por isso na EY, motivo pelo qual conhecemos os desafios inseridos. Temos hoje 50 mil agentes de IA atuando no Brasil e no mundo. Por já termos vivenciado essa experiência, decidimos compartilhá-la com o mercado, com nossos clientes, por meio do framework chamado de federação de agentes”, diz Andrei Graça, sócio-líder de inteligência artificial e dados da EY Brasil. “Aqui na EY, temos nossa própria plataforma de IA generativa, que é o EYQ, desenvolvido pela companhia após investimento global bilionário e que tem sido aprimorado com base nas nossas experiências”, complementa.
O primeiro passo da implementação da governança é fazer um inventário, que se caracteriza por cinco definições principais. A primeira diz respeito a quem será o dono do agente, ou seja, o profissional responsável por suas ações. Na sequência, é preciso definir o domínio do agente, o que significa delimitar os dados e sistemas que ele pode acessar. A terceira é restringir o acesso dos agentes, já que cada agente ou conjunto de agentes deve acessar determinados bancos de dados e sistemas. Como quarta definição, há necessidade de analisar a finalidade do agente, o que passa por descobrir se o agente executa algo realmente relevante para o negócio e se existe redundância nesse trabalho com outros agentes. Por fim, faz parte do inventário a análise do custo do agente com o retorno proporcionado por ele.
“Há quem tenha começado a usar os agentes de IA de forma desgovernada, sem integração entre as áreas do negócio, o que traz desconhecimento de como estão sendo efetivamente utilizados”, observa o executivo. Na sequência, ultrapassado esse momento do inventário, é preciso definir os fornecedores com os quais a empresa quer trabalhar, que façam sentido para sua estrutura técnica, além das ferramentas que serão adotadas. “Fazendo um paralelo com nosso dia a dia de usuário, isso significa escolher entre Gemini, ChatGPT e DeepSeek, por exemplo. Também passa por saber as ferramentas permitidas para uso pelos funcionários”, diz Andrei. Isso porque deve haver idealmente uma estrutura tecnológica que adote os mesmos sistemas e ferramentas para facilitar a padronização e, por consequência, a aplicação da governança.
Tendo clareza sobre todos esses passos iniciais, Andrei comenta que, a partir disso, há espaço para a aplicação da federação de agentes. O caminho passa a ser definir a estrutura de governança por trás desses agentes de IA, com a separação de papéis, a definição da matriz de responsabilidades e dos processos internos para mitigar os riscos de erro ou de inovação por parte da tecnologia. “Caso eles venham a ocorrer em último caso, vencidas todas as etapas preventivas, a federação garante que os profissionais responsáveis sejam avisados a tempo de evitar maiores prejuízos financeiros e reputacionais”, explica.
Um aspecto curioso da verificação do trabalho dos agentes é que essa supervisão se dá, em um primeiro momento, por outros agentes. Chamada de orquestração de agentes, essa técnica define uma hierarquia entre eles para que, a exemplo da forma como os humanos se organizam, haja sempre um supervisor responsável. Não apenas esse supervisor fiscaliza o trabalho de vários agentes ao mesmo tempo, como também sabe quem são todos eles, podendo delegar a tarefa ao agente que realmente sabe realizá-la.
Todo esse trabalho da federação de agentes foi realizado pela EY para uma mineradora brasileira, que, no início do projeto, usava apenas 30 agentes de IA em sua operação. “Quando terminamos a implementação, ela já utilizava cerca de mil agentes, planejando chegar a cinco mil no fim deste ano”, diz Andrei. “Isso só foi possível porque definimos as permissões necessárias para atuação dos agentes nas diferentes tarefas internas da companhia, bem como as outras características de governança já comentadas”, completa.
Supervisão humana
A utilização dos agentes de IA, que tem aumentado a produtividade das organizações, requer supervisão humana. Faz parte da federação de agentes notificar o humano responsável pelo projeto ou pela atividade no caso de algo estranho estar acontecendo. Pode ocorrer algum erro ou inovação da IA por parte desses agentes, não seguindo o regramento interno, por exemplo. “Eventualmente, esses agentes podem fazer algo que fuja da normalidade ou do esperado, até porque esse é um comportamento inerente dos agentes de IA. Sem a federação de agentes, que cria uma governança com mecanismos de controle, a empresa não vai ficar sabendo”, pontua Andrei.
Além de um framework de governança, a federação tem uma arquitetura voltada para a escalabilidade e observabilidade dos sistemas de IA. Para poder contar com mais de mil agentes, a empresa precisa ter um ecossistema que permita conectá-los de forma segura, confiável (do ponto de vista de disponibilidade, qualidade e latência do serviço) e sustentável (do ponto de vista de custo) em diferentes sistemas, como ERP, CRM, banco de dados e aplicações. “A arquitetura da federação de agentes combina não somente as camadas de integração e segurança, mas também as de observabilidade de custo/resultado (FinOps) e qualidade/propósito do agente”, diz Andrei.
Auditoria de robôs
Daqui a poucos anos, conforme observa Andrei, os agentes de IA farão todas essas atividades que costumam ser auditadas nas empresas, especialmente as de capital aberto, como contas a pagar, contas a receber, todo o fluxo de requerimento ou de requisição de compra, entre outras. Cada uma dessas ações precisa ter acompanhamento e rastreabilidade sob pena de as organizações terem suas contas recusadas.
“Também por isso a governança dos agentes de IA precisa ser desenvolvida com esse olhar para a auditoria e consultoria em diferentes áreas do negócio. Não se trata apenas de usar a tecnologia, mas de saber aplicá-la no dia a dia do negócio em conformidade com frameworks e metodologias que considerem de fato os riscos aos quais as organizações estão sujeitas no uso da IA”, finaliza Andrei.