Relatório de Uso
Os relatórios do GenAI compõem a camada de observabilidade e governança operacional da plataforma, consolidando métricas críticas para acompanhamento da operação de agentes de IA em ambiente corporativo. Por meio deles, é possível monitorar de forma estruturada indicadores de consumo de tokens, custos operacionais, volume de interações, alcance de usuários, engajamento, desempenho por fornecedor, estatísticas por agente e eventos de falha, oferecendo uma visão analítica da operação em diferentes níveis de granularidade.
Do ponto de vista funcional, os relatórios permitem correlacionar uso, custo, performance e estabilidade em uma única camada de análise. Isso viabiliza identificar padrões de consumo, comparar comportamento entre modelos e provedores, medir eficiência de agentes específicos, detectar desvios operacionais e apoiar decisões de otimização técnica e financeira com base em dados objetivos. A capacidade de detalhamento por agente e por fornecedor também permite análises mais precisas sobre alocação de recursos, latência, aderência de uso e impacto operacional de cada componente da arquitetura.
Em termos arquiteturais, essa camada de relatórios transforma o GenAI em uma plataforma não apenas de criação e orquestração de agentes, mas também de monitoramento contínuo da operação. Com isso, a empresa passa a dispor de mecanismos para gestão de capacidade, controle de eficiência, acompanhamento de saúde do ambiente e rastreabilidade de comportamento da solução, fortalecendo práticas de governança, previsibilidade de escala e sustentação da operação de IA em produção.

Funcionalidades
O relatório permite utilizar o fitro para ajustar os dados exibidos por período, agente ou cliente.
As seguintes informações são exibidas:
Consumo de token
Permite acompanhar o volume total de tokens processados pelos agentes de IA na plataforma. Esse indicador ajuda a monitorar a intensidade de uso da solução e a entender quanto processamento está sendo demandado pelas interações realizadas. 
Custo operacional
Apresenta o custo operacional gerado pelas interações com os agentes. Esse indicador oferece transparência financeira sobre o uso da plataforma e apoia o acompanhamento dos gastos relacionados ao processamento de IA. 
Número de interações
Mostra a quantidade de interações realizadas com os agentes configurados. Esse indicador permite entender o volume de uso da plataforma e medir o nível de utilização dos agentes pelos usuários. 
Total de usuários
Informa o total de usuários que utilizaram os agentes no período analisado. Esse indicador é importante para medir o alcance da solução e acompanhar sua abrangência dentro do ambiente corporativo. 
Usuários ativos
Exibe a quantidade de usuários com atividade no período selecionado. Esse indicador ajuda a identificar o engajamento atual com os agentes e a acompanhar a adoção efetiva da plataforma. 
Custos por fornecedor
Permite comparar os custos gerados por diferentes fornecedores de IA utilizados na operação. Esse indicador apoia a análise de gastos entre plataformas e ajuda na identificação de oportunidades de otimização financeira. 
Custo por modelo
Detalha o custo associado a cada modelo de linguagem utilizado na plataforma. Esse indicador permite identificar quais LLMs estão sendo mais consumidos e apoia decisões de uso com base em custo e eficiência. 
Latência média por modelo
Apresenta o tempo médio de resposta de cada modelo utilizado. Esse indicador é importante para acompanhar a performance da solução, garantir respostas mais rápidas aos usuários e identificar possíveis gargalos operacionais. 
Erros
Reúne a visão de falhas da operação, permitindo acompanhar ocorrências e contribuir para a estabilidade do ambiente. Esse indicador ajuda a identificar problemas que podem impactar o funcionamento da plataforma. 
Erros por fornecedor
Exibe a distribuição de falhas por fornecedor de IA. Esse indicador permite identificar a origem dos problemas com mais rapidez e agir preventivamente para reduzir impactos aos usuários. 
Relatório de tokens por período
Apresenta a evolução do consumo de tokens ao longo do tempo. Esse indicador permite identificar tendências de uso, oscilações de consumo e períodos de maior processamento na operação dos agentes. 
Tokens por agentes
Mostra quais agentes estão consumindo mais tokens na plataforma. Esse indicador facilita a identificação dos assistentes com maior uso de recursos e apoia análises de eficiência e otimização. 
Tokens por modelo
Permite comparar o consumo de tokens entre os diferentes modelos de linguagem utilizados. Esse indicador ajuda a avaliar quais LLMs estão sendo mais demandados e quais apresentam melhor eficiência para cada cenário. 
Interações com os agentes
Apresenta as interações registradas com os agentes, permitindo analisar padrões de comportamento dos usuários e o histórico de utilização da plataforma. Esse indicador contribui para uma leitura mais detalhada da operação e da adoção dos agentes. 
Como utilizar
Visualize o vídeo abaixo para mais instruções de como acessar e utilizar a funcionalidade.
Atualizado