As marcas aceleram a aposta em Agentic AI, mas travam a sua autonomia devido ao risco reputacional
O agentic AI dominou boa parte das conversas em marketing e publicidade ao longo de 2025. O conceito, popularizado como o passo seguinte à IA generativa, promete algo mais ambicioso do que “ajudar a criar”: promete coordenar. Ou seja, permitir que vários agentes de IA colaborem para concluir tarefas complexas com intervenção mínima, combinando ideação, execução e optimização dentro do mesmo fluxo de trabalho.
No entanto, a aterragem na operação diária das marcas tem sido mais cautelosa. Apesar da evolução das ferramentas e do crescimento dos casos de uso, a autonomia total continua a ser a excepção. Na prática, o agentic AI está a ser usado como acelerador e copiloto, mas não como substituto do controlo humano.
De “buzzword” a ferramenta útil, mas com limites claros
A Digiday define o agentic AI como um cenário em que múltiplos agentes trabalham em conjunto para resolver tarefas complexas com supervisão humana mínima. Essa “supervisão mínima” é, precisamente, o ponto onde a promessa colide com os requisitos reais de uma organização: marca, compliance, precisão e reputação.
“Ainda não está pronto para ir directamente da geração à publicação”, explica Karen Rodriguez, senior content marketing manager da New American Funding. A empresa, dedicada ao financiamento hipotecário, implementou agentic AI no seu departamento de marketing para redigir copys e rascunhos activados em redes sociais e email marketing. O programa assenta na Writer, uma plataforma de IA enterprise. Ainda assim, a regra de ouro mantém-se: o conteúdo passa por revisão humana antes de ser publicado e, em alguns casos, por validação legal.
A razão não é apenas “medo” da IA; é uma questão de controlo. Uma marca pode aceitar que a ferramenta acelere o primeiro draft, mas não pode assumir que o sistema aplique sempre com rigor a guia de estilo, o tom, as afirmações permitidas ou a forma correcta de referenciar fontes. Em sectores regulados ou com elevada sensibilidade reputacional, a fasquia é ainda mais alta.
Oura: agentes como editor contextual, não como produtor autónomo
Na Oura, empresa tecnológica de saúde e bem-estar, a abordagem é semelhante. O seu CMO, Doug Sweeny, afirma que estão a utilizar agentic AI para melhorar a performance em agentic search e apoiar a estratégia de conteúdos, mas não publicam conteúdos criados por IA sem intervenção humana. Para a Oura, os agentes funcionam como um “editor” que acompanha: fornecem contexto, estrutura e sugestões, mas não actuam como autores finais.
Esta visão enquadra-se numa adopção incremental: primeiro, os agentes ajudam a detectar oportunidades, melhorar relevância semântica, propor ângulos de conteúdo ou identificar lacunas; depois, a equipa humana decide o que se escreve, como se escreve e o que se publica.
Produtividade real, mas sob um modelo “human-in-the-loop”
O argumento mais convincente para impulsionar estas soluções é o tempo. Rodriguez refere que processos que antes podiam demorar dias — incluindo ciclos de edição, revisões internas e validação legal — agora conseguem ser concluídos no próprio dia. Este padrão é particularmente relevante em equipas com elevada procura de output e pouca margem para aumentar headcount: o agentic AI funciona como multiplicador da equipa.
Esse impacto reflecte-se em métricas de percepção corporativa. De acordo com uma investigação da PwC citada na análise, empresas nos Estados Unidos indicam que o agentic AI aumentou a produtividade (66%) e gerou poupanças (57%). São indicadores que não apontam para substituição total, mas para redistribuição do trabalho: menos tempo gasto em tarefas repetitivas e mais em avaliação, estratégia e aprovação.
Ainda assim, o salto de “produtividade” para “autonomia” não é automático. A produtividade surge quando a IA é integrada em fluxos claros e auditáveis; a autonomia total exige um nível de fiabilidade, consistência e responsabilidade que ainda não é norma.
Os travões: guia de estilo, fontes e imagens
A cautela dos anunciantes concentra-se em três frentes principais:
Alucinações e precisão: um erro factual, uma afirmação sem base ou um dado mal interpretado pode transformar-se rapidamente num problema reputacional.
Consistência de marca: replicar o tom e os matizes de uma marca não se resume a seguir um “style guide”; implica compreender contexto, sensibilidade, limites e posicionamento.
Origem de imagens e rastreabilidade: a geração de imagens levanta dúvidas sobre proveniência, direitos e atribuição, activando alertas legais em muitas marcas.
Writer: explicabilidade como resposta ao risco
Do lado da Writer, o seu CMO, Diego Lomanto, explica à Digiday que a plataforma implementou sistemas para mitigar alucinações e outras fragilidades típicas do agentic AI. Entre eles, oferece uma explicação detalhada de cada acção tomada pelo agente, permitindo ao cliente inspecionar o raciocínio e auditar o processo. Este enfoque responde a uma exigência crescente: não basta que “funcione”, tem de ser explicável.
Isto cumpre duas funções: reduz risco (ao permitir detectar erros antes da publicação) e acelera a adopção interna (ao facilitar a aceitação por equipas legais, de compliance e de segurança).
Agências: adopção desigual consoante a tolerância ao risco
A realidade do mercado é heterogénea. Na Go Fish Digital, agência de marketing digital, alguns clientes mostram maior abertura a serviços baseados em agentes, enquanto outros limitam automatizações ou exigem camadas adicionais de revisão por preocupações com exactidão e fiabilidade. David Dweck, presidente da agência, resume a situação com uma ideia central: o que está a ser construído não é “IA ou humanos”, mas um modelo de interacção.
“Tudo o que construímos foi pensado para o jogo conjunto entre humanos e IA”, afirma. Na prática, isso traduz-se em fluxos onde a IA propõe, resume, classifica ou redige, e os humanos editam, verificam, validam e decidem.
O estado do mercado: copiloto primeiro, piloto depois
O padrão que emerge destes casos é claro: o agentic AI já está a gerar valor no dia a dia do marketing — especialmente em conteúdos e optimização —, mas ainda não ultrapassou o limiar de confiança necessário para operar sem supervisão. No curto prazo, o modelo dominante continuará a ser o “human-in-the-loop”: agentes que aumentam capacidade e velocidade, com a revisão humana como camada de segurança.
O debate já não é se as marcas vão adoptar agentes, mas onde e até que ponto. Para já, o controlo de marca, a consistência editorial e a rastreabilidade dos outputs continuam a pesar mais do que a promessa de automatização total. E em marketing, onde um pequeno erro se amplifica rapidamente, essa prudência não parece um entrave: parece uma condição operacional.

