Quem é responsável quando os agentes de IA cometem erros?
A primeira assembleia anual da The Agentic Advertising Organization (AAO), realizada sob o nome The Foundry, colocou em cima da mesa uma das questões mais delicadas da nova fase agêntica da publicidade: se os agentes de IA começarem a tomar decisões de marketing, quem responde quando cometem erros?
Esse foi um dos temas mais repetidos durante o evento, tanto nas apresentações como nos workshops. Segundo a crónica, vários participantes alertaram que a indústria corre o risco de automatizar processos defeituosos em vez de os redesenhar. Randall Rothenberg, antigo CEO da IAB U.S., chegou mesmo a citar previsões segundo as quais 95% dos pilotos de IA generativa não conseguem gerar impacto mensurável em profit and loss, e que 40% dos projetos de IA agêntica poderão falhar antes de 2027. A preocupação não se limita à operação. Colleen DeCourcy, CMO da Sonos, criticou uma cultura de otimização que, na sua opinião, priorizou durante anos a eficiência mensurável acima da criatividade real. Também alertou que a criatividade gerada por IA tende a otimizar-se para a suficiência: funcional, escalável e segura para a marca, mas sem a imprevisibilidade nem a ressonância emocional que ajudam a construir marcas duradouras.
Ainda assim, o encontro não colocou em causa a automatização em si. O foco esteve sobretudo em como governá-la. Durante os workshops, realizados sob a Chatham House Rule, repetiu-se uma ideia central: um agente não deve avaliar o seu próprio trabalho. Daí a insistência na necessidade de construir guardrails, objetivos mensuráveis, auditoria e estruturas claras de responsabilidade legal. Segundo Ruben Schruers, CEO da Ebiquity, o grande desafio já não é apenas técnico, mas também jurídico e organizacional: se um buyer agent ou seller agent cometer um erro, ainda não é claro se a responsabilidade recai sobre o modelo, sobre a empresa que o mantém ou sobre a plataforma onde opera. Em paralelo, Brian O’Kelley, CEO da Scope3 e fundador da The Agentic Advertising Organization, defendeu que os sistemas agênticos poderão ajudar a reduzir a dependência do setor em relação às Big Tech e facilitar uma infraestrutura mais interoperável na open web.
Esta dupla tensão atravessou grande parte do evento: por um lado, a indústria quer aproveitar o potencial dos agentes para ganhar eficiência, reduzir tarefas manuais e ligar melhor media, commerce e medição. Por outro, começa a assumir que transferir decisões para sistemas mais autónomos obriga a redefinir responsabilidades que, até agora, estavam bastante mais claras dentro de equipas humanas, agências e plataformas.
Além disso, vários participantes reconheceram que o próprio mercado continua a funcionar de forma fragmentada. Criatividade, media, medição e commerce continuam muitas vezes a operar como silos separados, enquanto a IA tende precisamente a cruzar essas fronteiras. Isso acrescenta outra camada de complexidade: não basta ter agentes mais capazes, também é necessário que as organizações estejam preparadas para os supervisionar de forma coerente.
A indústria já não debate apenas o que a IA agêntica pode fazer, mas também se tem a capacidade de controlo, supervisão e responsabilização que a sua implementação real exige.

