A OpenAI cria uma equipa de “Ads Integrity” para blindar a estreia de anúncios no ChatGPT

A OpenAI está a preparar o terreno para introduzir publicidade no ChatGPT sem comprometer a confiança dos utilizadores. A empresa confirmou que começará a testar anúncios nos Estados Unidos para utilizadores adultos registados nos planos Free e Go, com formatos posicionados no final das respostas e claramente identificados como conteúdo patrocinado.

Em paralelo, uma oferta de emprego publicada no final de janeiro revela a criação de uma equipa específica de “Ads Integrity”. A função (engenheiro/a de software) é descrita como parte de uma equipa construída de raiz e com impacto direto na evolução do produto publicitário. Entre as responsabilidades incluem-se problemas de integridade fundacionais relacionados com a identidade do anunciante, o conteúdo do anúncio, a colocação e a segurança das landing pages, bem como a definição de “restrições e proteções” para que o negócio possa escalar sem comprometer a segurança e a confiança.

A aposta numa camada de integridade surge antes mesmo de o produto atingir escala — uma prática comum nas grandes plataformas publicitárias, devido à pressão constante do fraude e aos riscos de brand safety. No próprio anúncio da vaga é referido o desenvolvimento de sistemas de “know your customer” (KYC) para verificar identidades e avaliar risco, uma abordagem típica do setor financeiro e cada vez mais relevante em ambientes publicitários de self-service, onde agentes maliciosos procuram operar rapidamente.

O contexto de mercado reforça essa necessidade. Investigações recentes têm destacado a dimensão do problema dos “scam ads” em plataformas de grande escala: a Reuters cita declarações da Meta indicando que, em 2025, a empresa removeu mais de 134 milhões de peças de conteúdo publicitário fraudulento, num debate regulatório que aponta precisamente para a exigência de verificações mais rigorosas de anunciantes.

A fase inicial do piloto da OpenAI também sugere um controlo elevado do acesso. Segundo a Adweek e a Business Insider, a empresa está a exigir um compromisso mínimo de 200.000 dólares aos anunciantes participantes. Durante o teste, a OpenAI irá medir, pelo menos, cliques e impressões, com possibilidade de expandir as opções de medição à medida que a experiência evolua.

Para além de evitar fraude, o desafio é também de experiência e credibilidade: a OpenAI terá de manter a separação entre resposta “orgânica” e conteúdo patrocinado para não contaminar a perceção de neutralidade, ao mesmo tempo que demonstra aos anunciantes que o formato gera resultados. Na sua comunicação oficial, a empresa afirma que os anúncios estarão separados e identificados, poderão ser ocultados e terão controlos de personalização; indica ainda que limitará a presença de publicidade em conversas sensíveis e não mostrará anúncios a menores.

Do lado dos watchdogs, o Check My Ads Institute considera que será crucial perceber até que ponto o investimento em integridade se mantém para além do arranque. A COO, Ariella Garcia, entende que o KYC constitui uma base sólida, embora o risco de uma avalanche de anúncios fraudulentos possa ser menor numa fase inicial mais controlada.

No conjunto, a criação da equipa “Ads Integrity” sugere que a OpenAI pretende construir o seu negócio publicitário com salvaguardas desde o primeiro dia: verificação de anunciantes, segurança dos destinos, controlo de posicionamentos e limites claros para proteger a confiança no ChatGPT enquanto testa, mede e ajusta o produto.

Anterior
Anterior

O investimento em publicidade digital na Europa atingirá os 253,1 mil milhões de dólares em 2029

Próximo
Próximo

Internalizar a programática: oportunidade e desafio para as equipas de marketing