A regulação da IA divide especialistas e players do setor
O debate em torno da regulação da inteligência artificial continua a intensificar-se à medida que a tecnologia evolui a um ritmo superior ao da própria regulamentação. Neste contexto, uma recente discussão entre líderes do setor evidencia as tensões estruturais entre inovação, responsabilidade e controlo. Segundo a Adweek, num encontro realizado durante o Isaac Asimov Memorial Debate, em Nova Iorque, o ex-CEO da Google, Eric Schmidt, defendeu que os sistemas de IA apresentam comportamentos emergentes difíceis de antecipar, o que limita a capacidade de implementar mecanismos preventivos de governação.
Schmidt argumentou que uma regulação excessivamente restritiva — como, por exemplo, a proibição de modelos mais avançados — poderá travar o progresso tecnológico. Na sua intervenção, sublinhou que estes sistemas desenvolvem capacidades inesperadas que nem sempre são passíveis de teste prévio, obrigando as empresas a lançar produtos e a corrigir falhas posteriormente. Nesse sentido, defendeu que as empresas devem ser responsabilizadas quando violam a lei, mas insistiu também que os erros fazem parte do desenvolvimento de sistemas complexos.
Em contraponto, Latanya Sweeney, professora em Harvard e ex-CTO da Federal Trade Commission, questionou a confiança na autorregulação das grandes tecnológicas. Durante o debate, destacou que, historicamente, estas empresas tendem a ignorar ou reinterpretar normas em função dos seus interesses comerciais. Sweeney acrescentou ainda que problemas associados à IA — como enviesamentos algorítmicos ou danos decorrentes dos dados de treino — não podem ser resolvidos apenas com correções a posteriori. Na sua perspetiva, exigem mudanças estruturais no design e desenvolvimento destas tecnologias. “Existem dúvidas sobre potenciais riscos existenciais no futuro, mas muitos desses impactos já estão a ocorrer no presente. E não tem de ser assim… Tudo depende de quem a IA serve e, sobretudo, de como é concebida: são as decisões tomadas nessa fase que determinam os valores que acaba por refletir”, afirmou.
Por seu lado, Schmidt contestou a ideia de que todos os problemas possam ser prevenidos através de melhor design ou treino. Na sua visão, os sistemas de IA mais avançados não funcionam como máquinas convencionais, mas sim como sistemas complexos e não lineares, capazes de desenvolver comportamentos imprevistos. Ainda assim, alinhou com Sweeney ao reconhecer que, em muitos casos, a velocidade de lançamento foi priorizada em detrimento da prudência. “Foram identificados diversos problemas já com os produtos no mercado, estando agora o foco na sua correção. Esse é o ciclo — e é extremamente difícil de quebrar”, referiu, acrescentando que os developers de IA já recorrem a ferramentas como cartões de avaliação e equipas de testing para antecipar e mitigar riscos antes do lançamento.
No entanto, Nate Soares, presidente do Machine Intelligence Research Institute, considerou estas medidas manifestamente insuficientes. Segundo explicou, os principais laboratórios concentram atualmente esforços na interpretabilidade — isto é, na compreensão do funcionamento interno dos sistemas — e na avaliação do seu potencial risco, mas alertou que esta abordagem não assegura um controlo efetivo. Soares manifestou, assim, preocupação relativamente a uma tecnologia que, como também salientou Schmidt, pode desenvolver comportamentos inesperados. Ainda assim, o ex-CEO da Google manteve uma visão mais otimista: as empresas estão conscientes dos riscos e, na sua opinião, os benefícios da IA acabarão por superá-los.
Este debate reflete uma tensão estrutural crítica para o ecossistema AdTech e tecnológico.

