Ética e Governança na IA: lições do Web Summit 2025
No Web Summit 2025, Daniel Hulme, Chief AI Officer da WPP, trouxe uma reflexão provocadora:
“Ficamos muito entusiasmados com a tecnologia emergente e depois tentamos aplicá-la à resolução dos problemas errados”, afirma, acrescentando que “culpamos a tecnologia, mas a realidade é que os humanos não são bons a perceber quais são as tecnologias certas para resolver os problemas certos”.
Segundo Hulme, muitas empresas aplicam tecnologias emergentes, como a inteligência artificial, a problemas inadequados, simplesmente por não definirem claramente quais são os desafios que querem resolver. Para Rui Damião, jornalista da revista IT Insight, a provocação de Hulme expõe uma falha estrutural na forma como as organizações abordam a transformação digital: aplicam tecnologias emergentes aos problemas errados. Há dez anos era machine learning, agora é Inteligência Artificial (IA) generativa, diz.
Mais decisões, menos dados
Hulme explica que “dar aos seres humanos melhores insights normalmente não leva a melhores decisões”. Ou seja, não é a falta de informação que limita as organizações, mas a dificuldade em transformar insights em escolhas estratégicas eficazes.
A ética na IA começa aqui: aplicar tecnologia aos problemas certos, garantindo que cada algoritmo ou sistema tem um propósito claro e alinhado com os objetivos da empresa.
Automação não é IA
Outro alerta de Hulme é que nem toda “IA” é realmente inteligente. “Se um sistema recebe os mesmos dados e toma a mesma decisão todos os dias, isso é automação, não IA”. A verdadeira IA, para Hulme, é comportamento adaptativo orientado para objetivos: aprende com erros e ajusta decisões futuras. Essa distinção é essencial para que as empresas adotem sistemas de forma responsável e eficaz.
Como aplicar IA de forma ética
Hulme propõe uma framework de seis aplicações da IA que ajudam a orientar decisões estratégicas:
-
- Automação de tarefas repetitivas – libertar recursos humanos para atividades de maior valor;
- Geração de conteúdo – personalização e valor agregado, não apenas produção em massa;
- Representação humana – sistemas que compreendam perceções e emoções reais;
- Machine learning preditiva – insights explicáveis e acionáveis;
- Tomada de decisão complexa – resolver problemas impossíveis de otimizar manualmente;
- Augmentation e agência – IA como co-piloto, combinando capacidades humanas e digitais.
Além disso, Hulme na sua intervenção, destaca três pilares da governança ética da IA:
-
- Intenção: a ética depende da intenção humana por trás do sistema;
- Explicabilidade: os algoritmos devem ser transparentes;
- Superação de objetivos: prever o que acontece se a IA for “demasiado eficaz”.
Para fechar a sua intervenção, Hulme defende que a IA não deve servir apenas ao lucro, mas também a um propósito maior: “se não têm um propósito, não vão conseguir atrair talento de IA … e provavelmente não vão atrair agentes de IA.” A sua visão é de uma protopia (ou seja, uma melhoria constante, incremental), onde a IA remove as fricções na produção e distribuição de bens essenciais — como energia, educação, saúde — tornando-os tão acessíveis que se tornam quase “abundantes”.
Que lições podemos retirar?
Destas reflexões emergem ações práticas que podem orientar PMEs e empresas tecnológicas rumo a uma utilização mais ética e estratégica da IA:
Definir propósito e estratégia
Aplicar IA apenas quando existe um problema real e relevante a resolver — não porque é tendência, mas porque acrescenta valor ao negócio.
Estabelecer uma governação responsável
Criar políticas internas claras que garantam ética, transparência, explicabilidade e monitorização contínua dos resultados.
Investir em talento e qualidade de dados
Reforçar equipas com profissionais especializados e assegurar dados fiáveis e bem estruturados, fundamentais para qualquer sistema de IA.
Gerar impacto social positivo
Utilizar IA para aumentar eficiência, otimizar recursos e apoiar uma inovação mais acessível, contribuindo para uma transformação digital responsável.
Fonte: It Insight