TIAGO CUNHA

min de leitura

O risco invisível da inteligência artificial: perder o bom julgamento

Da Redação

| Edição de 09 de fevereiro de 2026 | Atualizado em 09 de fevereiro de 2026

Fique por dentro do que acontece em Apucarana, Arapongas e região, assine a Tribuna do Norte.

Li recentemente na Harvard Business Review um artigo que me fez parar e pensar. Não sobre qual será a próxima ferramenta de inteligência artificial a surgir e resolver todos os problemas, mas sobre algo bem mais humano, e talvez mais urgente: como desenvolver bom senso em um mundo cada vez mais mediado por IA. 

O texto parte de um paradoxo curioso. Nunca tivemos tantas máquinas “inteligentes” nos ajudando a decidir, prever, recomendar e otimizar. Ao mesmo tempo, nunca foi tão importante que as pessoas saibam julgar, interpretar e questionar essas recomendações. E aí está o problema: a própria IA pode estar reduzindo as oportunidades de aprender isso na prática. 

Durante muito tempo, o bom julgamento profissional foi construído no dia a dia: errando, corrigindo, lidando com exceções, enfrentando situações ambíguas e tomando decisões com consequências reais. Hoje, boa parte dessas tarefas intermediárias é automaticamente resolvida por algoritmos. O ganho de produtividade é evidente. O risco silencioso, nem tanto. 

O artigo chama atenção para um ponto sensível: profissionais mais experientes tendem a usar melhor a IA justamente porque já viveram os fundamentos do trabalho. Eles sabem quando confiar, quando desconfiar e quando ajustar o que a máquina sugere. Já quem começa a carreira em ambientes altamente automatizados pode se tornar eficiente rapidamente, mas sem desenvolver repertório para decidir quando a tecnologia erra, exagera ou simplesmente não entende o contexto. Isso vale para o setor de TIC, para o comércio, para a indústria, para o serviço público. 

Em Apucarana, onde muitas empresas estão avançando na digitalização e no uso de dados, a pergunta deixa de ser “qual ferramenta usar?” e passa a ser: quem está aprendendo a decidir melhor com ela? Outro alerta importante do texto é organizacional. Se não cuidarmos disso, podemos formar líderes que sabem pedir relatórios à IA, mas nunca dominaram de fato os processos que supervisionam. 

Gente que delega para algoritmos decisões que exigem sensibilidade, ética, leitura de contexto e responsabilidade humana. A solução não é frear a tecnologia, muito menos ignorá-la. O caminho é redesenhar o trabalho e o aprendizado. Criar espaços onde pessoas ainda precisem pensar, justificar escolhas, analisar consequências e refletir sobre decisões tomadas com apoio da IA, e não em substituição a elas.

O artigo sugere práticas simples, mas poderosas: deixar claro quem decide e por quê; expor profissionais às consequências reais das decisões; usar simulações, estudos de caso e desafios progressivos; incentivar pausas para reflexão, não apenas execução. Em outras palavras, usar a IA como copiloto e não como piloto automático. No fim das contas, a pergunta não é se a inteligência artificial vai decidir por nós. Ela já decide muita coisa. A pergunta é: quem está aprendendo a decidir melhor por causa dela?

Talvez esse seja o verdadeiro diferencial competitivo daqui para frente.