Inteligência artificial e a armadilha do encantamento.
- Marcelo Souto
- 2 de abr.
- 2 min de leitura

Quando o assunto é inteligência artificial, dois extremos são possíveis, apesar de contraproducentes:
Medo: aqui, a imaginação divaga para a cena de um exército de robôs ganhando autonomia, marchando e escravizando a humanidade, como nas primeiras cenas do filme Exterminador do futuro 2.
Encanto: aqui, o apaixonamento é instantâneo, e geralmente vem acompanhado de boa dose de antropomorfismo, que em linhas gerais é a crença de que a IA nos entende perfeitamente, não somente pensa, mas sente como a gente (sim, há usuários dando nome para as IAs que utilizam).
Como sempre, os extremos se afastam da lógica e mais cegam que ajudam a compreender e assimilar uma nova realidade.
Aqui, vamos focar no problema do encantamento, e trazer a proposta de substituí-lo por o que podemos definir como entusiasmo racional.
No encantamento, o usuário deixa de retirar o melhor da ferramenta de IA, exatamente porque interage com ela como se a mesma fosse uma pessoa. Vejamos o que o próprio ChatGPT explica quando perguntamos a ele a diferença entre a inteligência humana e a artificial e exploramos alguns aspectos:
“Meu entendimento de significado é estatístico, não conceitual. Embora eu consiga inferir relações entre palavras e contextos, não possuo uma compreensão profunda da realidade como um ser humano.”
“Não tenho intenção própria, apenas simulo respostas apropriadas com base no contexto fornecido”.
Minha criatividade é combinatória: eu reorganizo informações existentes de formas novas, mas não crio conceitos ex nihilo (do nada).
Em síntese:
“Minha inteligência linguística é poderosa e permite interações sofisticadas, mas minha compreensão é simbólica e estatística, não conceitual ou experiencial. Sou excelente em manipular linguagem dentro de padrões aprendidos, mas não possuo verdadeira intencionalidade ou consciência sobre o que digo.”
Como sempre, quando superadas as mágoas do desencanto, o aprendizado aumenta a nossa capacidade de perceber e interagir com a realidade, e é isto que chamo de entusiasmo racional.
Mas se o ChatGPT não é uma “inteligência” humana, o que é?
O ChatGPT e outros modelos do gênero são LLMs (Large Language Models), que de forma bastante simplificada, significa dizer que são treinados para gerar textos naturais, analisando padrões linguísticos, mas não pensam, não têm emoções e não compreendem o mundo como humanos.
Tratá-los como pessoas pode gerar expectativas erradas, resultando em:
Interpretações equivocadas – A IA pode parecer convincente, mesmo quando errada.
Frustração na comunicação – Não tem memória contínua nem intenção própria.
Dependência excessiva – Não substitui o pensamento crítico e exige verificação humana.
Mas é fato que quem usa as IAs, como o ChatGPT, pode e deve sim ser tomado pelo que estamos definindo como entusiasmo racional.
Aqui, a IA pode economizar tempo, ampliar ideias e apoiar decisões, desde que usada estrategicamente. Neste sentido, alguns cuidados são importantes na comunicação:
Seja claro e específico – Perguntas diretas geram melhores respostas.
Forneça contexto – Explicar o objetivo melhora a precisão.
Revise e valide – Não confie cegamente, sempre cheque as informações.
Use como ferramenta, não substituto – A IA apoia, mas não substitui o pensamento crítico.
Refine suas perguntas – Ajustes melhoram a qualidade das respostas.
A Singulari te convida a mergulhar no entusiasmo racional e aprender a usar as IAs para aumentar a produtividade e eficiência do seu trabalho.
Comentarios