A Inteligência Artificial está nos deixando mais burros? A ciência da cognição, produtividade e aprendizagem Link para o cabeçalho

Sejamos honestos: em algum momento do último ano, você provavelmente já teve essa pulga atrás da orelha. Talvez tenha sido quando você usou o ChatGPT para escrever um e-mail difícil, ou quando pediu ao Gemini para resumir um relatório longo, ou quando viu um código complexo ser gerado em segundos.

A sensação é uma mistura de admiração e desconforto. É incrível, sim. Mas… será que, ao delegar tanto do nosso pensamento para essas ferramentas, não estamos deixando nossos próprios cérebros “enferrujarem”? A pergunta que paira no ar é simples e um pouco assustadora: a inteligência artificial está nos emburrecendo?

Essa pergunta, embora compreensível, talvez seja o primeiro erro que cometemos ao analisar o problema.

Do ponto de vista da ciência cognitiva e das ciências sociais, perguntar se a IA “emburrece ou potencializa” é como perguntar se o fogo “constrói ou destrói”. A resposta, obviamente, é “depende”. Depende de como é usado, por quem, em que contexto e com quais salvaguardas.

O que os dados e as pesquisas mais recentes sugerem é algo muito mais incômodo e interessante:

A IA generativa funciona como uma prótese cognitiva. Como qualquer prótese, ela pode tanto ampliar nossas capacidades, nos permitindo ir mais longe, quanto atrofiar os “músculos” que ela substitui, se nos tornarmos totalmente dependentes dela.

Para entender essa dinâmica, precisamos dissecar a pergunta. O que realmente está em jogo não é uma coisa só, mas pelo menos três camadas diferentes:

  1. Cognição: O que acontece com nossa memória, atenção e raciocínio quando delegamos tarefas mentais?

  2. Trabalho: O que acontece com nossa produtividade e com a qualidade do que fazemos?

  3. Sociedade: Quem ganha e quem perde nessa nova configuração?

Vamos mergulhar no que já sabemos, separando fatos com boa evidência de especulações plausíveis, para responder à pergunta central de forma honesta e profunda.

A pergunta certa (e a resposta incômoda) Link para o cabeçalho

Antes de mais nada, precisamos de um banho de realidade. A ideia de que a tecnologia nos “emburrece” não é nova. Ela foi dita sobre a escrita (que destruiria a memória oral), sobre os livros impressos (que banalizariam o conhecimento), sobre as calculadoras (que arruinariam a matemática) e sobre o Google (que acabaria com a leitura profunda).

Em cada um desses casos, a tecnologia não nos tornou “mais burros” de forma global. Em vez disso, ela mudou a forma como pensamos. Ela tornou algumas habilidades menos cruciais (como calcular raiz quadrada à mão) e tornou outras mais cruciais (como saber o que perguntar à calculadora ou como interpretar o resultado).

Com a IA generativa, o salto é parecido, mas muito maior. Ela não apenas armazena ou calcula; ela raciocina e gera linguagem, código e imagens. Isso amplia radicalmente o que podemos delegar.

Parte 1: Como a IA mexe com a nossa mente Link para o cabeçalho

Para entender o impacto da IA, precisamos primeiro entender como nossa mente já usa ferramentas o tempo todo.

O que é “descarga cognitiva” (e por que você sempre fez isso) Link para o cabeçalho

Você não guarda todos os números de telefone que precisa na cabeça; você os salva no seu celular. Você não tenta memorizar sua lista de supermercado; você a anota.

Isso tem um nome técnico: descarga cognitiva (cognitive offloading). É o ato de descarregar tarefas mentais (como memorizar ou calcular) em recursos externos para reduzir nossa carga cognitiva. Fazemos isso para liberar “espaço” mental e poder usá-lo em raciocínios mais complexos.

Sua agenda é uma descarga cognitiva. Sua calculadora é uma descarga cognitiva. O Google Maps é uma descarga cognitiva. E adivinhe? O ChatGPT também é.

A IA generativa é, nesse sentido, uma ferramenta de descarga cognitiva turbinada. Ela não apenas guarda a informação; ela a processa, sintetiza e apresenta para você.

A Mente Estendida: quando seu caderno (ou IA) vira parte do seu cérebro Link para o cabeçalho

Em 1998, os filósofos Andy Clark e David Chalmers propuseram uma ideia radical chamada “Teoria da Mente Estendida”. Eles argumentaram que, quando usamos um artefato externo de forma confiável e constante (como um caderno de notas), esse artefato não é apenas uma ajuda para a mente. Ele se torna, funcionalmente, parte da sua mente.

Se você usa seu celular para lembrar de compromissos com a mesma confiança que usa sua memória biológica, o celular está agindo como uma extensão da sua memória.

A IA é a versão mais poderosa dessa ideia até hoje. Ela não é só uma extensão da memória; ela é uma extensão do raciocínio, da escrita e até da criatividade.

O risco da atrofia: “deskilling” ou redistribuição da inteligência? Link para o cabeçalho

Aqui chegamos ao núcleo do medo. Se eu parar de usar meus músculos, eles atrofiam. Se eu parar de usar minha memória ou minha capacidade de escrever um parágrafo coeso, elas também atrofiam?

A resposta é um sonoro “sim, é um risco real”.

Estudos sobre o uso de ferramentas digitais, como calculadoras, já mostraram um padrão claro:

  • Usuários que já dominam a habilidade básica (ex: entendem aritmética) usam a ferramenta para ir mais longe e resolver problemas mais complexos.

  • Usuários que pulam a etapa de aprendizagem e se apoiam na ferramenta desde o início correm o risco de não desenvolver a base conceitual. Eles ficam frágeis e não sabem o que fazer se a ferramenta falhar.

Esse padrão reaparece com a IA generativa. Uma revisão recente sobre IA e pensamento crítico encontrou uma associação preocupante: um maior uso de IA para delegar tarefas (descarga cognitiva) estava ligado a níveis mais baixos de pensamento crítico. Por quê? Porque parte do esforço de analisar, avaliar e sintetizar estava sendo terceirizado.

Isso não prova que a IA “emburrece” a todos. Prova que, se usada de forma passiva e como um atalho permanente, ela reduz o treino de habilidades de avaliação.

Some-se a isso o “viés de automação” (automation bias), nossa tendência bem documentada de confiar em respostas de sistemas automatizados, mesmo quando nosso próprio julgamento ou outros sinais sugerem que a resposta está errada. Aceitamos a resposta plausível da IA sem a devida checagem.

O paralelo da internet: por que a IA é diferente do Google Link para o cabeçalho

Em 2008, o jornalista Nicholas Carr perguntou: “O Google está nos tornando estúpidos?”. Sua tese era que a internet estava destruindo nossa capacidade de atenção e “leitura profunda”, nos treinando para “saltar” entre informações.

A IA generativa apresenta um risco parecido, mas mais sutil.

  • A internet nos inundou com informações e links, exigindo que nós fizéssemos o trabalho de síntese.

  • A IA condensa e reescreve essa informação para nós, criando a ilusão de compreensão rápida.

Estudos preliminares sobre o uso de resumos automáticos mostram que, embora os usuários sintam que “entenderam” o tema, eles têm um desempenho pior em tarefas que exigem inferência profunda ou aplicação daquele conhecimento em um novo contexto.

Um estudo do MIT Media Lab, reportado pela revista Time, descobriu que participantes que usaram ChatGPT para escrever textos mostraram menor engajamento neural e produziram textos mais formulaicos (previsíveis). O grupo que escreveu primeiro sem a ferramenta teve que “suar” mais, mas mostrou maior conectividade cerebral e sensação de autoria.

O sinal que emerge é claro: usar a IA cedo demais no processo pode podar o esforço cognitivo que gera a aprendizagem real.

Parte 2: O grande paradoxo da produtividade e criatividade Link para o cabeçalho

Se no campo da cognição pura há sinais de alerta, no mundo do trabalho e da produtividade, o cenário parece ser de ganhos massivos. Mas, novamente, a história é mais complexa.

Ganhos impressionantes: o que dizem os experimentos de campo Link para o cabeçalho

Nos últimos dois anos, uma onda de estudos de alta qualidade (com experimentos controlados em empresas reais) começou a medir o impacto da IA. Os resultados são impressionantes:

  • Atendimento ao Cliente: Um estudo famoso com mais de 5.000 atendentes de suporte descobriu que o acesso a um assistente de IA aumentou a produtividade (resolução de problemas por hora) em 14% a 15% em média.

  • Programação: Estudos com ferramentas como o GitHub Copilot registraram aumentos de 30% a 55% na velocidade de entrega de tarefas de código.

  • Escrita Profissional: Um experimento com consultores e outros “trabalhadores do conhecimento” (advogados, profissionais de marketing, etc.) mostrou que o uso de IA para tarefas de escrita aumentou drasticamente a velocidade e, em muitos casos, a qualidade percebida do resultado final.

A evidência aqui é robusta: sim, para muitas tarefas profissionais, a IA generativa nos torna significativamente mais produtivos.

O “efeito nivelador”: novatos se aproximam dos especialistas Link para o cabeçalho

O dado mais fascinante desses estudos não é nem o ganho médio, mas quem mais se beneficia.

Em quase todos os experimentos, os maiores ganhos de produtividade não foram dos seus funcionários “estrelas” ou de alta performance. Foram dos trabalhadores novatos e daqueles com desempenho mais baixo.

No estudo de atendimento ao cliente, por exemplo, os novatos e os piores performers viram ganhos de produtividade de até 30% a 35%, enquanto os especialistas mal tiveram ganhos.

Por que isso acontece? A IA age como um repositório do conhecimento tácito da empresa. Ela ensina ao novato, em tempo real, as melhores práticas, o tom de voz correto e as soluções que os especialistas levaram anos para aprender.

Em suma, a IA generativa funciona como um grande nivelador de performance. Ela eleva o “piso” de qualidade e competência da equipe inteira.

Velocidade vs. Qualidade: o risco da “solução mediana” Link para o cabeçalho

Tudo bem, fazemos as coisas mais rápido e os novatos melhoram. Mas o trabalho fica melhor no geral?

Aqui, a resposta é mista.

  • Em tarefas padronizadas e repetitivas (responder dúvidas frequentes, gerar código-padrão), a qualidade tende a melhorar ou ficar estável.

  • Em tarefas de alta ambiguidade, estratégia ou criatividade original, o cenário muda. A IA é treinada na totalidade da internet; ela é, por definição, uma máquina de produzir a “média” estatística do que já foi feito.

Isso significa que, embora ela seja ótima para nos tirar do “zero” e produzir um rascunho de qualidade “B+”, ela tem dificuldade em produzir um trabalho “A++” verdadeiramente original ou disruptivo. O risco é que, ao nos apoiarmos demais nela para ideias, comecemos a convergir para soluções medianas e percamos a capacidade de explorar alternativas menos óbvias.

Criatividade: catalisador genial ou máquina de clichês? Link para o cabeçalho

O mesmo paradoxo se aplica à criatividade. Para artistas, designers e escritores, a IA pode ser um catalisador incrível para:

  • Quebrar o bloqueio criativo.

  • Gerar dezenas de variações de uma ideia em minutos.

  • Facilitar o brainstorming e a prototipagem.

Estudos mostram que o acesso a ideias geradas por IA pode aumentar a qualidade percebida de soluções criativas, especialmente para pessoas que não se consideram “criativas”.

O outro lado da moeda é a homogeneização. Se todos usarmos as mesmas ferramentas, treinadas nos mesmos dados, corremos o risco de ver nossa cultura visual e textual convergir para um “estilo IA” genérico e previsível.

A mudança mais profunda é no papel do profissional. Muitos estão deixando de ser “criadores” focados na execução manual (desenhar, escrever) para se tornarem “orquestradores” ou “curadores”, focados em conceber a ideia, guiar a IA, selecionar as melhores saídas e refinar o resultado.

Parte 3: Educação na era do ChatGPT Link para o cabeçalho

Em nenhum lugar o debate sobre “atrofia vs. ampliação” é mais intenso do que na educação. As ferramentas de IA generativa invadiram escolas e universidades, e o sistema ainda não sabe como reagir.

Tutor socrático ou máquina de cola? Link para o cabeçalho

O potencial da IA na educação é, honestamente, revolucionário. Relatórios de organizações como a UNESCO e a OCDE destacam que a IA pode funcionar como um tutor adaptativo universal.

Imagine um estudante em uma sala de aula lotada. O professor não tem tempo para ele. Com a IA, ele pode ter um “tutor” paciente que:

  • Explica o Teorema de Pitágoras de dez formas diferentes, até ele entender.

  • Simula um diálogo socrático sobre a Revolução Francesa.

  • Cria exercícios de matemática sob medida para suas dificuldades.

Por outro lado, o pesadelo de todo professor se materializou: o uso massivo de IA para cola, plágio e produção de trabalhos sem esforço. Ferramentas de detecção são falhas, e a linha entre “usar como apoio” e “fraudar” é tênue.

Estudos sobre o uso de IA na escrita universitária mostram esse dilema:

  • Quando usada como revisora, a IA melhora a coesão e o vocabulário, especialmente de alunos com dificuldades.

  • Quando usada para produzir o texto inteiro, ela reduz a capacidade do aluno de planejar argumentos e defender ideias próprias.

O que a Geração Z já entendeu (e as escolas ainda não) Link para o cabeçalho

Enquanto as instituições debatem se “proíbem ou liberam”, os alunos já tomaram sua decisão. O debate está, na prática, superado.

  • Pesquisas no Reino Unido indicam que cerca de 88% dos estudantes de ensino superior já usaram IA generativa em suas tarefas.

  • Levantamentos mais amplos com a Geração Z sugerem que mais de 90% usam IA para trabalhos escolares.

Eles usam para explicar conceitos, resumir textos longos (que talvez devessem ler) e gerar ideias de pesquisa. A questão real não é se eles vão usar, mas que tipo de uso vamos ensinar e institucionalizar? Aquele que atrofia ou aquele que fortalece?

Repensando a aprendizagem (com ajuda de Bloom e Vygotsky) Link para o cabeçalho

Para quem estuda pedagogia, a IA não quebra as teorias clássicas; ela as coloca em evidência.

  1. Taxonomia de Bloom: Essa teoria classifica a aprendizagem em níveis (Lembrar, Compreender, Aplicar, Analisar, Avaliar, Criar). A IA é fantástica para os níveis baixos (lembrar e compreender). Mas, se mal usada, ela permite que o aluno “pule” as etapas de esforço necessárias para chegar aos níveis altos (análise, avaliação), que é onde o aprendizado real acontece.

  2. Zona de Desenvolvimento Proximal (Vygotsky): Vygotsky dizia que aprendemos na “zona” entre o que conseguimos fazer sozinhos e o que conseguimos fazer com ajuda de um “outro mais capaz”. A IA pode ser esse “outro” perfeito, nos ajudando a dar o próximo passo. O perigo é se ela nos carregar no colo, em vez de apenas nos dar a mão.

Parte 4: Os impactos sociais e éticos da nossa nova prótese Link para o cabeçalho

Até agora, focamos no indivíduo: nosso cérebro, nosso trabalho, nossa escola. Mas a implantação de uma “prótese cognitiva” em escala planetária tem efeitos colaterais sociais profundos.

O mercado de trabalho: automação de tarefas, não (ainda) de empregos Link para o cabeçalho

Relatórios do Fórum Econômico Mundial e da OCDE convergem em um ponto: a IA generativa, no curto prazo, tende a automatizar tarefas, não ocupações inteiras.

Seu trabalho não é uma coisa só; é um “pacote” de 20 tarefas diferentes. A IA talvez consiga automatizar 5 delas (escrever e-mails de rotina, preencher relatórios, rascunhar apresentações), liberando você para focar nas outras 15 (negociar com um cliente difícil, ter uma ideia estratégica, mentorar um colega).

O FMI, no entanto, é mais cauteloso. Um relatório recente estima que cerca de 60% dos empregos em economias avançadas podem ser significativamente impactados.

O maior risco não é o desemprego em massa, mas o aumento da desigualdade. Quem mais se beneficia da IA? Trabalhadores com alto nível educacional e boa literacia digital, que a usam para ampliar sua produtividade. Quem mais perde? Trabalhadores em tarefas repetitivas, que veem suas habilidades substituídas. Grupos vulneráveis, como mulheres em setores de outsourcing, podem ser desproporcionalmente afetados.

O verdadeiro “emburrecimento” aqui pode ser estrutural: a criação de uma sociedade onde quem não sabe usar IA de forma sofisticada fica para trás.

A “AI Anxiety” e o paradoxo do burnout Link para o cabeçalho

Junto com a adoção das ferramentas, surgiu um novo fenômeno psicológico: a “AI Anxiety” (Ansiedade de IA). É uma combinação de medos: medo de perder o emprego, medo de ficar obsoleto, medo de não conseguir acompanhar a velocidade das mudanças. Mais da metade dos trabalhadores relata essa preocupação.

Ironicamente, a IA é vendida como uma solução para o burnout, por sua capacidade de automatizar tarefas chatas e burocráticas. Mas ela cria um paradoxo: a própria necessidade de aprender e dominar essas novas ferramentas, que mudam a cada semana, aumenta a carga cognitiva e o estresse.

Quem é o responsável? O “viés de automação” e as “zonas de fratura moral” Link para o cabeçalho

Quando delegamos nosso pensamento, delegamos também a responsabilidade?

Já falamos do “viés de automação”: confiar cegamente na máquina. Isso é perigoso em qualquer área, mas em medicina ou engenharia, pode ser fatal. Estudos mostram que profissionais podem acabar substituindo suas decisões corretas por recomendações erradas do sistema.

Isso leva a um conceito assustador chamado “Moral Crumple Zone” (Zona de Fratura Moral). Em um carro, a “crumple zone” (zona de deformação) é a parte projetada para amassar e absorver o impacto em uma batida, protegendo os passageiros.

Nos sistemas de IA, a “zona de fratura moral” é o ser humano. Quando um sistema complexo e opaco de IA falha (ex: um algoritmo de crédito nega um empréstimo injustamente), a responsabilidade não fica com os designers ou com o algoritmo. Ela é empurrada para o operador humano na ponta (o gerente do banco), que é forçado a assumir a culpa por uma decisão que ele não entende e não pode contestar.

Corremos o risco de criar um sistema de “desempoderamento moral”: sentimos que decidimos menos, mas somos responsabilizados por mais.

Poluição informacional e a crise de confiança Link para o cabeçalho

Finalmente, há o impacto da IA no nosso ecossistema de informação. Se o Google nos sobrecarregou de informações, a IA generativa permite a poluição informacional em escala industrial.

A capacidade de gerar textos, imagens, áudios e vídeos falsos (deepfakes) de forma barata e convincente ameaça erodir a confiança pública. O problema não é apenas a desinformação; é a saturação.

Quando o custo de produzir conteúdo mediano, plausível e em grande volume cai para zero, a internet é inundada. Nossa atenção e capacidade de checagem, que já eram escassas, entram em colapso. O resultado é o cinismo: se tudo pode ser falso, talvez “não dê para acreditar em nada”.

Isso não é um “emburrecimento” clássico, mas é um embotamento da nossa capacidade de navegar na realidade e tomar decisões informadas.

Conclusão: A inteligência artificial não é o ponto final, é um novo ponto de partida Link para o cabeçalho

Vamos voltar à pergunta inicial: a IA está nos emburrecendo?

Com base nas evidências que temos até agora, a resposta mais honesta e responsável é esta:

  1. Em termos de produtividade, NÃO. Ela está, na média, nos tornando mais rápidos e capazes, especialmente ao elevar o desempenho de quem tem menos habilidades iniciais.

  2. Em termos de pensamento crítico, HÁ UM RISCO REAL DE ATROFIA. Se usada como um atalho passivo para evitar esforço cognitivo, a IA pode, sim, enfraquecer nossas habilidades de análise, escrita autoral e checagem independente.

  3. Os efeitos são DESIGUAIS. O maior perigo não é um “emburrecimento” global, mas um aprofundamento da desigualdade. Quem já tem capital educacional e digital usa a IA como uma alavanca para se tornar ainda mais produtivo. Quem a usa como “cola” ou “oráculo” torna-se mais dependente e vulnerável.

A IA generativa, por si só, não emburrece nem ilumina. Ela é um amplificador. Ela amplifica nossa intenção, nossa curiosidade, nossa preguiça e nossas instituições.

Se a tratarmos como um oráculo infalível e delegarmos nosso pensamento crítico, veremos um “emburrecimento estrutural”. Nossas habilidades de escrita, análise e tomada de decisão vão se concentrar em uma elite que sabe como “orquestrar” as máquinas, enquanto a maioria se contenta em aceitar a primeira resposta.

Mas se a tratarmos como o que ela é – uma “prótese cognitiva” incrivelmente poderosa, mas falha – podemos usá-la para expandir, e não encolher, a inteligência humana. Isso exige repensar radicalmente como educamos (focando em perguntas, checagem e ética) e como trabalhamos (focando em supervisão humana e julgamento).

A IA não é o destino final da inteligência. Ela é apenas a ferramenta mais complexa que já construímos para estender nossas próprias mentes. O que faremos com esse poder, e quem nos tornaremos no processo, ainda é uma escolha nossa.

Referências Selecionadas Link para o cabeçalho

  1. Brynjolfsson, E.; Li, D.; Raymond, L. (2023). Generative AI at Work. NBER Working Paper 31161 / The Quarterly Journal of Economics. Disponível em: https://www.nber.org/papers/w31161

  2. Noy, S.; Zhang, W. (2023). Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence. Science. Disponível em: https://www.science.org/doi/10.1126/science.adh2586

  3. Peng, D. et al. (2023). The Impact of AI on Developer Productivity: Evidence from GitHub Copilot. arXiv. Disponível em: https://arxiv.org/abs/2302.06590

  4. Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and Critical Thinking. Societies, 15(1), 6. Disponível em: https://www.mdpi.com/2075-4698/15/1/6

  5. Clark, A.; Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7–19. Disponível em: https://www.alice.id.tue.nl/references/clark-chalmers-1998.pdf

  6. Carr, N. (2008). Is Google Making Us Stupid? The Atlantic. Disponível em: https://onlinelibrary.wiley.com/doi/10.1111/j.1744-7984.2008.00172.x

  7. Cotton, D. et al. (2023). Chatting and Cheating: Ensuring Academic Integrity in the Era of ChatGPT. Innovations in Education and Teaching International. Disponível em: https://www.tandfonline.com/doi/full/10.1080/14703297.2023.2190148

  8. Higher Education Policy Institute (2025). Student Generative AI Survey 2025. Disponível em: https://www.hepi.ac.uk/reports/student-generative-ai-survey-2025/

  9. UNESCO (2023). Guidance for generative AI in education and research. Disponível em: https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research

  10. OECD (2019). Artificial Intelligence in Society. OECD Publishing. Disponível em: https://doi.org/10.1787/eedfee77-en

  11. World Economic Forum (2023). The Future of Jobs Report 2023. Disponível em: https://www.weforum.org/publications/the-future-of-jobs-report-2023/

  12. Zhou, E. et al. (2024). Generative artificial intelligence, human creativity, and art. PNAS Nexus, 3(3), pgae052. Disponível em: https://academic.oup.com/pnasnexus/article/3/3/pgae052/7618478

  13. Bermes, A. (2021). Information overload and fake news sharing: A transactional stress perspective. Journal of Information Science. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC8723157/

  14. Elish, M. C. (2019). Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction. Engaging Science, Technology, and Society. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2757236

  15. Goddard, K. et al. (2012). Automation bias: a systematic review of frequency, effect mediators, and mitigators. BMC Medical Informatics and Decision Making. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC3240751/