Como a Inteligência Artificial Nasceu e Se Definiu (1950–1970) Link para o cabeçalho
Hoje, a Inteligência Artificial está em toda parte, mas sua jornada começou muito antes de termos chatbots, tradutores automáticos e modelos generativos escrevendo código ou criando imagens sob demanda.
Entre as décadas de 1950 e 1970, a IA deu seus primeiros passos como campo de pesquisa organizado. Foi nesse período que:
-
o termo “Inteligência Artificial” foi proposto;
-
os primeiros programas de jogo, prova de teoremas e resolução de problemas gerais apareceram;
-
surgiram as primeiras tentativas de ligar cérebro, lógica e computação em um mesmo quadro conceitual;
-
a comunidade descobriu, na prática, que algumas promessas eram bem mais difíceis do que pareciam.
Essa fase é frequentemente chamada de “Era de Ouro” da IA porque:
-
havia muito otimismo;
-
dinheiro fluía de agências de defesa, universidades e grandes empresas;
-
e os avanços pareciam indicar que máquinas realmente poderiam, em breve, fazer coisas “inteligentes”.
Mas também foi nessa época que os limites começaram a aparecer e que se plantaram as sementes dos primeiros “invernos da IA”, quando o entusiasmo e o financiamento diminuiriam.
Para entender o que vivemos hoje com IA generativa, deep learning e modelos de linguagem gigantes, vale voltar a esse período e ver como a IA nasceu, o que prometeu, o que cumpriu - e onde bateu de frente com a realidade.
Antes da Era de Ouro: o contexto pós-guerra e a concentração de gênios Link para o cabeçalho
Antes de mergulhar nos anos 1950–1970, vale lembrar que essa “era de ouro” não começa do zero. Nas décadas de 1930 e 1940, uma combinação improvável de guerra, matemática de ponta e grandes centros de pesquisa criou o terreno onde a IA iria nascer.
Depois do colapso da Europa em guerra, muitos dos maiores nomes da física e da matemática migraram para os Estados Unidos. Em torno de lugares como Princeton (Institute for Advanced Study) e dos laboratórios ligados ao Projeto Manhattan em Los Alamos, formou-se um verdadeiro “cluster de gênios”: pessoas trabalhando em problemas de lógica, computação, física nuclear, criptografia, teoria da informação e controle.
Em paralelo, outros pioneiros estavam criando a linguagem matemática que permitiria pensar informação e circuitos de forma abstrata. Claude Shannon, por exemplo, em sua influente tese de mestrado de 1938, mostra que circuitos de relés podem implementar qualquer expressão de álgebra booleana.
Poucos anos depois, em 1943, Warren McCulloch e Walter Pitts publicam um artigo propondo um modelo de neurônio como unidade lógica binária: ele recebe vários sinais de entrada, soma esses sinais com pesos e “dispara” (ou não) quando um limiar é atingido. Conectando muitas dessas unidades, eles mostram que é possível implementar qualquer função lógica complexa. Essa ideia de neurônios artificiais como blocos lógicos influenciaria diretamente o pensamento computacional da época.
Importante: esse neurônio artificial é uma caricatura extrema de um neurônio biológico real. O neurônio biológico tem milhares de conexões, dinâmica elétrica e química sofisticada e um comportamento riquíssimo que a ciência ainda estuda. O modelo de McCulloch-Pitts captura apenas a ideia de “somar sinais e aplicar um limiar”, o suficiente para fazer matemática, mas muito longe da biologia completa.
No meio desse ecossistema, John von Neumann aparece como peça de ligação: ao mesmo tempo em que trabalhava em modelos matemáticos de explosões nucleares para o Manhattan Project, ele se envolve com o desenvolvimento do ENIAC e, logo depois, escreve o famoso “First Draft of a Report on the EDVAC” (publicado em 30 de junho de 1945 enquanto atuava como consultor do projeto EDVAC). Nesse relatório, von Neumann descreve em detalhes a ideia de um computador de programa armazenado, em que dados e instruções vivem na mesma memória - a base da chamada arquitetura de von Neumann, ainda dominante hoje.1 Poucos anos antes, em 1936, Alan Turing já havia demonstrado os limites do que é computável no artigo “On Computable Numbers, with an Application to the Entscheidungsproblem”, estabelecendo a máquina universal de Turing como base teórica para qualquer computador programável.
O próprio Shannon, em 1948, complementaria seu trabalho ao formular a teoria matemática da comunicação, introduzindo conceitos como bit e entropia de informação. Essas contribuições, juntas, transformaram comunicação e computação em problemas tratáveis de forma unificada.
Quando a IA “aparece oficialmente” em Dartmouth, em 1956, ela não é um tiro no escuro: é o passo seguinte de uma cadeia que inclui lógica matemática, teoria da computação, teoria da informação, máquinas de programa armazenado e uma cultura de pesquisa pesada em defesa, ciência e indústria. A pergunta “as máquinas podem pensar?” só faz sentido porque, poucos anos antes, essas mesmas máquinas tinham sido moldadas para calcular bombas, tabelas balísticas, modelos climáticos e códigos secretos em escala nunca vista.
O Padrinho Filosófico: Alan Turing e a Pergunta de Um Milhão de Dólares Link para o cabeçalho
No início dos anos 1950, computadores eram vistos principalmente como máquinas de cálculo. Eles faziam contas, processavam planilhas, quebravam códigos, mas quase ninguém levava a sério a ideia de que uma máquina pudesse ter algo parecido com “inteligência”.
Para Alan Turing, um dos pais da computação moderna, isso era apenas o começo.
Em 1950, Turing publica o artigo “Computing Machinery and Intelligence”, em que formula a famosa pergunta:
“As máquinas podem pensar?”
Em vez de tentar definir “pensar” de forma abstrata, Turing propõe um experimento prático: o “Jogo da Imitação”, que depois ficaria conhecido como Teste de Turing.
O que é o “Jogo da Imitação” (O Teste de Turing)? Link para o cabeçalho
A ideia é simples e genial:
-
Imagine uma sala onde está um avaliador humano.
-
Ele se comunica, via texto, com dois interlocutores:
-
um humano,
-
e uma máquina.
-
-
O avaliador pode fazer qualquer pergunta que quiser.
-
Depois de um tempo, ele precisa dizer: quem é a máquina?
Se o avaliador não conseguir distinguir com segurança quem é o humano e quem é a máquina, Turing sugere que faz sentido dizer que a máquina “pensa”.
O ponto central:
Em vez de discutir “alma”, “consciência” ou metafísica, Turing nos convida a avaliar inteligência pelo comportamento observável em uma interação linguística.
Essa visão vai influenciar profundamente a IA:
-
ela coloca o foco em comportamento inteligente observável,
-
abre espaço para testes empíricos,
-
e dá uma meta concreta: um dia, construir sistemas que ninguém consiga distinguir de um humano em uma conversa.
A Conferência que “Batizou” a IA: Dartmouth, 1956 Link para o cabeçalho
Se Turing forneceu a pergunta filosófica, um grupo de pesquisadores nos EUA tratou de organizar a parte prática.
Em 1956, ocorre no Dartmouth College, em Hanover (New Hampshire), o famoso “Dartmouth Summer Research Project on Artificial Intelligence”.
Esse encontro é frequentemente tratado como o “ato de fundação” oficial da IA como área de pesquisa.
Quem estava lá? Link para o cabeçalho
Entre os participantes e organizadores, nomes que se tornariam centrais:
-
John McCarthy – figura central na criação do termo “Artificial Intelligence”;
-
Marvin Minsky – um dos grandes defensores da IA simbólica;
-
Herbert Simon e Allen Newell – pioneiros em programas de resolução de problemas e psicologia cognitiva computacional;
-
Claude Shannon – já famoso pela teoria da informação, interessado em jogos e raciocínio automático.
O termo “Artificial Intelligence” foi, na verdade, proposto formalmente em uma proposta datada de 31 de agosto de 1955 (circulada no início de setembro), escrita em colaboração por McCarthy, Minsky, Nathaniel Rochester (da IBM) e Claude Shannon para solicitar financiamento para o workshop de verão. Embora McCarthy seja frequentemente creditado como figura principal, o termo nasceu dessa colaboração entre quatro pesquisadores que buscavam um nome para um novo campo de pesquisa.
O que queriam? Link para o cabeçalho
A proposta do projeto de pesquisa em Dartmouth é impressionante em ambição. Em resumo, eles sugerem:
-
estudar “todo aspecto de aprendizagem ou qualquer outra característica da inteligência” que possa ser descrito com suficiente precisão a ponto de ser simulado por uma máquina;
-
explorar linguagem, abstração, raciocínio, autoaperfeiçoamento;
-
investigar como fazer máquinas que possam usar linguagem, formular conceitos, resolver problemas originalmente considerados exclusivos de humanos.
O pano de fundo:
-
A crença de que inteligência é, em grande parte, manipulação formal de símbolos.
-
A intuição de que se você conseguir representar conhecimento em uma forma simbólica manipulável, então um computador pode, em princípio, raciocinar com esse conhecimento.
Essa visão dá origem ao que depois será chamado de IA simbólica ou GOFAI – Good Old-Fashioned Artificial Intelligence.
Primeiras Demonstrações: “Máquinas Pensando” em Laboratórios Link para o cabeçalho
Entre o final dos anos 1950 e início dos 1960, começam a surgir os primeiros programas que, vistos de fora, parecem “pensar” em domínios específicos.
Programs que jogam, provam teoremas e resolvem quebra-cabeças Link para o cabeçalho
Alguns marcos importantes:
-
Logic Theorist (Newell & Simon, 1955–56)
-
Programa que prova teoremas de lógica de forma semi-autônoma.
-
Consegue provar vários teoremas do Principia Mathematica de Russell e Whitehead.
-
Os próprios autores argumentam que o programa não só encontra provas, mas às vezes encontra provas mais elegantes do que as apresentadas no livro.
-
-
General Problem Solver (GPS) (Newell, Simon & Shaw, 1957)
-
Tenta ser um resolvedor geral de problemas, aplicando um conjunto genérico de estratégias de busca.
-
Implementa ideias como análise de meios-fins: comparar estado atual com objetivo e escolher ações que reduzam a diferença.
-
-
Programas de jogos:
-
Xadrez: primeiros protótipos ainda fracos, mas já capazes de jogar partidas completas;
-
Damas: Arthur Samuel, na IBM, desenvolve entre 1952 e 1959 programas que aprendem a jogar melhor com a experiência, usando técnicas que hoje chamaríamos de aprendizagem por reforço simplificada. Houve uma demonstração televisiva em 1956; a versão de 1959 consolidou o aprendizado por autojogo e, em 1962, o programa venceu o competidor Robert Nealey (apresentado como “checkers master”) em partida pública.
-
Esses projetos mostram que:
-
é possível formalizar problemas complexos em termos de estados, regra de transição, objetivos;
-
a máquina consegue, por busca em espaço de estados, encontrar soluções que exigiriam muito esforço humano.
O clima geral é de euforia: muitos acreditam que, com o aumento da capacidade de processamento, esses métodos irão escalar para problemas cada vez mais gerais.
A Ferramenta Dominante: A Ascensão da IA Simbólica (GOFAI) Link para o cabeçalho
Durante a maior parte da Era de Ouro, a IA foi, essencialmente, simbólica.
O que significa “IA simbólica”? Link para o cabeçalho
A ideia central é:
-
Conhecimento é representado como símbolos explícitos (fórmulas lógicas, regras, estruturas de dados).
-
Raciocinar é manipular esses símbolos de acordo com regras formais (como rules de inferência lógica, encadeamento de regras, busca em árvores etc.).
Em termos simples:
Para os pioneiros da GOFAI, a mente humana é vista como um sistema que processa símbolos, e o computador é uma máquina física capaz de emular esse processamento.
Essa visão se cristaliza no que depois se chamou de Hipótese do Sistema Físico de Símbolos (Newell & Simon):
“Um sistema físico de símbolos tem os meios necessários e suficientes para ação inteligente.”
Ou seja:
-
Se você tiver um sistema físico (um computador) capaz de:
-
armazenar símbolos,
-
combiná-los,
-
manipulá-los segundo regras,
-
-
então, em princípio, ele pode exibir inteligência geral.
Cidades-polo da IA simbólica Link para o cabeçalho
Durante os anos 1960, alguns laboratórios se tornam centros de gravidade da IA simbólica:
-
MIT (Cambridge) – com Marvin Minsky e colegas, fortemente focados em representação de conhecimento, visão, robótica.
-
Stanford – com John McCarthy, Ed Feigenbaum e outros, trabalhando em lógica, sistemas especialistas, Lisp.
-
CMU (Carnegie Mellon) – com Newell & Simon, fortemente ligados à psicologia cognitiva e modelagem de resolução de problemas.
É nesse contexto que surgem tanto programas de robótica simbólica quanto os primeiros sistemas especialistas.
Como representar conhecimento? Redes Semânticas e Frames Link para o cabeçalho
Se a IA simbólica é manipulação de símbolos, surge uma questão prática fundamental:
Como organizar e estruturar esses símbolos para representar conhecimento do mundo?
Duas abordagens importantes surgiram nesse período:
Redes Semânticas (Quillian, 1968) Link para o cabeçalho
Ross Quillian, em 1968, propôs representar conhecimento como um grafo de conceitos conectados por relações semânticas.
Exemplo:
"Gato" --[é um]--> "Mamífero" --[é um]--> "Animal"
\
--[tem]--> "Quatro patas"
A ideia:
-
Conceitos são nós no grafo.
-
Relações entre conceitos são arestas rotuladas (“é um”, “tem”, “parte de”, etc.).
-
O sistema pode inferir propriedades por herança: se “gato é um mamífero” e “mamíferos são animais”, então “gato é um animal”.
Redes semânticas influenciariam:
-
bancos de dados orientados a grafos,
-
ontologias e web semântica (RDF, OWL),
-
sistemas de representação de conhecimento.
Frames (Minsky, início dos anos 1970) Link para o cabeçalho
Marvin Minsky, no início dos anos 1970, propôs frames: estruturas de dados que agrupam tudo que se sabe sobre um conceito ou situação típica.
Um frame para “quarto” poderia incluir:
-
Slots (propriedades): paredes, teto, chão, porta, janela
-
Valores padrão: “geralmente tem 4 paredes”, “normalmente tem 1 porta”
-
Restrições: “porta deve estar conectada a outro espaço”
A ideia é que humanos usam modelos mentais de situações típicas, e frames capturam isso.
Frames influenciariam:
-
paralelos conceituais com programação orientada a objetos (OOP), cujo surgimento formal se deu em Simula 67 e foi popularizado por Smalltalk; a relação é de afinidade conceitual, não de derivação direta,
-
sistemas especialistas nos anos 1980,
-
representação de conhecimento em geral.
Essas abordagens mostravam que como você representa conhecimento é tão importante quanto o que você representa.
Linguagem de Pensamento: Lisp e Outras Ferramentas da IA Link para o cabeçalho
Se a IA simbólica precisava de linguagens para manipular símbolos, alguém teria de criar essas linguagens.
Lisp, a “língua materna” da IA Link para o cabeçalho
John McCarthy, em 1958, cria a linguagem Lisp (LISt Processing), que se torna a língua franca da IA por décadas.
Por que Lisp foi tão importante?
-
Ela foi desenhada desde o início para:
-
manipular listas de símbolos de forma flexível;
-
tratar código como dados (e dados como código), permitindo metaprogramação;
-
apoiar a implementação de interpretadores, motores de regras, sistemas especialistas.
-
As principais vantagens:
-
Sintaxe simples e regular (tudo é lista entre parênteses);
-
Facilidade para representar árvores sintáticas, fórmulas lógicas, regras;
-
Suporte natural a funções de ordem superior e recursão, úteis para percorrer estruturas simbólicas complexas.
Lisp vai se tornar:
-
a base para muitas implementações de IA acadêmica;
-
a língua de vários sistemas clássicos, de DENDRAL a MYCIN (já nos anos 1970).
Outras linguagens também aparecem, como IPL e Planner, mas uma merece destaque especial:
Prolog: a linguagem da lógica Link para o cabeçalho
Em 1972, Alain Colmerauer (Universidade de Marselha) e Robert Kowalski (Universidade de Edimburgo) criam Prolog (Programming in Logic), que introduz um paradigma radicalmente diferente: programação lógica.
Enquanto Lisp manipula listas e funções, Prolog trabalha com:
-
Fatos (declarações sobre o mundo: “Sócrates é humano”),
-
Regras (relações lógicas: “Se X é humano, então X é mortal”),
-
Consultas (perguntas: “Quem é mortal?”).
O programador declara conhecimento em forma lógica, e o sistema infere conclusões automaticamente usando um mecanismo de unificação e busca.
Prolog se tornaria:
-
base para muitos sistemas especialistas nos anos 1980;
-
língua oficial do ambicioso “Projeto da Quinta Geração” do Japão (anos 1980), que tentou criar computadores baseados em lógica;
-
influência duradoura em bancos de dados dedutivos, processamento de linguagem natural e verificação formal.
Junto com Lisp, Prolog representa uma das duas grandes famílias de linguagens da IA clássica: manipulação funcional de símbolos (Lisp) versus inferência lógica (Prolog).
Shakey: O Robô que Tentou Pensar com Regras Link para o cabeçalho
Um dos projetos mais ambiciosos da época foi Shakey, desenvolvido no SRI (Stanford Research Institute) entre 1966 e 1972.
Shakey é frequentemente descrito como o primeiro robô móvel geral capaz de raciocinar sobre suas ações.
O que Shakey fazia? Link para o cabeçalho
-
Shakey tinha forma de um robô alto, com rodas, sensores e uma câmera.
-
Ele operava em um ambiente controlado, com:
-
paredes,
-
blocos,
-
rampas,
-
objetos simples.
-
A tarefa típica:
-
Receber um comando do tipo: “empurre o bloco A para o quarto B”.
-
A partir disso:
-
planejar uma sequência de ações (mover-se, empurrar, subir rampa);
-
perceber o ambiente por meio de visão (muito rudimentar);
-
atualizar seu modelo interno e ajustar o plano se necessário.
-
Por que isso era revolucionário? Link para o cabeçalho
Porque Shakey combinava:
-
Visão computacional (ainda que simples);
-
Planejamento simbólico (com STRIPS – Stanford Research Institute Problem Solver – desenvolvido por Richard Fikes e Nils Nilsson em 1971 especificamente para Shakey, tornando-se um dos primeiros formalismos de planejamento automático);
-
Controle de robô físico.
Ele representava explicitamente:
-
estados do mundo (onde estão o robô, os blocos, as paredes…);
-
ações (mover-se, empurrar, virar, subir rampa);
-
pré-condições e efeitos de ações.
Depois, usava algoritmos de planejamento para encontrar uma sequência de ações válida para atingir o objetivo.
Na época, isso era percebido como um grande passo rumo a robôs realmente “inteligentes”.
Os desafios da visão computacional Link para o cabeçalho
A visão de Shakey, embora “rudimentar”, dependia de avanços pioneiros em visão computacional que estavam acontecendo em paralelo, especialmente no MIT e Stanford.
Alguns marcos importantes:
-
Larry Roberts (MIT, 1963): desenvolveu métodos para reconhecer formas tridimensionais (blocos, cilindros) a partir de imagens bidimensionais, usando análise de linhas e vértices.
-
David Huffman (1971): criou técnicas para interpretar desenhos de linha e inferir estruturas 3D possíveis.
-
David Waltz (MIT, 1972): desenvolveu o algoritmo de Waltz (Waltz filtering) para rotular linhas em desenhos e eliminar interpretações impossíveis usando propagação de restrições – um avanço importante para reconhecimento de cenas.
Esses trabalhos revelaram algo surpreendente:
Extrair significado de imagens é muito mais difícil do que parece.
Humanos fazem isso sem esforço, mas para máquinas:
-
Identificar onde termina um objeto e começa outro é não-trivial.
-
Lidar com iluminação, sombras, oclusões exige raciocínio sofisticado.
-
Reconhecer o mesmo objeto de ângulos diferentes é um problema complexo.
Essas dificuldades explicam por que Shakey operava em ambientes ultra-controlados (paredes brancas, objetos geométricos simples, iluminação uniforme). No mundo real, a visão computacional permaneceria um desafio até o advento de deep learning e redes neurais convolucionais nos anos 2010.
Legado técnico duradouro Link para o cabeçalho
Além do robô em si, o projeto Shakey gerou contribuições técnicas fundamentais que continuam relevantes até hoje:
-
Algoritmo A* (A-star): desenvolvido por Peter Hart, Nils Nilsson e Bertram Raphael, esse algoritmo de busca heurística tornou-se um dos métodos mais usados para encontrar caminhos ótimos em grafos, sendo aplicado em videogames, navegação GPS, planejamento robótico e inúmeras outras áreas.
-
Transformada de Hough: técnica de extração de características em visão computacional, usada para detectar formas geométricas (linhas, círculos) em imagens, fundamental até hoje em processamento de imagens e reconhecimento de padrões.
-
Método visibility graph: abordagem para planejamento de trajetória que permite a um robô navegar evitando obstáculos, base para muitos algoritmos modernos de navegação robótica.
Essas ferramentas, criadas para resolver os desafios práticos de Shakey, transcenderam o projeto e se tornaram pilares da ciência da computação moderna.
Um problema conceitual profundo: o Frame Problem Link para o cabeçalho
Mas o trabalho em Shakey e STRIPS também revelou uma limitação fundamental da IA simbólica, identificada por John McCarthy em 1969: o chamado Problema do Frame (Frame Problem).
A questão é simples de formular, mas difícil de resolver:
Como um sistema sabe o que NÃO muda quando algo muda?
Exemplo concreto com Shakey:
-
Shakey está em uma sala com 10 blocos.
-
Ele move o bloco A de uma posição para outra.
-
Pergunta: como Shakey sabe que os blocos B, C, D, E, F, G, H, I, J não se moveram?
A resposta óbvia parece ser: “representar explicitamente que todos os outros blocos permaneceram no lugar”.
Mas isso leva a uma explosão combinatória:
-
Para cada ação, você precisa listar tudo que não mudou.
-
Em um mundo com N objetos e M propriedades, isso significa N × M fatos a atualizar para cada ação.
-
No mundo real, isso se torna rapidamente intratável.
O Problema do Frame tornou-se uma questão central em IA:
-
Ele mostra a dificuldade de representar conhecimento de senso comum (“obviamente, mover A não afeta B”).
-
Revelou por que sistemas como Shakey eram tão lentos: grande parte do tempo era gasta inferindo o que não havia mudado.
-
Permanece parcialmente não resolvido até hoje, embora haja abordagens práticas (como “closed world assumption” ou lógicas não-monotônicas).
Esse problema conceitual ajudaria a explicar, anos depois, por que a IA simbólica clássica tinha limites fundamentais.
Linguagem Natural e “Brincar de Psicólogo”: ELIZA e SHRDLU Link para o cabeçalho
Outra linha da Era de Ouro foi tentar fazer máquinas entenderem e produzirem linguagem humana.
ELIZA (Weizenbaum, 1966) Link para o cabeçalho
ELIZA é um programa de conversa por texto criado por Joseph Weizenbaum no MIT.
O módulo mais famoso, DOCTOR, imitava um psicoterapeuta rogeriano:
-
O usuário digitava frases;
-
O programa respondia com perguntas e reformulações genéricas, do tipo:
-
“Por que você diz isso?”
-
“Conte mais sobre sua família.”
-
“Você se sente assim com frequência?”
-
Tecnicamente, ELIZA:
-
não tinha modelo de mundo,
-
não compreendia o conteúdo,
-
apenas:
-
fazia casamento de padrões em texto,
-
aplicava regras de substituição pré-definidas,
-
devolvia respostas genéricas.
-
Mesmo assim, muitas pessoas atribuíam compreensão ao programa.
Isso levou Weizenbaum a formular o chamado “efeito ELIZA”:
A tendência humana de atribuir compreensão, intenção e profundidade a sistemas que, na verdade, só estão fazendo manipulação superficial de símbolos.
ELIZA não era um grande avanço técnico como Shakey, SHRDLU ou DENDRAL, mas teve um impacto enorme culturalmente e antecipou debates atuais sobre chatbots e projeção humana sobre máquinas.
SHRDLU (Winograd, 1968–1970) Link para o cabeçalho
Enquanto ELIZA “fingia” entender sem de fato compreender nada, SHRDLU tentava fazer o contrário: entender de verdade um mundo limitado.
-
Ele operava em um “mundo de blocos”:
-
blocos quadrados, triangulares, cilíndricos;
-
uma mesa;
-
um braço robótico simulado.
-
O usuário podia digitar comandos como:
-
“Pegue o bloco vermelho.”
-
“Coloque o cone azul sobre o cubo verde.”
-
“Por que você não conseguiu empilhar aqueles blocos?”
SHRDLU:
-
realizava análise sintática da frase;
-
mapeava termos para objetos e relações do mundo dos blocos;
-
mantinha um modelo de estado atualizado;
-
era capaz de responder perguntas sobre o que tinha feito e por quê, dentro desse mundo restrito.
Isso mostrava que:
- com conhecimento explícito estruturado e um mundo bem limitado, era possível ter algo que se aproximasse de compreensão semântica.
Mas também deixava claro que escalar esse tipo de solução para o mundo real seria muito mais difícil.
Um Caminho Paralelo: Perceptrons e Redes Neurais Iniciais Link para o cabeçalho
Embora a IA simbólica fosse claramente dominante, ela não era a única linha em jogo.
Nos anos 1950 e 1960, surgiu um segundo caminho:
-
modelos inspirados em neurônios e sinapses, mas altamente simplificados;
-
aprendizado por ajuste de pesos a partir de exemplos.
Perceptron (Rosenblatt, 1957-1958) Link para o cabeçalho
O perceptron, desenvolvido por Frank Rosenblatt no Cornell Aeronautical Laboratory entre 1957 e 1958, é um modelo de neurônio artificial capaz de:
-
receber um vetor de entradas (por exemplo, pixels de uma imagem simples),
-
multiplicar cada entrada por um peso,
-
somar tudo e passar por uma função de ativação (um degrau ou algo similar),
-
produzir uma saída binária (por exemplo, “sim / não”, “classe A / classe B”).
O perceptron é treinado com exemplos rotulados:
-
para cada exemplo, se a saída estiver errada, os pesos são ajustados;
-
com o tempo, o modelo aprende um hiperplano de separação entre as classes (casos linearmente separáveis).
No clima de otimismo da época, alguns chegaram a afirmar que perceptrons poderiam:
-
reconhecer padrões complexos,
-
fazer reconhecimento visual,
-
ser base para máquinas de visão mais gerais.
O entusiasmo era tanto que o projeto recebeu financiamento da Marinha dos EUA e chegou a ganhar manchetes otimistas na imprensa (como o New York Times de julho de 1958), ajudando a inflar expectativas que depois se mostrariam irreais.
A crítica de Minsky & Papert (1969) Link para o cabeçalho
Em 1969, Marvin Minsky e Seymour Papert publicam o livro “Perceptrons”, que analisa matematicamente as limitações dessa arquitetura.
Eles mostram, entre outras coisas, que:
-
perceptrons de camada única não conseguem aprender funções simples como XOR;
-
existem limites claros sobre o que pode ser representado sem camadas intermediárias.
Embora o livro não “mate” redes neurais, ele é frequentemente citado como um dos fatores que:
-
reduziram o entusiasmo com essa linha de pesquisa,
-
fortaleceram a impressão de que o futuro da IA estaria na IA simbólica.
Na prática, redes neurais só voltariam a ganhar força décadas depois, principalmente com a popularização do algoritmo de backpropagation por Geoffrey Hinton, David Rumelhart e Ronald Williams em 1986 (publicado na revista Nature), que demonstrou como treinar redes com múltiplas camadas de forma eficiente. Embora os fundamentos matemáticos do backpropagation tivessem sido desenvolvidos antes, esse trabalho de 1986 foi crucial para mostrar sua eficácia prática, juntamente com:
-
aumento de capacidade computacional,
-
grandes conjuntos de dados e melhorias de hardware.
Mas a semente já estava plantada na Era de Ouro.
O Nascimento da Especialização: DENDRAL e os Primeiros Sistemas Especialistas Link para o cabeçalho
Enquanto uns tentavam uma inteligência “geral”, outros começaram a mirar em alvos mais estreitos — mas mais úteis.
Por que a “Inteligência Geral” era tão difícil? Link para o cabeçalho
Os primeiros anos da IA foram cheios de ambição:
-
“vamos criar um resolvedor geral de problemas” (GPS),
-
“vamos fazer um robô compreender o mundo” (Shakey),
-
“vamos conversar de forma natural” (SHRDLU, ELIZA).
Aos poucos, fica claro que:
-
problemas ricos do mundo real exigem quantidades enormes de conhecimento específico;
-
a combinação de percepção, conhecimento, planejamento é explosivamente complexa;
-
muitas vezes, programas funcionam bem em exemplos de laboratório, mas não escalam.
Começa a surgir a percepção de que talvez fosse mais sensato:
-
atacar domínios especializados (como química, medicina, finanças),
-
onde o espaço de problemas é mais restrito,
-
e onde é mais fácil conversar com especialistas humanos que já têm conhecimento estruturado.
DENDRAL: o químico artificial Link para o cabeçalho
Nesse contexto nasce DENDRAL, um projeto iniciado em 1965 em Stanford, envolvendo:
-
Edward Feigenbaum (computação),
-
Joshua Lederberg (geneticista, prêmio Nobel),
-
Carl Djerassi (químico),
-
e uma equipe de pesquisadores.
Objetivo:
-
ajudar na interpretação de espectros de massa,
-
inferindo estruturas moleculares plausíveis para compostos orgânicos.
Como funcionava:
-
O sistema recebia dados experimentais (espectros).
-
Usava conhecimento químico codificado em regras (valências, ligações possíveis etc.).
-
Gerava hipóteses de estruturas que se ajustassem aos dados, podando combinações impossíveis ou muito improváveis.
DENDRAL é frequentemente considerado o primeiro sistema especialista:
-
ele captura o conhecimento de especialistas humanos (químicos) em uma base de regras;
-
usa um motor de inferência para aplicar esse conhecimento a casos específicos;
-
produz resultados comparáveis aos de especialistas humanos, em um domínio bem definido.
Em termos de arquitetura, ele inaugura o padrão:
-
Base de Conhecimento: um conjunto de regras e fatos sobre um domínio bem definido;
-
Motor de Inferência: um mecanismo genérico que aplica essas regras a casos concretos, gerando conclusões, diagnósticos ou hipóteses.
Esse modelo vai inspirar toda uma geração de sistemas especialistas em química, diagnóstico médico, finanças e configuração de produtos complexos.
MACSYMA: o matemático simbólico Link para o cabeçalho
Paralelamente a DENDRAL, outro projeto ambicioso nascia no MIT: MACSYMA (MAC’s SYMbolic MAnipulator), iniciado em 1968 como parte do Projeto MAC (Mathematics and Computation).
Objetivo: criar um sistema capaz de fazer matemática simbólica – manipular expressões algébricas, resolver integrais, simplificar equações, fazer cálculos de cálculo diferencial e integral, tudo simbolicamente, não numericamente.
Exemplo do que MACSYMA podia fazer:
-
Integrar: ∫ x² dx → x³/3 + C
-
Simplificar: (x² - y²)/(x - y) → x + y
-
Resolver equações diferenciais
-
Expandir séries de Taylor
MACSYMA mostrou que IA simbólica podia ser extremamente útil em domínios matemáticos bem definidos:
-
Foi usado por físicos, engenheiros, matemáticos em pesquisa real.
-
Influenciou ferramentas modernas como Mathematica, Maple, SymPy.
-
Demonstrou que sistemas simbólicos podiam ter utilidade prática além de demonstrações de laboratório.
DENDRAL e MACSYMA, juntos, provaram que a estratégia de especialização em domínios restritos funcionava.
O apelo comercial dos sistemas especialistas Link para o cabeçalho
Esse tipo de sistema chamava a atenção não só de químicos e matemáticos curiosos, mas também de gente com problemas de alto risco e muito dinheiro envolvido:
-
laboratórios farmacêuticos tentando acelerar a descoberta de novas moléculas,
-
hospitais e pesquisadores sonhando em apoiar o diagnóstico médico,
-
empresas industriais lidando com configuração de produtos complexos,
-
agências de defesa interessadas em capturar o raciocínio de seus analistas.
A ideia era sedutora: se você conseguir externalizar o conhecimento de um especialista em uma base de regras, esse conhecimento deixa de estar preso a uma única cabeça. A organização ganha escala, consistência e uma certa proteção contra aposentadoria, erro humano ou simples falta de tempo do expert. DENDRAL é visto como o primeiro caso bem-sucedido desse paradigma e abre caminho para sistemas posteriores como MYCIN (iniciado em 1972 em Stanford por Edward Shortliffe, para diagnóstico de infecções bacterianas) e XCON (desenvolvido entre 1978-1980 pela Digital Equipment Corporation para configuração de sistemas de computadores VAX), que vão florescer nos anos 1970 e 1980.
O Fim da Lua de Mel: Sinais de um “Inverno” Iminente Link para o cabeçalho
Apesar de todo o brilho, o final dos anos 1960 começou a trazer nuvens escuras.
Por um lado:
-
robôs como Shakey tinham dificuldades enormes ao sair de ambientes ultra controlados;
-
sistemas como ELIZA mostravam mais projeção humana do que inteligência real;
-
a “explosão combinatória” em problemas de planejamento e prova de teoremas tornava muitos algoritmos impraticáveis.
Por outro lado:
-
agências financiadoras (especialmente militares) começavam a ficar impacientes:
-
as promessas de “máquinas inteligentes em poucos anos” não se concretizavam;
-
projetos de grande porte consumiam muito dinheiro e entregavam pouco retorno prático imediato.
-
Críticas filosóficas: Hubert Dreyfus e os limites da IA simbólica Link para o cabeçalho
Além das frustrações técnicas, surgiram também críticas filosóficas profundas que questionavam os próprios fundamentos da IA simbólica.
Hubert Dreyfus, filósofo na Universidade da Califórnia em Berkeley, tornou-se um dos críticos mais influentes e controversos da IA. Suas críticas começaram em 1965 com um relatório para a RAND Corporation e culminaram no livro “What Computers Can’t Do” (1972, revisado em 1979).
Argumentos centrais de Dreyfus:
-
Conhecimento implícito vs. explícito
-
A IA simbólica assume que todo conhecimento pode ser explicitado em regras.
-
Mas muito do que sabemos é tácito, corporificado, impossível de formalizar completamente.
-
Exemplo: você sabe andar de bicicleta, mas não consegue articular todas as regras que segue.
-
-
O papel do corpo e do contexto
-
Dreyfus, influenciado por Heidegger e Merleau-Ponty, argumentava que inteligência humana está enraizada no corpo e no estar-no-mundo.
-
Sistemas simbólicos desincorporados (sem corpo, sem presença física) teriam limitações fundamentais.
-
-
Crítica ao “Physical Symbol System Hypothesis”
-
Newell & Simon afirmavam que manipulação de símbolos era suficiente para inteligência.
-
Dreyfus contra-argumentava que símbolos precisam estar fundamentados (grounded) em experiência sensório-motora.
-
-
O problema da relevância
-
Em qualquer situação, humanos sabem instantaneamente o que é relevante.
-
Sistemas simbólicos tentam representar tudo explicitamente, levando a explosão combinatória.
-
Essas críticas foram extremamente controversas na época:
-
Pesquisadores de IA as consideravam injustas, pessimistas, mal-informadas.
-
Mas Dreyfus antecipou limitações reais que a IA simbólica encontraria.
-
O debate “Dreyfus vs. IA” se tornou um dos mais acalorados da história da ciência cognitiva.
Retrospectivamente, Dreyfus estava parcialmente certo:
-
✓ IA simbólica sozinha não resolveu problemas como visão, reconhecimento de fala, locomoção.
-
✓ Conhecimento implícito, sensório-motor e corporificado são importantes.
-
✗ Mas ele subestimou o potencial de abordagens estatísticas/neurais (que ele também criticou).
As críticas de Dreyfus ajudaram a criar um clima de questionamento intelectual sobre os fundamentos da IA, contribuindo para o ceticismo que alimentaria o Inverno.
Eventos que precipitaram o Inverno Link para o cabeçalho
Dois eventos marcantes ajudaram a precipitar o que viria a ser chamado de primeiro “Inverno da IA”:
-
A Emenda Mansfield (1969): aprovada pelo Congresso dos EUA, ela mudou radicalmente a política de financiamento do DARPA, exigindo que a agência financiasse apenas “pesquisa orientada a missões diretas” (mission-oriented direct research) ao invés de pesquisa básica sem aplicação imediata. Isso restringiu e redirecionou o financiamento, reduzindo recursos para projetos de IA sem utilidade militar clara.
-
O Relatório Lighthill (1973): encomendado pelo Parlamento Britânico, o relatório do professor Sir James Lighthill criticou duramente o que ele chamou de “objetivos grandiosos” não cumpridos pela IA. Lighthill destacou especialmente o problema da “explosão combinatória” - a ideia de que muitos algoritmos bem-sucedidos em problemas simples simplesmente travavam ao enfrentar problemas do mundo real. O relatório levou a cortes severos e redistribuição da pesquisa em IA no Reino Unido, que continuou ativa sobretudo em alguns centros (Edinburgh, Essex, Sussex, entre outros).
Esses eventos, combinados com as frustrações técnicas, marcaram o início do primeiro “Inverno da IA” (1974–1980) – um período de cortes massivos de financiamento, pessimismo generalizado e estagnação na área.2
Mas esse “fim da lua de mel” não apaga a importância da Era de Ouro:
-
foi quando a IA se formalizou como campo de pesquisa,
-
quando se consolidaram as duas grandes famílias da área:
-
IA simbólica (regras, lógica, representação explícita);
-
redes neurais (perceptron, neurônios artificiais, aprendizado a partir de exemplos),
-
-
e quando surgiram arquiteturas, linguagens e ideias que ainda hoje influenciam a área.
O Legado da Era de Ouro (1950–1970) Link para o cabeçalho
Ao olhar para trás, o período 1950–1970 deixa pelo menos quatro grandes legados:
-
A pergunta certa
Turing e os pioneiros colocam a questão “as máquinas podem pensar?” em termos operacionais:
-
testes (Teste de Turing),
-
comportamentos observáveis,
-
programas concretos.
-
-
A aposta simbólica
A IA passa décadas confiando na ideia de que:
-
representar o mundo em símbolos explícitos,
-
e aplicar regras de manipulação,
-
seria o caminho mais promissor para inteligência geral.
-
-
O nascimento das redes neurais
Mesmo que ofuscadas por um tempo, as ideias de neurônios artificiais, aprendizado por ajuste de pesos e redes como aproximadoras de funções surgem nessa época e voltariam com força total décadas mais tarde, com o deep learning.
-
A ideia de sistemas especialistas
DENDRAL inaugura a noção de que:
-
capturar o conhecimento de um expert humano,
-
codificá-lo em uma base de conhecimento,
-
e aplicá-lo de forma repetível e escalável
pode gerar sistemas extremamente úteis, mesmo sem “inteligência geral”.
-
A Era de Ouro é, portanto, menos uma história de promessas cumpridas e mais uma história de fundamentos:
-
ela não nos deu sistemas realmente gerais,
-
não resolveu de vez o problema da compreensão de linguagem,
-
não antecipou o impacto do machine learning estatístico, do deep learning, dos LLMs, dos agentes autônomos, nem a revolução atual em IA.
Mas deu:
-
as perguntas,
-
as linguagens,
-
as arquiteturas de computador,
-
os primeiros experimentos concretos
a partir dos quais tudo o que veio depois pôde ser construído — inclusive os modelos que hoje, finalmente, começam a lembrar o sonho daqueles pioneiros.
Referências Link para o cabeçalho
-
Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433-460.
-
Turing, A. M. (1936). On Computable Numbers, with an Application to the Entscheidungsproblem. Proceedings of the London Mathematical Society.
-
Dartmouth College Library Archives. (1956). Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
-
Newell, A., & Simon, H. A. (1976). Computer Science as Empirical Inquiry: Symbols and Search. Communications of the ACM.
-
McCarthy, J. (1960). Recursive Functions of Symbolic Expressions and Their Computation by Machine (Part I). Communications of the ACM.
-
Schaeffer, J. (2007). Checkers Is Solved. Science, 317(5844), 1518–1522.
-
IBM Think/Research Blogs. The games that helped AI evolve / histórico do programa de damas de Arthur Samuel.
-
Copeland, B. J. (2019). DENDRAL. Encyclopædia Britannica.
-
Russell, S., & Norvig, P. (2010). Artificial Intelligence: A Modern Approach (3rd ed.). Prentice Hall.
-
Nilsson, N. J. (2010). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.
-
McCulloch, W. S., & Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5(4), 115–133.
-
Von Neumann, J. (1945). First Draft of a Report on the EDVAC. Relatório técnico distribuído pelo Moore School of Electrical Engineering, University of Pennsylvania.
-
Shannon, C. E. (1938). A Symbolic Analysis of Relay and Switching Circuits. Transactions of the American Institute of Electrical Engineers.
-
Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3-4).
-
Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Psychological Review, 65(6), 386–408.
-
Minsky, M., & Papert, S. (1969). Perceptrons: An Introduction to Computational Geometry. MIT Press.
-
Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533–536.
-
Lighthill, J. (1973). Artificial Intelligence: A General Survey. Science Research Council.
-
Entradas históricas relevantes da Wikipedia (consultadas como apoio de linha do tempo, não como fonte primária):
-
History of artificial intelligence
-
Dartmouth workshop (1956)
-
Physical symbol system
-
Perceptron
-
ELIZA
-
AI winter
-
-
Nota histórica: A autoria da arquitetura de programa armazenado é controversa. Embora o relatório leve apenas o nome de von Neumann, Presper Eckert e John Mauchly alegam ter concebido a ideia em 1943-1944. O documento circulou publicamente antes da patente, o que contribuiu para a invalidação parcial da patente do ENIAC em 1973. ↩︎
-
Nota historiográfica: Embora o termo “AI Winter” seja amplamente aceito, alguns historiadores argumentam que a narrativa de “inverno completo” é simplificada. A pesquisa acadêmica em IA continuou nos anos 1970, e sistemas especialistas como MYCIN e DENDRAL floresceram justamente nesse período. O “inverno” foi mais acentuado em certos tipos de financiamento (especialmente militar e para projetos de IA geral) do que em toda a área. Ainda assim, o termo captura bem a mudança dramática de expectativas e recursos que ocorreu no meio da década de 1970. ↩︎