A Inteligência Artificial (IA) não é uma invenção recente, mas o ápice de décadas de pesquisa em lógica matemática, estatística e neurociência computacional. Para entender como chegamos aos Grandes Modelos de Linguagem (LLMs) atuais, precisamos voltar ao momento em que a computação deixou de ser apenas sobre “cálculo” e passou a ser sobre “raciocínio”.
Este artigo explora a cronologia técnica da IA, começando em 1947, detalhando as arquiteturas, os períodos de estagnação (Invernos da IA) e a revolução do Deep Learning.
A Gênese (1943–1956): O Nascimento do Neurônio Matemático
Antes mesmo do termo “IA” existir, matemáticos e neurocientistas tentavam fundir a lógica formal com a biologia. O objetivo não era apenas calcular, mas simular o processo de pensamento.
O marco zero conceitual ocorreu em 1947, numa palestra à Sociedade Matemática de Londres, onde Alan Turing rompeu com a ideia de computadores como meras calculadoras e declarou: “O que queremos é uma máquina que possa aprender com a experiência”. Ele antecipou que a programação não seria apenas explícita, mas evolutiva.
Marcos Técnicos Fundamentais:
- 1943 – O Neurônio de McCulloch-Pitts: O neurofisiologista Warren McCulloch e o lógico Walter Pitts publicaram “A Logical Calculus of the Ideas Immanent in Nervous Activity”.
- A Inovação Técnica: Eles provaram que um neurônio biológico poderia ser simplificado como uma unidade lógica digital. O modelo funcionava com entradas binárias (excitatórias ou inibitórias). Se a soma das entradas ultrapassasse um limiar (threshold) fixo, o neurônio disparava (saída 1).
- O Significado: Isso demonstrou matematicamente que uma rede de neurônios artificiais poderia implementar funções lógicas básicas (AND, OR, NOT). Se o cérebro é feito de neurônios, e neurônios são portas lógicas, então o cérebro é, em essência, um computador biológico.
- 1949 – A Regra de Hebb (O Aprendizado): Donald Hebb publicou “The Organization of Behavior”, introduzindo o conceito chave que faltava no modelo anterior: a plasticidade.
- A Regra: “Neurons that fire together, wire together” (Neurônios que disparam juntos, conectam-se).
- Na Prática: Isso forneceu o algoritmo biológico para o aprendizado. Se a entrada A frequentemente causa o disparo da saída B, a conexão (peso) entre elas deve ser fortalecida matematicamente. É a base de todos os algoritmos de ajuste de pesos em redes neurais modernas.
- 1950 – O Teste de Turing: Em seu artigo seminal “Computing Machinery and Intelligence”, Turing propôs o “Jogo da Imitação” para contornar a discussão filosófica inútil sobre “o que é pensar”.
- A Definição Operacional: A inteligência deixou de ser uma propriedade metafísica e tornou-se uma capacidade comportamental. Se um humano (interrogador) não conseguir distinguir estatisticamente se as respostas de texto vêm de uma máquina ou de outro humano, a máquina é considerada inteligente.
A Era de Ouro e o Simbolismo (1956–1974)
O termo “Inteligência Artificial” foi oficializado na lendária Conferência de Dartmouth (1956). Organizada por gigantes como John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, o evento durou um verão inteiro sob uma premissa de otimismo extremo: “Cada aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser descrita com tal precisão que uma máquina pode ser feita para simulá-la.”
Foi o início da GOFAI (Good Old-Fashioned AI), focada na representação simbólica de problemas.
Avanços Técnicos e Marcos:
- 1958 – LISP e o Cálculo Lambda: John McCarthy inventou o LISP (List Processing), baseada no cálculo lambda de Alonzo Church.
- Impacto Técnico: Foi a primeira linguagem a tratar o código como dados (homoiconicidade) e introduziu o conceito de recursão e gerenciamento automático de memória (Garbage Collection) na ciência da computação. Tornou-se a “língua franca” da IA por 30 anos.
- 1959 – General Problem Solver (GPS): Criado por Newell e Simon, foi o primeiro programa projetado para imitar a resolução de problemas humanos.
- A Técnica: Ele separava o conhecimento do problema (regras) da estratégia de resolução. Utilizava uma técnica chamada Análise de Meios-Fins (Means-Ends Analysis), tentando reduzir a diferença entre o “estado atual” e o “estado meta” passo a passo.
- 1958 – O Perceptron Mark I (A Abordagem Conectivista): Enquanto a maioria focava em símbolos, Frank Rosenblatt seguiu a biologia. Ele construiu o Perceptron, a primeira rede neural.
- O Hardware: Não era apenas software; era uma máquina física com 400 fotocélulas conectadas a “neurônios” (potenciômetros motorizados).
- O Algoritmo: Era um classificador linear binário. Ele somava as entradas multiplicadas por pesos . Se o resultado fosse errado, o sistema ajustava os pesos automaticamente para corrigir o erro na próxima vez. É o “avô” matemático do Deep Learning atual.
- 1966 – ELIZA e o Processamento de Linguagem Natural: Criada por Joseph Weizenbaum no MIT, foi o primeiro chatbot da história.
- Como funcionava: ELIZA não “entendia” nada. Ela rodava um script chamado DOCTOR que usava Decomposição de Palavras-Chave e regras de substituição simples. Se você digitasse “Estou triste com meu pai”, ela detectava a palavra “pai”, transformava “meu” em “seu” e remontava a frase: “Conte-me mais sobre seu pai”. Isso provou o quão fácil é atribuir inteligência humana a um processamento de texto rudimentar (o “Efeito ELIZA”).
O Primeiro Inverno da IA (1974–1980) – O choque de realidade
Após anos de promessas extravagantes (como a de H.A. Simon, que disse em 1965 que “máquinas seriam capazes de fazer qualquer trabalho humano em 20 anos”), o campo colidiu com a parede da matemática e da física. As agências de financiamento, frustradas pela falta de resultados práticos, cortaram as verbas drasticamente. A DARPA (EUA) encerrou projetos de pesquisa aberta e o governo britânico praticamente desmantelou a IA no país.
As Causas Técnicas do Congelamento:
- A Maldição da Dimensionalidade e Explosão Combinatória:
- O Problema: Os algoritmos funcionavam perfeitamente em “Micromundos” (problemas de brinquedo com poucas variáveis, como o “Mundo dos Blocos”).
- A Matemática: Ao tentar escalar para problemas do mundo real, o número de possibilidades crescia exponencialmente, não linearmente. Muitos problemas de IA revelaram-se NP-Completos. O hardware da época (com alguns kilobytes de memória) não conseguia processar a árvore de busca resultante. O que funcionava para 10 variáveis travava o computador para 100.
- O Livro “Perceptrons” e o Problema do XOR (1969): Marvin Minsky e Seymour Papert publicaram uma análise matemática rigorosa que foi um balde de água fria no conexionismo.
- A Prova Técnica: Eles demonstraram que o Perceptron de camada única (Single-Layer Perceptron) era, por definição, um Classificador Linear. Ele só conseguia separar classes de dados se fosse possível traçar uma linha reta entre elas.
- O Exemplo: A porta lógica XOR (Ou Exclusivo) não é “linearmente separável” (tente desenhar uma linha reta separando os casos verdadeiros dos falsos em um gráfico XOR; é impossível). Como o Perceptron não resolvia nem uma lógica booleana básica, a comunidade assumiu erroneamente que redes neurais eram um beco sem saída, ignorando temporariamente o potencial de redes com múltiplas camadas (por falta de um algoritmo para treiná-las na época).
- O Relatório Lighthill (1973): Encomendado pelo Conselho de Pesquisa Científica do Reino Unido, o professor James Lighthill produziu uma avaliação devastadora.
- A Conclusão: Ele argumentou que as técnicas de IA funcionavam apenas em cenários ideais e falhavam miseravelmente em lidar com a ambiguidade e o ruído do mundo real (como reconhecimento de fala ou tradução automática), classificando o campo como um fracasso acadêmico. Isso levou ao corte de quase todo o financiamento de IA na Europa.
Sistemas Especialistas (1980–1987)
Após o primeiro inverno, a IA renasceu com uma abordagem pragmática: abandonou-se a busca utópica pela “Inteligência Geral” (replicar a mente humana) para focar em “Inteligência Restrita” (resolver problemas de nicho extremamente complexos). Foi o nascimento da Engenharia do Conhecimento.
Pela primeira vez, a IA saiu dos laboratórios acadêmicos e gerou valor real para corporações, tornando-se um produto viável.
Arquitetura e Detalhes Técnicos:
- Separação Lógica (Motor vs. Conhecimento): A grande inovação de software desta era não foi apenas o uso de regras, mas a arquitetura que desacoplava o sistema em dois componentes distintos:
- Base de Conhecimento: Um repositório onde o conhecimento dos humanos era armazenado em forma de fatos e regras lógicas (ex: milhares de instruções If-Then).
- Motor de Inferência (Inference Engine): Um algoritmo genérico capaz de navegar por essas regras, usando “Encadeamento para Frente” (partir dos dados para a conclusão) ou “Encadeamento para Trás” (partir da hipótese para verificar as evidências), deduzindo novas informações sem intervenção humana.
- Linguagens Declarativas: O período foi dominado pelo LISP (nos EUA) e Prolog (na Europa/Japão). Ao contrário de linguagens imperativas (como C ou Pascal) onde você diz ao computador como fazer, no Prolog você declara o que é verdade (fatos) e as relações lógicas, deixando o compilador resolver o problema.
- Caso de Sucesso – XCON (R1): Desenvolvido pela Carnegie Mellon para a Digital Equipment Corporation (DEC).
- O Problema: Configurar os minicomputadores VAX era um pesadelo logístico; cada cliente pedia uma combinação diferente de cabos, memória e periféricos, gerando erros constantes nos pedidos.
- A Solução: O XCON utilizava cerca de 2.500 regras para validar automaticamente a viabilidade técnica dos pedidos.
- O Resultado: Processou 97% dos pedidos com precisão, economizando cerca de 40 milhões de dólares por ano para a DEC. Isso provou ao mercado que IA dava lucro.
O Segundo Inverno da IA (1987–1993)
Se o primeiro inverno foi causado por limitações teóricas, o segundo foi econômico. Na década de 80, criou-se uma bolha de mercado em torno das Máquinas LISP (hardware dedicado criado por empresas como Symbolics e Lisp Machines Inc.), projetadas especificamente para rodar código de IA.
O colapso ocorreu quando a Lei de Moore entrou em ação a favor dos computadores de uso geral. Estações de trabalho da Sun Microsystems e PCs baseados em processadores Intel/IBM começaram a superar a velocidade das caras máquinas LISP, custando uma fração do preço. O software de IA, subitamente, não precisava mais de um hardware especial; ele podia rodar no desktop comum, falindo a indústria de hardware de IA da noite para o dia.
As Causas Técnicas da Estagnação:
- Fragilidade (“Brittleness”): Os Sistemas Especialistas não tinham capacidade de generalização ou “senso comum”. Eles operavam estritamente dentro das regras codificadas.
- O Problema: Se um sistema de diagnóstico médico recebesse um sintoma ligeiramente fora da sua árvore de decisão (um “edge case”), ele não degradava suavemente nem dava um palpite educado; ele falhava catastroficamente ou dava uma resposta absurda. Faltava a robustez estatística que temos hoje.
- O “Gargalo de Aquisição de Conhecimento”: Este é o termo técnico para o custo de manutenção.
- A Dificuldade: Atualizar o sistema não era apenas reescrever código, mas entrevistar novamente especialistas humanos para traduzir novas nuances em regras lógicas (If-Then). Criar regras era fácil; manter a consistência entre 10.000 regras conflitantes tornou-se humanamente impossível.
- O Fracasso do Projeto de Quinta Geração: O Japão investiu centenas de milhões de dólares em um projeto massivo para criar uma “Quinta Geração” de computadores baseados em lógica massivamente paralela (usando a linguagem Prolog). O projeto falhou em atingir seus objetivos ambiciosos, levando governos e investidores globais a fecharem a torneira do financiamento mais uma vez.
A Revolução Estatística e o Machine Learning (1993–2011)
Após o fracasso dos sistemas baseados em regras rígidas, a IA sofreu uma mudança de paradigma fundamental: da dedução lógica para a indução estatística. Em vez de programadores escreverem as regras (“se tem bico e penas, é um pato”), passamos a alimentar algoritmos com dados para que a máquina inferisse as regras matematicamente (“aqui estão 1000 fotos de patos, encontre o padrão visual”).
Foi a era do Machine Learning (Aprendizado de Máquina) clássico, dominado por algoritmos como Support Vector Machines (SVMs) e Random Forests, que eram matematicamente mais prováveis e exigiam menos poder de processamento que as redes neurais da época.
Marcos Técnicos e Transições:
- 1997 – Deep Blue (O Ápice da “Força Bruta”): O computador da IBM venceu o campeão mundial Garry Kasparov no xadrez.
- O Detalhe Técnico: É crucial notar que o Deep Blue não usava aprendizado de máquina no sentido moderno. Ele não “aprendia” enquanto jogava. Ele utilizava Busca em Árvore (Tree Search) massiva com poda Alpha-Beta (um algoritmo para eliminar jogadas ruins rapidamente) e uma função de avaliação ajustada manualmente por grandes mestres e engenheiros. Foi o triunfo da velocidade de processamento sobre a intuição humana, não da “inteligência” de aprendizado.
- 1998 – LeNet-5 e a Persistência Neural: Enquanto a maioria pesquisava estatística pura, Yann LeCun (no AT&T Bell Labs) desenvolveu a LeNet-5, uma das primeiras Redes Neurais Convolucionais (CNNs) bem-sucedidas.
- A Aplicação: O sistema foi implementado para ler dígitos manuscritos em cheques bancários e códigos postais (dataset MNIST).
- O Avanço: LeCun provou a viabilidade do Backpropagation (Retropropagação) em problemas reais. Nesse algoritmo, a rede calcula o erro da sua previsão e “volta” ajustando os pesos matemáticos das conexões camada por camada, minimizando o erro através do método do Descendente de Gradiente.
- 2006 – O Rebranding para “Deep Learning”: Geoffrey Hinton, percebendo que o termo “Redes Neurais” estava queimado na academia devido aos fracassos anteriores, publicou artigos sobre redes de “Crença Profunda” (Deep Belief Networks). Ele e seus colegas começaram a popularizar o termo Deep Learning para descrever redes com muitas camadas ocultas, preparando o terreno para a explosão que viria na década seguinte.
A Era do Deep Learning e IA Generativa (2012–Presente)
Diferente dos ciclos anteriores, o atual boom da IA não foi impulsionado apenas por uma nova teoria, mas pela convergência perfeita de três pilares: Big Data (disponibilidade massiva de dados rotulados via internet), Poder Computacional (GPUs) e Algoritmos Eficientes.
Nesta fase, as Redes Neurais Artificiais, antes desacreditadas, retornaram com profundidade (centenas de camadas) sob o nome de Deep Learning.
A Tríade da Revolução:
- Hardware (GPUs + CUDA): Percebeu-se que as Placas de Vídeo (GPUs), projetadas para renderizar jogos, eram exímias em multiplicação de matrizes — a operação matemática base das redes neurais. O uso da plataforma CUDA (NVIDIA) permitiu treinar em dias o que antes levaria anos em CPUs.
- Dados (ImageNet): A criação do dataset ImageNet por Fei-Fei Li, contendo milhões de imagens rotuladas manualmente, forneceu o “combustível” que faltava para os algoritmos aprenderem.
Cronograma e Marcos Técnicos:
- 2012 – O Momento AlexNet: Durante a competição ImageNet, a equipe de Geoffrey Hinton (com Ilya Sutskever e Alex Krizhevsky) apresentou a AlexNet.
- O Salto Técnico: Foi uma Rede Neural Convolucional (CNN) que utilizou GPUs para treinamento e introduziu a função de ativação ReLU (Rectified Linear Unit) para resolver o problema do “desvanecimento do gradiente” (vanishing gradient), que impedia o treinamento de redes profundas. A taxa de erro caiu de 26% para 15%, um marco histórico.
- 2014 – GANs (Redes Adversariais Generativas): Ian Goodfellow introduziu uma arquitetura onde duas redes neurais competem entre si: uma cria dados falsos (gerador) e a outra tenta detectar a falsidade (discriminador). Isso deu início à era da IA Generativa de imagens (deepfakes, arte).
- 2017 – O “Big Bang” dos Transformers: Pesquisadores do Google (Vaswani et al.) publicaram o paper “Attention Is All You Need”.
- A Inovação: Eles abandonaram as Redes Recorrentes (RNNs/LSTMs), que processavam texto sequencialmente (palavra por palavra), e criaram o mecanismo de Autoatenção (Self-Attention). Isso permitiu que o modelo analisasse o contexto de uma frase inteira e as relações entre todas as palavras simultaneamente (paralelismo massivo).
- 2018–2020 – A Ascensão dos LLMs (BERT e GPT): O Google lançou o BERT (bidirecional) e a OpenAI lançou o GPT (unidirecional/generativo). O foco mudou para o Aprendizado Auto-supervisionado: o modelo treina lendo a internet inteira apenas tentando prever a “próxima palavra”, sem necessidade de rotulagem humana manual nesta fase.
- 2022 – ChatGPT e RLHF: A OpenAI lançou o ChatGPT, que não era apenas um modelo de linguagem gigante (GPT-3.5), mas refinado com uma técnica crucial: RLHF (Reinforcement Learning from Human Feedback). Humanos classificaram as respostas da IA, “ensinando” o modelo a ser útil e seguir instruções, transformando um completador de texto probabilístico em um assistente conversacional.
O Novo Gargalo Físico: Energia, Logística e Limites Ambientais (2023–Futuro)
Enquanto os algoritmos se tornam “inteligentes”, a infraestrutura necessária para mantê-los operando enfrenta desafios puramente físicos. A “Nuvem” não é etérea; ela é composta por estruturas industriais massivas, dependentes de recursos finitos e cadeias logísticas frágeis.
Atualmente, o limite da IA não é apenas a arquitetura de software, mas a termodinâmica, a geografia e a engenharia civil.
1. O Desafio Energético (Gigawatts de Inferência) O treinamento e a operação de modelos como o GPT-4 ou Claude não são apenas tarefas de software, são eventos de consumo energético intenso.
- Hardware Voraz: Uma única GPU de ponta (como a NVIDIA H100) possui um TDP (Thermal Design Power) de até 700 Watts. Um datacenter moderno agrupa dezenas de milhares dessas unidades em clusters.
- A Carga na Rede: Cidades que hospedam esses centros (como o “Data Center Alley” na Virgínia, EUA) enfrentam pressão crítica na rede elétrica. A demanda é tão alta que Big Techs estão assinando contratos para reativar usinas nucleares ou investir em SMRs (Reatores Modulares Pequenos), pois a rede pública convencional não suporta a carga de pico necessária para a inferência em tempo real.
2. O Custo Hídrico (Water Usage Effectiveness – WUE) Para que os chips não derretam ao operar a 80-90°C, é necessário resfriamento constante.
- A “Sede” da IA: A técnica mais comum envolve torres de resfriamento evaporativo. Estudos indicam que uma conversa média com um chatbot (20 a 50 turnos) pode consumir até 500ml de água doce para dissipação de calor.
- Conflito Urbano: O indicador técnico WUE mede quantos litros de água são gastos por kWh de computação. Em regiões secas, datacenters já competem pelo acesso à água com a agricultura e o consumo residencial, gerando atritos legislativos locais.
3. O Gargalo do Silício e Geopolítica Diferente do software, que pode ser copiado infinitamente, o hardware de IA depende de uma cadeia de suprimentos física e centralizada.
- Dependência da TSMC: Quase 90% dos chips de IA mais avançados do mundo são fabricados por uma única empresa (TSMC) em Taiwan. Isso cria um “Ponto Único de Falha” global. Qualquer disrupção física (terremotos) ou geopolítica na região paralisaria o avanço da IA instantaneamente, independentemente da qualidade dos algoritmos.
- Escassez de Materiais: A fabricação desses chips exige minerais de terras raras e litografia ultravioleta extrema (máquinas ASML), recursos que não escalam na mesma velocidade que o código.
4. Espaço Físico, Ruído e Lixo Eletrônico A inserção de datacenters em áreas urbanas ou suburbanas trouxe problemas inéditos:
- Poluição Sonora: Os sistemas de ventilação industrial necessários para resfriar os racks de servidores produzem um zumbido constante de baixa frequência. Moradores vizinhos a novos datacenters relatam poluição sonora acima dos limites de decibéis permitidos, gerando processos judiciais e mudanças nas leis de zoneamento urbano.
- Ciclo de Obsolescência (E-Waste): A “corrida armamentista” da IA faz com que o hardware se torne obsoleto muito rápido (uma H100 é substituída por uma Blackwell em 18 meses). Isso gera um volume crescente de lixo eletrônico altamente complexo, contendo metais pesados e difícil de reciclar.
O Horizonte (2025–2040): Agentes, Neuro-simbolismo e AGI
Para onde vamos agora? Se a última década foi sobre fazer a máquina “reconhecer padrões” (ver um gato na foto) e “gerar padrões” (escrever um poema), as próximas décadas serão sobre Raciocínio e Agência.
A pesquisa de ponta aponta para uma convergência de tecnologias para resolver as limitações atuais (alucinações, falta de lógica matemática e passividade).
1. De Chatbots para Agentes Autônomos (Agentic AI) Hoje, interagimos com a IA via prompts: você pede, ela responde. O futuro são os Agentes.
- O Conceito: Softwares que não apenas geram texto, mas têm permissão para usar ferramentas, navegar na web e executar ações complexas em cadeia.
- Na Prática: Em vez de pedir “escreva um código para enviar email”, você dirá ao agente: “Monitore o banco de dados, se o estoque baixar de 10%, cote preços com 3 fornecedores e compre do mais barato”. O modelo fará o planejamento (planning), a execução e a validação sozinho.
2. A Volta da Lógica: IA Neuro-simbólica Estamos vendo um movimento de retorno às origens. Os LLMs atuais são excelentes na “intuição” estatística (Sistema 1 de pensamento), mas péssimos em lógica rígida e matemática (Sistema 2).
- A Fusão: A próxima arquitetura deve ser híbrida, unindo a criatividade das Redes Neurais (Deep Learning) com a precisão dos Sistemas Simbólicos (Regras/Lógica) que dominavam nos anos 80. Isso visa criar sistemas que são criativos, mas que “sabem” quando não podem alucinar um fato ou errar um cálculo.
3. IA Corporificada (Embodied AI) A inteligência não pode viver apenas em servidores de texto; para entender o mundo físico, ela precisa de um corpo.
- Robótica End-to-End: Estamos migrando de robôs programados com regras rígidas de movimento para robôs que usam redes neurais visuais para aprender a andar e manipular objetos observando vídeos, permitindo que a IA saia dos datacenters para fábricas e residências (como os humanoides da Tesla, Figure e Boston Dynamics).
4. O Santo Graal: AGI (Inteligência Artificial Geral) O objetivo final, previsto por Turing, continua sendo a AGI: uma máquina capaz de realizar qualquer tarefa intelectual que um ser humano possa fazer.
- A Previsão: Enquanto alguns especialistas (como Ray Kurzweil) preveem a AGI para 2029, outros são céticos. O desafio técnico não é mais apenas poder computacional, mas a capacidade de generalização, aprendizado com poucos dados (few-shot learning) e compreensão causal do mundo, algo que o “próximo token” dos LLMs atuais ainda não resolve plenamente.
5. Small Language Models (SLMs) e Edge AI Para combater o problema energético (citado no tópico anterior), haverá uma fuga da nuvem para a borda (Edge).
- IA Local: Veremos modelos menores, otimizados e “destilados”, rodando nativamente em laptops e celulares (NPUs), sem internet. Para o desenvolvedor, isso significa privacidade de dados e custo zero de inferência.
Conclusão: Do Determinismo à Probabilidade
Ao analisar essa cronologia de quase 80 anos, percebemos que a história da Inteligência Artificial não é uma linha reta de evolução, mas um ciclo de euforia e desilusão (os invernos), moldado pelas limitações do hardware de cada época.
Para o desenvolvedor de software tradicional — acostumado com a lógica determinística do Delphi, C# ou Java, onde if X then Y é uma verdade absoluta — a IA moderna exige uma mudança fundamental de pensamento. Saímos da Era Simbólica (1950-1990), onde tentávamos ensinar ao computador como pensar escrevendo regras explícitas, para a Era Conectivista (2012-hoje), onde alimentamos a máquina com dados e ela infere as regras sozinha.
Não estamos mais programando lógica passo a passo; estamos arquitetando sistemas que aprendem. O código fonte do futuro não é apenas a sintaxe da linguagem, mas o Dataset que utilizamos. Como Alan Turing previu brilhantemente em 1947, paramos de tentar simular a mente de um adulto e passamos a simular a mente de uma criança, pronta para aprender com a experiência.
Referências Bibliográficas
MCCARTHY, John et al. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Hanover: Dartmouth College, 1955. Disponível em: http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf. Acesso em: 10 dez. 2025.
MINSKY, Marvin; PAPERT, Seymour. Perceptrons: An Introduction to Computational Geometry. Cambridge: MIT Press, 1969.
RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 4. ed. Upper Saddle River: Prentice Hall, 2020.
TURING, Alan M. Computing Machinery and Intelligence. Mind, Oxford, v. 59, n. 236, p. 433-460, 1950.
VASWANI, Ashish et al. Attention Is All You Need. In: NEURAL INFORMATION PROCESSING SYSTEMS CONFERENCE, 31., 2017, Long Beach. Proceedings… Long Beach: NIPS, 2017.
Descubra mais sobre Régys Borges da Silveira
Assine para receber nossas notícias mais recentes por e-mail.
Regys, excelente artigo, agora quem não se adaptar estará fora totalmente do mercado de trabalho uma vez que a IA veio para revolucionar a industria 4.0. Abraços