Histoire de l'IA
Ce que vous saurez dans 3 minutes
Nous allons décomposer l’histoire de l’IA en deux lectures. Une première Chronologie Historique pour visualiser les grands événements (l’Odyssée), et une seconde Chronologie Technique pour comprendre comment les ingénieurs ont changé de méthode face aux murs technologiques (de la logique pure aux réseaux neuronaux).
1. L’Odyssée de l’IA (Vision Grand Public)
L’histoire de l’IA est une série de vagues. Chaque vague promet une révolution, atteint un plafond de verre, et s’écroule, avant de renaître sous une forme nouvelle.
Timeline Simplifiée
timeline
title 70 Ans de Cycles Hype / Hiver
1950-1956 : Les Prophètes
: Test de Turing (1950)
: Conférence de Dartmouth (1956)
1957-1974 : L'Âge d'Or Symbolique
: ELIZA (Chatbot Psy)
: Perceptron (Rosenblatt)
1974-1980 : ❄️ Premier Hiver
: Rapport Lighthill (Critique)
: Coupes budgétaires
1980-1987 : Systèmes Experts
: Deep Blue (Précurseur)
: IA encodée à la main
1987-1993 : ❄️ Second Hiver
: Effondrement du marché Lisp
1997-2010 : Le triomphe discret
: Deep Blue bat Kasparov (1997)
: Google Search (IA statistique)
2012-2022 : Le Big Bang Deep Learning
: AlexNet (2012)
: AlphaGo (2016)
: Transformer (2017)
2022+ : L'Ère Générative
: ChatGPT
: Claude
: Agents Autonomes
2. L’Évolution des Architectures (Vision Technique)
Pour comprendre l’IA moderne, il faut comprendre le changement de paradigme. Nous sommes passés de “Dire à la machine quoi faire” (Logique) à “Montrer à la machine comment apprendre” (Statistique & Neuronal).
La Quête de la Représentation
L’IA, c’est l’art de représenter le monde dans un ordinateur.
graph TD
subgraph "1. IA Symbolique (GOFAI)"
A[Règles 'If-Then' manuelles] -->|Limite| B(Monde trop complexe)
end
subgraph "2. Machine Learning Classique"
C[Features manuelles + Statistique] -->|Limite| D(Feature Engineering lourd)
end
subgraph "3. Deep Learning (2012)"
E[Apprentissage de Représentation] -->|Victoire| F(Features auto-apprises)
F --> G[Vision : CNN]
F --> H[Langage : RNN/LSTM]
end
subgraph "4. Foundation Models (2017+)"
I[Architecture Transformer] --> J{Attention is All You Need}
J --> K[Parallélisation Massive]
J --> L[LLM : GPT/Claude]
end
B --> C
D --> E
H --> I
style I fill:#f9f,stroke:#333
style J fill:#bbf,stroke:#333
Le Conflit des Tribus
L’histoire technique est aussi une guerre de religion entre deux tribus :
- Les Symbolistes (Logique, Règles) : Ils pensaient que l’intelligence est une manipulation de symboles. Ils ont dominé jusqu’aux années 90 (Systèmes Experts, Deep Blue).
- Les Connexionnistes (Réseaux de Neurones) : Ils pensaient que l’intelligence émerge de connexions simples (comme le cerveau). Isolés pendant 30 ans (LeCun, Hinton), ils ont pris leur revanche en 2012.
Le Tournant de 2012 (AlexNet)
C’est le moment “Galilée” de l’IA. Geoffrey Hinton et son équipe prouvent qu’un réseau de neurones profond (Deep Learning), nourri de millions d’images (Big Data) et entraîné sur des cartes graphiques (GPU), écrase toutes les approches logiques.
Le Tournant de 2017 (Transformer)
Google publie “Attention Is All You Need”. Cette architecture permet de traiter le langage non plus mot à mot (séquentiel), mais globalement (parallèle). Cela déverrouille la taille des modèles et donne naissance à GPT.
3. Aller plus loin
Vers l’AGI ?
Nous sommes dans la phase d’excès actuelle. L’objectif affiché d’OpenAI ou Google n’est plus juste des outils, mais l’AGI (Artificial General Intelligence).
- Hier : Une IA pour les échecs, une autre pour la traduction.
- Demain : Un modèle unique capable de tout faire (Multimodal).
Questions Fréquentes
Deep Blue (Échecs) était-il une IA moderne ?
Non. Deep Blue était une “Force Brute”. Il calculait des millions de coups à l’avance grâce à des règles optimisées par des humains. Il ne “comprenait” pas le jeu comme AlphaGo (Deep Learning) qui a “appris” le Go en jouant contre lui-même.
Pourquoi l’IA a-t-elle stagné si longtemps ?
Il manquait deux carburants :
- La Donnée (Internet n’existait pas).
- La Puissance (Les processeurs étaient trop lents). Les algorithmes de 2024 sont souvent des variantes de mathématiques des années 80 (Backpropagation), mais avec un moteur de Ferrari (A100 GPU) au lieu d’un vélo.
Notions Liées (Spider Web)
- Pionniers : Alan Turing, Geoffrey Hinton.
- Concepts : Hiver de l’IA, Deep Learning.
- Architectures : Transformer, Perceptron.