Machine Learning Classique : L'Ère du Maître et de l'Apprenti Structuré
Quand les Humains Dessinaient le Chemin de l’Apprentissage
Imaginez un maître artisan transmettant son métier à un apprenti. Le maître ne lui lance pas simplement une masse de marbre en disant « crée quelque chose » ; il décompose minutieusement la tâche. Il montre quels outils utiliser (les bonnes caractéristiques), comment évaluer le progrès (une fonction de coût précise), et exactement comment ajuster la technique à chaque erreur (descente du gradient). L’apprenti n’apprend que dans les limites explicitement tracées par le maître.
Voilà le Machine Learning Classique. C’est cette période dorée—de 1958 à environ 2012—où l’apprentissage automatique fonctionnait comme une relation hiérarchique rigoureusement structurée entre chercheur-ingénieur et algorithme. Contrairement à ce qui viendrait ensuite (les réseaux profonds découvrant leurs propres représentations), ce paradigme reposait sur l’hypothèse que l’intelligence émergeait non pas de l’auto-organisation chaotique, mais de l’orientation humaine méticuleuse.
Pourquoi les Humains Contrôlaient Tout : La Contrainte Computationnelle comme Mère de l’Ingéniosité
Vous vivez dans une époque où entraîner un modèle coûte quelques dollars et une nuit. En 1957, c’était différent. Les ordinateurs remplissaient des salles. La puissance computationnelle était mesuré en kiloflops. Cette rareté radicale a structuré toute une époque.
Quand Frank Rosenblatt inventa le Perceptron en 1957-1958 à l’Université Cornell, c’était révolutionnaire précisément parce qu’il était simple. Le Perceptron ne pouvait traiter que des classifications binaires sur des données prétraitées. Mais voilà : cette simplicité était une vertu. Dans un contexte de ressources limitées, l’élégance mathématique remplaçait la brute force computationnelle.
Cette contrainte a généré une culture intellectuelle remarquable. Les chercheurs ne demandaient pas « comment faire apprendre ce problème à une machine massive ? » mais plutôt « quel insight théorique rend ce problème tractable avec peu de calcul ? » Les Machines à Vecteurs de Support (SVM), développées par Vladimir Vapnik et ses collègues à partir des années 1990, incarnent cette philosophie : via le « kernel trick », un algorithme linéaire pouvait fonctionner implicitement en espaces de haute dimension sans jamais calculer ces espaces explicitement. C’était de l’ingéniosité pure face à l’adversité matérielle.
Le Maître Trace le Chemin : Les Quatre Piliers de la Structuration Humaine
1. L’Architecture Conçue, Pas Découverte
À la Conférence de Dartmouth en 1956, l’IA est officiellement née comme discipline académique. Marvin Minsky, John McCarthy et leurs collègues posaient une hypothèse audacieuse : chaque aspect de l’intelligence pouvait être précisément décrit et simulé. Mais « précisément décrit » signifiait par des humains.
Un chercheur ne laissait jamais un algorithme « découvrir » son architecture. Vous conceviez vous-même : combien de couches neuronales ? Quel nombre de neurones par couche ? Quelles fonctions d’activation ? Ces décisions structuraient l’espace des solutions possibles. Un Perceptron simple couche ne pouvait résoudre que des problèmes linéairement séparables. Un réseau à deux couches gagnait en puissance. La relation était directe : architecture = plafond de capacité.
2. L’Extraction de Caractéristiques : L’Art Caché du ML Classique
Ici, l’expertise métier dominait complètement.
Pour reconnaître les visages, un expert en vision pouvait décider : « Les caractéristiques pertinentes sont la distance inter-oculaire, l’angle du menton, la largeur du front, la profondeur des joues. » Ces choix n’étaient pas aléatoires. Ils reflétaient une compréhension humaine profonde de ce qui distingue les visages.
Pour filtrer les e-mails de spam (une application cruciale des années 1990-2000), les ingénieurs ne passaient pas les pixels de chaque e-mail à un algorithme. Au lieu de cela : comptez les occurrences de mots suspects (« Cliquez ici »), mesurez la ratio symboles/lettres, détectez les urgences fausses (« IMMÉDIAT! »). Chaque feature était une hypothèse humaine sur ce qui importe.
3. L’Annotation Manuelle : Le Goulot d’Étranglement Explicite
Chaque donnée d’entraînement exigeait un jugement humain. Une personne regardait une image et écrivait « ceci est un chat ». Une autre vérifiait. Les datasets classiques—ImageNet bien plus tard (2009), mais avant cela beaucoup plus petits—étaient construits via ce labeur manuel épuisant.
Cette dépendance créait une économie de la rareté. On ne pouvait entraîner que sur autant de données qu’on pouvait annoter. Les projets ML cherchaient des raccourcis : utiliser des données « naturellement » annotées (les URL des images web contiennent souvent le label), ou développer des stratégies de « active learning » (sélectionner intelligemment lesquelles des données non-étiquetées annoter prioritairement).
Cette limite structurelle créait aussi une vertue : la qualité. Avec peu de données, on avait mieux vérifier chaque exemple. Les faux positifs étaient douloureux et visibles.
4. Les Règles d’Optimisation : Explicitement Définies par l’Humain
Une fois les données et features prêtes, comment l’apprenti progressait-il ? Via une fonction de coût que le maître définissait explicitement.
Vous voulez classer des e-mails ? Choisissez une métrique : accuracy (pourcentage correct), precision (quand vous prédisez spam, comment souvent c’est correct ?), recall (quand réellement spam, comment souvent vous le détectez ?). La forme de la fonction de coût changeait le comportement de l’algorithme. Une fonction symmetric pénalisant équitablement faux-positifs et faux-négatifs créait un équilibre. Une fonction asymétrique (pénalisant plus les faux-négatifs) forçait l’algorithme vers la cautiousness.
Ensuite : le taux d’apprentissage. Même la descente du gradient—cette procédure mécanique d’ajustement itératif—exigeait un choix humain. Ajustez trop agressivement, et l’algorithme oscille sans converger. Trop lentement, et l’entraînement s’éternise ou se bloque dans des minima locaux. Vous deviez savoir comment configurer η pour votre problème spécifique.
Comment Ça Marche : Le Pipeline du Maître-Apprenti
Les étapes étaient ritualisées et strict, reflétant une confiance que l’ordre résolvait les problèmes :
-
Définir précisément la tâche : Pas vague. Pas « comprendre les images ». Mais « classer ces images en 10 catégories spécifiques avec au moins 90% d’exactitude ».
-
Collecter et annoter manuellement les données : Rassembler les exemples représentatifs. Embaucher des annotateurs. Vérifier l’accord inter-annotateur.
-
Concevoir les caractéristiques pertinentes : Appliquer l’expertise métier pour transformer les données brutes en features mesurables.
-
Diviser les données : 60-70% pour entraînement, 15-20% pour validation, 10-15% pour test. Cette discipline empêchait l’illusion de généralisation.
-
Choisir un algorithme et des hyperparamètres initiaux : Logistic regression pour les problèmes simples, SVM pour les non-linéarités, arbres de décision pour les interactions complexes.
-
Entraîner sur l’ensemble d’entraînement : Exécuter l’optimiseur. Descente du gradient ajustant itérativement les poids selon w ← w - η∇L(w).
-
Valider et ajuster : Observer les performances sur l’ensemble de validation. Si surapprentissage (training loss décroît, validation loss stagne ou augmente), ajouter régularisation, réduire η, ou simplifier l’architecture.
-
Évaluation finale sur test : Une seule évaluation, non-biaisée, sur des données jamais vues auparavant.
-
Déployer et monitorer : Vérifier que la performance à production match l’évaluation. Détecter la déviation de distribution au fil du temps.
-
Réentraîner périodiquement : Collecter nouvelles données, réannoter, réentraîner. Le ML Classique n’était jamais « fini ».
Sous le Capot : Les Mathématiques de la Structure
La Relation Maître-Apprenti en Équations
Le Perceptron incarnait la structure de base. Donné une instance d’entraînement (x, y) où x est un vecteur de features et y est le label correct, l’algorithme ajustait ses poids w ainsi :
Si le Perceptron prédisait incorrectement, il exécutait : w ← w + η · y · x
C’était explicite : pénalisez chaque poids par la magnitude de l’entrée, puis amplifiez par le signal d’erreur y. Le jugement humain vivait dans le taux d’apprentissage η. Pas de découverte émergente, pas d’auto-organisation mystérieuse. Juste une correction dirigée.
L’Optimisation Convexe et l’Apprentissage Garanti
Pour la logistic regression et les SVM, le problème d’optimisation était convexe : une seule vallée globale sans minima locaux trompeurs. Cela signifiait que l’algorithme convergerait garantie vers la solution optimale. C’était rassurant. Contrastez avec les réseaux profonds (multi-modaux, paysages d’optimisation chaotiques) : le ML Classique offrait une certitude mathématique.
Les Kernel Tricks : Élégance face aux Limites
Les SVM résolvaient un problème délicat : comment classer les données non-linéairement sans exploser la dimensionnalité ?
La réponse : ne jamais calculer l’espace transformé. Utilisez une fonction kernel K(x_i, x_j) mesurant la similarité implicite dans l’espace transformé. Un kernel polynomial, radial basis function (RBF), ou même un kernel personnalisé encodait l’expertise du domaine. L’algorithme opérait algébriquement dans l’espace original tout en exploitant les propriétés de l’espace transformé.
C’était de l’ingéniosité pure : résoudre une limitation computationnelle via une détour mathématique gracieux.
La Trajectoire Historique : Du Rêve à l’Hiver, puis au Renouveau
1956 : Dartmouth et l’Optimisme Fondateur
L’Intelligence Artificielle devient discipline officielle. L’hypothèse centrale : chaque aspect de l’intelligence était formalisable et simulable. C’était ambitieux, naïf, et catalytique.
1957-1958 : Le Perceptron de Rosenblatt
Le premier algorithme d’apprentissage supervisé pratique. Les médias déclamaient : « Des machines qui pensent ! » Le financement affluait. L’enthousiasme était débordant.
1969 : Le Problème du XOR et le Premier Hiver IA
Minsky et Papert publient « Perceptrons » : une preuve mathématique rigoureuse que les perceptrons simple-couche ne pouvaient pas résoudre le XOR (exclusive or)—un problème trivial requérant une séparation non-linéaire. Ce n’était pas une limitation contingente ; c’était une limitation fondamentale architecturale.
L’impact : le financement en réseaux neuronaux s’évapora. Les chercheurs se réorientèrent vers des systèmes experts basés sur des règles (1970-1980s), une approche entièrement différente.
Les Années 1970-1980 : Les Systèmes Experts et l’Explosion de la Connaissance
Si l’apprentissage automatique était limité, pourquoi ne pas coder manuellement l’expertise ? Des systèmes experts comme MYCIN (diagnostiquer les infections sanguines) utilisaient des centaines de règles encodées manuellement par des experts médicaux. Ça marchait—pour des domaines étroits et bien-maîtrisés.
Mais ce modèle ne changeait pas d’échelle. Encoder manuellement chaque règle était un goulot d’étranglement intolérable.
Les Années 1990 : Le Retour des Réseaux Neuronaux et les SVM
La redécouverte de la rétropropagation (backpropagation) par Rumelhart, Hinton et Williams (1986) avait créé un algorithme pour entraîner les réseaux multi-couches. Les années 1990 voient une explosion des applications : reconnaissance de caractères manuscrits (MNIST), traitement du langage naturel, systèmes de diagnostic.
Simultanément, les SVM de Vapnik révolutionnent la classification non-linéaire. Ces deux paradigmes (réseaux neuronaux et SVM) dominent les années 1990-2000s.
2002-2006 : La Maturation et l’Infrastructure Logicielle
Torch et scikit-learn émergent comme bibliothèques standardisées. Le ML Classique devient reproducible, accessible, et presque routine.
2012 : Le Basculement Silencieux vers le Deep Learning
Geoffrey Hinton, Alex Krizhevsky et Ilya Sutskever remportent la compétition ImageNet 2012 avec un réseau de neurones profond (AlexNet) entraîné sur GPU. L’accuracy : 84,7%, bien au-delà des approches classiques précédentes (~75%).
Paradoxalement, cet événement marque la fin du Machine Learning Classique. L’ère du contrôle humain explicite sur chaque couche cède à l’apprentissage profond, où les représentations intermédiaires emergent automatiquement. L’apprenti ne reçoit plus un enseignement structuré ; il explore et se découvre lui-même.
Ce Qui a Rendu Possible l’Ère Classique
La Formalisation Mathématique (McCulloch-Pitts, 1943 ; Hebb, 1949)
Convertir les intuitions neuroscientifiques en équations formelles. Cela transformait l’apprentissage biologique d’une analogie vague en problème mathématiquement résolvable.
L’Infrastructure Académique Post-Dartmouth
Universities et laboratoires dédiés. Financement public insensible aux retours court-terme. Une communauté cohérente partageant paradigmes et benchmarks.
Les Algorithmes Astucieux
Face aux limites computationnelles, les chercheurs inventaient des solutions élégantes : kernel tricks, arbres de décision, forêts aléatoires, modèles graphiques probabilistes. Chacun était une petite victoire intellectuelle contre l’adversité matérielle.
L’Annotation Manuelle comme Fondation Acceptée
On comprenait qu’il fallait annoter. Cette acceptation créait une honnetêté : si le problème est difficile d’annoter, il ne sera pas résolvable facilement. Pas de raccourcis illusoires.
Notions Liées
- Algorithmes d’Optimisation
- Apprentissage Supervisé
- Deep Learning
- Machines à Vecteurs de Support
- Surapprentissage
Sources & Références
- Praedictia, “L’histoire de l’apprentissage automatique”
- StartechUp, “Histoire de l’apprentissage automatique : La chronologie”
- Wikipedia, “Histoire de l’intelligence artificielle”
- Controverse-IA, “L’histoire de l’IA”
- Sénat Français, “Pour une intelligence artificielle maîtrisée, utile et démystifiée”