Les Scaling Laws, ou Comment Prédire la Performance de l'IA
L’équation cachée derrière chaque modèle d’IA géant
Imaginez un agriculteur qui ajoute de l’engrais à ses champs. Les premiers kilos produisent des gains massifs de rendement. Mais chaque kilo supplémentaire génère des améliorations de moins en moins importantes. À un certain point, ajouter dix fois plus d’engrais ne triple plus le rendement—il l’améliore seulement de 60%.
Les scaling laws fonctionnent exactement ainsi pour l’intelligence artificielle. Ils quantifient précisément ce phénomène : comment la performance d’un modèle d’IA progresse quand on augmente ses ressources (paramètres, données, puissance de calcul). Et c’est cette équation qu’OpenAI, DeepMind et Meta utilisent pour décider s’il faut investir 1 milliard ou 100 milliards de dollars dans leur prochain modèle.
Qu’est-ce qu’une scaling law, vraiment ?
Une scaling law est une relation mathématique simple mais puissante : Performance ∝ Ressource^α
Déchiffrons cette formule :
- Performance = la qualité du modèle (mesurée par sa capacité à prédire correctement)
- Ressource = l’un des trois facteurs (nombre de paramètres, taille du dataset, budget computationnel)
- α = l’exposant de scaling (le “coefficient secret” qui change tout)
Pour les grands modèles de langage modernes, α ≈ 0,07. Ce chiffre signifie quelque chose de contre-intuitif :
Pour chaque doublement de ressources computationnelles :
- 1er doublement : +20% de performance
- 2e doublement : +15%
- 3e doublement : +12%
- Et ainsi de suite…
Votre gain fondamental ne change pas, mais l’effort croît exponentiellement. Comprendre cela change complètement la stratégie.
Les trois leviers de la performance
Vous pouvez augmenter la performance selon trois axes. Chacun suit sa propre scaling law.
1. Augmenter le nombre de paramètres (N)
Un paramètre = une “variable” que le modèle doit apprendre. Un modèle avec 7 milliards de paramètres vs 70 milliards, c’est 10× plus complexe.
Découverte clé : augmenter N de 10× réduit l’erreur (loss) d’environ (10)^(-0.07) ≈ 20%. Impressionnant, mais marginal. Cela explique pourquoi les entreprises ne construisent pas juste des modèles infiniment grands—les rendements diminuent trop vite.
2. Augmenter la taille du dataset (D)
Plus de données d’entraînement = modèle plus robuste. Mais ici aussi, α ≈ 0,07. Doubler les données améliore performance de ~10%, passer à 4× améliore de ~15%. Saturation progressive.
Le vrai scandale ? Les chercheurs des années 2020 pensaient qu’il fallait un ratio données:paramètres de 20:1. DeepMind (2022) a découvert que le ratio optimal était 1:1. Cela signifie que vous pouviez réduire de 50% la taille de vos données ET augmenter vos paramètres—pour le même budget computationnel, performance supérieure de 25%. C’est ce qu’on appelle l’optimisation de Chinchilla.
3. Augmenter le budget computationnel (C)
Le nombre de “calculs totaux” mesurés en FLOPs (floating-point operations). La relation magique : C ≈ 6 × N × D.
Si votre budget total est de 100 exaFLOPs (chiffre typique pour un modèle GPT-scale), vous pouvez le distribuer entre paramètres et données. Chinchilla dit : investissez plus équitablement. Ne créez pas un monstre avec 1000B paramètres et 10B tokens ; préférez 50B paramètres et 1000B tokens. Même budget computationnel, meilleure performance.
Le débat qui agite les labos : les scaling laws sont-elles universelles ?
Voici le twist. Les chercheurs découvrent actuellement que α n’est pas universel.
OpenAI (2020) affirmait que α ≈ 0.07 s’appliquait à tous les modèles de langage, peu importe l’architecture. Rassurant pour les prédictions.
DeepMind et autres (2024-2026) observent que α varie selon le domaine : vision (α ≈ 0.10-0.12, scaling plus rapide), langage (α ≈ 0.07), multimodal (α variable). Et même au sein du langage, α change si vous filtrez les données pour enlever bruit/doublons. Curation optimale : α peut doubler jusqu’à 0.15, signifiant chaque doublement de ressources améliore performance de ~40% au lieu de 15%.
Implication pratique : si vous appliquez la scaling law du langage aux modèles de vision, vous sous-estimez les améliorations possibles. Chaque domaine a ses propres lois.
Le piège du “monde réel”
Les scaling laws prédisent. Mais la réalité est traître.
Il existe un phénomène nommé la Densing Law : les modèles réels convergent plus lentement que les lois prédisent. Le lag s’accumule avec le temps. Mathematiquement : ln(N̂/N) = At + B, où A mesure le ralentissement. Pour les gros modèles entraînés aujourd’hui, A ≈ 0.01-0.1, signifiant que votre timeline de 6 mois devient réalité en 12-18 mois.
Pourquoi ? Inefficacités d’optimisation, overhead de communication dans clusters GPU distribués, instabilité numérique en précision mixte, hyperparamètres suboptimaux découverts trop tard. Le modèle théorique ignore ces frictions.
L’inference scaling : quand doubler n’est pas entraîner
Nouvelle frontière (2023-2026) : vous ne devez pas seulement augmenter l’entraînement. Vous pouvez aussi augmenter le calcul à l’inférence—le moment où l’utilisateur pose une question.
Exemple : au lieu de donner une réponse directement, le modèle “réfléchit” plus longtemps (chain-of-thought reasoning, self-consistency sampling). Chaque “étape de réflexion” coûte du calcul d’inférence, mais améliore la réponse.
Découverte : l’inference scaling suit aussi une power law (α ≈ 0.5-0.8). C’est plus efficace que réentraîner. Implication : pour un déploiement en production, augmenter le budget d’inférence peut rivaliser avec l’entraînement d’un modèle plus grand.
Comment utiliser les scaling laws : cinq cas réels
-
Prédire avant de construire : Collectez 10-20 points (N, performance) en entraînant des modèles de tailles différentes. Fit une courbe power law. Utilisez-la pour prédire : “Un modèle de 100B paramètres atteindra quelle performance ?” Précision typique : ±10%. Coût : 10K-100K GPU-heures vs le coût réel d’entraînement d’un gros modèle.
-
Optimiser l’allocation compute : Si vous avez un budget C fixe, ne construisez pas le modèle le plus grand possible. Appliquez Chinchilla : équilibrez N et D. Gain typique : 20-30% performance pour même budget.
-
Décider entre scaling vs fine-tuning : Dois-je entraîner un modèle 10× plus gros, ou fine-tuner un modèle existant avec données spécialisées ? Scaling laws suggèrent : petit modèle + données très curées (filtrage/qualité) surpasse gros modèle + données brutes si α de données curées > α données brutes (écart observé : 0.15 vs 0.07).
-
Planifier les ressources réalistes : Appliquez la Densing Law. Si théorie prédit 6 mois, budgétez 9-12 mois. Réservez 30% du temps pour debugging et unexpected bottlenecks.
-
Allocer compute inférence : Post-déploiement, mesurez si test-time compute scaling est efficace (α_inference élevé ?). Si oui, encourage utilisateurs/clients à “penser plus longtemps” plutôt que demander à construire modèle plus gros immédiatement.
Le tabou : scaling indéfini est-il tenable ?
Les scaling laws implicitement supposent que vous pouvez toujours augmenter. Mais réalité 2026 pose questions éthiques/physiques :
- Données : Internet contient ~5-10T tokens haute qualité. Après saturation, données deviennent récyclées (LLM-générées), dégradées en qualité. α chute de 0.07 vers ~0.03. Les rendements n’accélèrent pas—ils s’effondrent.
- Énergie : GPT-4 scale = 500 MWh entraînement. Doubler chaque année = insoutenable. Régulation possible sur énergie invaliderait hypothèses scaling laws.
- Concentration de pouvoir : Seuls labs riches (OpenAI, Meta, Google) peuvent afforder 10B$ compute budgets. Scaling laws institutionnalisent l’inégalité technologique.