Aller au contenu

Le Pré-entraînement : L'éducation fondamentale de l'IA

Imaginez que vous deviez embaucher un assistant pour rédiger des contrats juridiques complexes. Vous avez deux candidats.

Le premier est un nouveau-né. Il a un potentiel infini, mais il ne sait ni lire, ni écrire, ni même parler. Pour qu’il devienne utile, vous devrez passer 20 ans à lui apprendre l’alphabet, la grammaire, le sens commun, l’histoire du monde, et enfin, le droit.

Le second candidat est un étudiant universitaire brillant. Il a déjà lu toute la bibliothèque municipale. Il connaît la structure d’une phrase, il sait que Paris est en France et il comprend la logique de base. Pour qu’il rédige vos contrats, il vous suffit de le former pendant deux semaines aux spécificités de votre cabinet.

En intelligence artificielle, le pré-entraînement (pre-training) correspond à ces 20 années d’éducation générale.

C’est la phase titanesque où l’on nourrit un modèle avec des milliards de pages de texte (Internet, livres, articles) sans lui donner de consigne précise, simplement pour qu’il apprenne “comment fonctionne le monde” à travers le langage. C’est ce qui transforme un réseau de neurones vide en un modèle comme GPT-4, prêt à se spécialiser.


Le Problème : Pourquoi ne pas apprendre sur le tas ?

Avant 2018, la plupart des IA étaient entraînées directement pour une tâche précise (apprentissage supervisé). Si vous vouliez une IA pour classer des emails, vous deviez lui donner 100 000 emails étiquetés “Spam” ou “Non-Spam”.

Cette approche présentait trois obstacles majeurs :

  1. Le coût de l’étiquetage : Payer des humains pour annoter des millions de données coûte une fortune et prend un temps fou.
  2. L’absence de culture générale : Une IA entraînée uniquement sur des emails de banque ne comprendrait rien si un email parlait soudainement de “pommes” ou de “vacances”, car ces concepts n’existaient pas dans ses données d’entraînement strictes.
  3. La fragilité : Au moindre changement de contexte, il fallait tout recommencer à zéro.

C’est là que le pré-entraînement a tout changé. L’idée est de séparer l’apprentissage en deux temps : d’abord acquérir une représentation générale du langage (le pré-entraînement), puis affiner cette connaissance pour une tâche précise (le fine-tuning).


Comment ça Marche : La mécanique sous le capot

Comment une machine apprend-elle seule, sans professeur pour lui dire si elle a raison ou tort ? Elle utilise une technique appelée apprentissage auto-supervisé.

Le principe est astucieux : on prend un texte existant, on en cache une partie, et on demande au modèle de deviner ce qui manque. Comme nous avons le texte original, nous avons la réponse. La “vérité” est contenue dans la donnée elle-même.

Les deux grandes écoles

Il existe principalement deux mécanismes pour réaliser ce tour de force :

  1. Le Masquage (façon BERT) : Imaginez un texte à trous.

    • Phrase : “Le chat mange la [MASQUE].”
    • Le modèle doit deviner “souris” ou “patée”. Cela l’oblige à comprendre le contexte avant et après le mot. C’est idéal pour comprendre le sens profond d’une phrase.
  2. La Prédiction du mot suivant (façon GPT) : C’est de l’auto-complétion sous stéroïdes.

    • Phrase : “Le ciel est…”
    • Le modèle doit prédire “bleu”. En répétant cela sur des milliards de phrases, il apprend non seulement la grammaire, mais aussi la logique causale et les faits du monde.

Le processus industriel

Voici comment se déroule concrètement cette phase critique :

graph TD
    A[Corpus Massif Brut] -->|Nettoyage & Tokenization| B(Données Préparées)
    B --> C{Architecture du Modèle}
    C -->|Initialisation Aléatoire| D[Réseau de Neurones Vide]
    D --> E[Boucle de Pré-entraînement]
    E -->|Prédiction du Token suivant| F[Calcul de l'Erreur]
    F -->|Rétropropagation| G[Mise à jour des Poids]
    G -->|Répéter des milliards de fois| E
    E -->|Convergence| H[Modèle de Base / Foundation Model]
    style H fill:#f96,stroke:#333,stroke-width:4px

Ce processus est extrêmement coûteux en calcul. Pour entraîner un modèle comme GPT-3 ou LLaMA, on parle de milliers de cartes graphiques (GPU) tournant à plein régime pendant des mois. C’est pourquoi seuls les géants de la tech ou des laboratoires spécialisés peuvent se permettre de créer ces “Modèles de Fondation”.

Ce que le modèle apprend vraiment

Au niveau cognitif, le modèle ne “comprend” pas comme un humain. Il développe des représentations distributionnelles.

Si le mot “roi” apparaît souvent dans les mêmes contextes que “reine”, “trône” et “couronne”, le modèle rapproche ces concepts mathématiquement dans son “cerveau”. Il apprend aussi des hiérarchies : il comprend implicitement que “Paris” est lié à “France” comme “Rome” est lié à “Italie”.


Applications Concrètes

Le pré-entraînement n’est pas une fin en soi, c’est un tremplin. Une fois le modèle “éduqué”, il est prêt à travailler. Voici comment cette base généraliste est exploitée dans différents secteurs.

Le Défi : Une grande banque doit analyser 100 000 rapports internes pour détecter des risques de blanchiment d’argent (AML).

L’Approche :

  1. Pré-entraînement : On prend un modèle type BERT déjà pré-entraîné sur le langage courant.
  2. Adaptation (Domain Adaptation) : On continue le pré-entraînement sur 10 milliards de mots de textes financiers (sans étiquettes) pour qu’il apprenne le jargon bancaire.
  3. Fine-tuning : On l’entraîne spécifiquement sur quelques exemples de rapports frauduleux.

Résultat : Le modèle détecte les risques avec 95% de précision (contre 87% pour un modèle classique), économisant environ 2 millions d’euros d’annotation manuelle.


Les Pièges à Éviter

Le pré-entraînement est puissant, mais il n’est pas magique. Il comporte des risques structurels qu’il faut connaître.

Autres limitations :

  • Le coût écologique et financier : Entraîner un grand modèle consomme autant d’énergie qu’une petite ville. C’est une barrière à l’entrée majeure.
  • La fenêtre de connaissance : Le savoir du modèle s’arrête à la date de fin de son pré-entraînement (sa “knowledge cutoff”). Si le modèle a été entraîné en 2021, il ne sait pas qui a gagné la Coupe du Monde 2022.
  • L’absence de compréhension réelle : Le modèle manipule des symboles. Il ne “sait” pas ce qu’est une pomme, il sait comment le mot “pomme” s’utilise.

Guide de mise en œuvre (Simplifié)

Si vous deviez superviser un projet impliquant du pré-entraînement (ou plus probablement, l’utilisation d’un modèle pré-entraîné), voici les étapes logiques :

  1. Curation du Corpus (La Matière Première) Collecte massive de données. C’est l’étape critique. Il faut dédupliquer (retirer les copies) et filtrer (retirer le spam). La qualité du corpus détermine 80% de la performance finale.

  2. Tokenization (La Digestion) Le texte est découpé en petits morceaux appelés Tokens. C’est le format que l’ordinateur peut transformer en nombres.

  3. Entraînement Distribué (Le Marathon) Le modèle tourne sur des centaines de GPU. On surveille la “courbe de perte” (loss curve) : elle doit descendre, signifiant que le modèle fait de moins en moins d’erreurs de prédiction.

  4. Évaluation (L’Examen) Avant de l’utiliser, on teste le modèle sur des benchmarks standards (MMLU, HumanEval) pour vérifier son niveau de “culture générale” et s’assurer qu’il n’a pas simplement mémorisé les données par cœur.


À Retenir

  1. Fondation Universelle : Le pré-entraînement est l’étape où l’IA acquiert sa “culture générale” et ses capacités linguistiques à partir de données brutes.
  2. Non-Supervisé : Il ne nécessite pas d’étiquettes humaines coûteuses, car il utilise le texte lui-même pour créer ses exercices (texte à trous ou suite de mots).
  3. Investissement Lourd : C’est l’étape la plus coûteuse en calcul et en énergie. Une fois faite, le modèle peut être réutilisé et affiné à moindre coût.
  4. Transfert de Compétences : La magie réside dans la capacité du modèle à appliquer sa logique générale à des tâches spécifiques (juridique, code, médical) via le fine-tuning.
  5. Miroir des Données : Le modèle reflète les biais de ses données d’entraînement. La qualité de la curation des données est plus importante que l’architecture du modèle.

Notions Liées

Pour approfondir votre compréhension de l’écosystème :

  • Fine-tuning : L’étape suivante, où l’on spécialise le modèle pré-entraîné.
  • Token : L’unité de base que le modèle lit et prédit pendant son entraînement.
  • LLM (Large Language Model) : Le type de modèle qui résulte de ce processus massif.
  • Transformer : L’architecture de réseau de neurones qui a rendu le pré-entraînement moderne possible.
  • Inférence : L’utilisation du modèle une fois qu’il a été entraîné.