Système Expert : Le cerveau numérique en boîte
Imaginez que vous puissiez cloner le meilleur médecin, le meilleur mécanicien ou le meilleur conseiller financier de votre entreprise. Imaginez que ce clone soit disponible 24h/24, qu’il ne soit jamais fatigué, et surtout, qu’il puisse vous expliquer exactement pourquoi il prend telle ou telle décision.
Ce rêve, c’est la promesse originelle du Système Expert.
Bien avant que ChatGPT ne fascine le monde avec sa créativité probabiliste, l’intelligence artificielle cherchait avant tout à être logique et fiable. Un système expert, c’est un logiciel conçu pour raisonner comme un spécialiste humain dans un domaine très précis. Contrairement aux IA modernes qui “devinent” la réponse la plus probable en ayant lu tout Internet, le système expert applique rigoureusement des règles dictées par des humains.
Le Problème : Le “Bus Factor” et la perte du savoir
Pourquoi a-t-on inventé cette technologie dans les années 70 ? Pour répondre à une angoisse fondamentale des organisations : la fragilité de l’expertise humaine.
Dans toute entreprise, il y a souvent “cette personne” qui sait tout. Celle qui sait réparer la machine capricieuse de l’usine en tapant au bon endroit, ou celle qui connaît par cœur la réglementation fiscale obscure de 1992. Mais que se passe-t-il si cette personne part à la retraite ? Ou pire, si elle a un accident (le fameux “Bus Factor”) ?
Le savoir humain est :
- Volatile : Il disparaît avec l’expert.
- Coûteux : Former un expert prend des années.
- Inconstant : Un humain fatigué ou stressé fait des erreurs, même s’il est compétent.
L’objectif des systèmes experts était d’externaliser ce savoir. Il ne s’agissait pas de créer une conscience artificielle, mais de “vider” le cerveau de l’expert dans une base de données structurée pour la rendre immortelle et duplicable à l’infini. C’est le passage d’un artisanat mental à une industrie de la connaissance.
Comment ça Marche : L’Anatomie d’un Expert Numérique
Pour comprendre le fonctionnement d’un système expert, oubliez les réseaux de neurones complexes. Pensez plutôt à un livre de cuisine interactif très sophistiqué.
Le génie de cette architecture réside dans sa modularité. Un système expert est composé de trois blocs distincts qui dialoguent entre eux.
1. La Base de Faits (Le Frigo)
C’est la mémoire à court terme du système. Elle contient l’état actuel de la situation.
- Exemple : “Le patient a 38°C de fièvre”, “Le patient a mal à la gorge”.
2. La Base de Connaissances (Le Livre de Recettes)
C’est le cœur du système, là où réside l’expertise. Elle contient des centaines, voire des milliers de règles logiques sous la forme SI [Condition] ALORS [Action/Conclusion].
- Exemple : “SI fièvre > 38°C ET mal de gorge ALORS suspicion angine”. Ces règles ne sont pas du code informatique classique, mais une représentation déclarative du savoir. On dit au système ce qu’il doit savoir, pas comment il doit coder.
3. Le Moteur d’Inférence (Le Chef Cuisinier)
C’est le logiciel qui fait le lien. Il ne connaît rien à la médecine ou à la mécanique, mais il est un as de la logique. Il regarde ce qu’il y a dans le “Frigo” (Faits), consulte le “Livre” (Règles), et décide quelle règle appliquer pour produire un nouveau fait.
graph TD
User[Utilisateur] -->|Donne des faits| UI[Interface]
UI -->|Faits initiaux| BF[(Base de Faits)]
subgraph "Cerveau du Système"
BF <-->|Lit/Écrit| MI[Moteur d'Inférence]
MI <-->|Consulte| BC[(Base de Connaissances\nRègles SI-ALORS)]
end
MI -->|Résultat & Explication| UI
UI -->|Solution| User
Les deux modes de pensée du Moteur
Le moteur d’inférence peut raisonner de deux manières, exactement comme un détective ou un médecin :
Partir des données pour trouver la conclusion.
C’est l’approche “Data-Driven”. Le moteur regarde les faits disponibles et déclenche toutes les règles possibles pour voir où cela mène.
- Situation : Vous avez des œufs, de la farine et du lait.
- Règle 1 : Si œufs + farine + lait -> Pâte à crêpes.
- Règle 2 : Si Pâte à crêpes + Poêle chaude -> Crêpe cuite.
- Résultat : Le système déduit qu’il peut faire une crêpe.
Utile pour : La surveillance, le monitoring, la configuration.
Partir du but pour vérifier les hypothèses.
C’est l’approche “Goal-Driven”. Le système tente de prouver une hypothèse et cherche les faits manquants.
- But : Je veux savoir si le patient a une grippe.
- Le système se demande : Pour avoir la grippe, il faut de la fièvre. Est-ce qu’il a de la fièvre ?
- Action : Le système pose la question à l’utilisateur : “Avez-vous de la fièvre ?”.
Utile pour : Le diagnostic médical, le dépannage, la prise de décision.
Applications Concrètes : De MYCIN à la NASA
Bien que le terme “Système Expert” fasse très années 80, ses principes sont partout. Voici comment ils ont transformé des industries entières.
Le cas MYCIN (1974)
C’est l’ancêtre le plus célèbre. Développé à Stanford, MYCIN devait diagnostiquer des infections bactériennes du sang.
- Le défi : Identifier la bactérie et recommander le bon dosage d’antibiotiques en fonction du poids du patient.
- La prouesse : MYCIN intégrait des “facteurs de confiance”. Il pouvait dire : “Il y a 70% de chances que ce soit la bactérie X”.
- Le résultat : Dans les tests, il égalait ou surpassait les spécialistes juniors, mais n’a jamais été utilisé légalement à grande échelle pour des raisons de responsabilité.
L’octroi de crédit
Lorsque vous demandez un prêt en ligne et obtenez une réponse immédiate, c’est souvent un système expert (ou un arbre de décision complexe) qui tourne.
- Règles : “SI salaire > 3000€ ET taux d’endettement < 33% ET pas d’incident bancaire ALORS Accord de principe”.
- Avantage : La banque peut justifier légalement pourquoi le prêt a été refusé (“Règle R42 non satisfaite : taux d’endettement trop élevé”). Une IA générative ne pourrait pas offrir cette garantie juridique.
Maintenance Prédictive
Dans les usines, des systèmes experts surveillent les capteurs des machines.
- Scénario : Une vibration anormale est détectée sur une turbine.
- Diagnostic : Le système consulte sa base de règles de physique et d’historique de pannes.
- Conclusion : “Vibration type B détectée. SI vibration type B ET température stable ALORS usure du roulement à billes. Action recommandée : Graissage sous 48h.”
Pourquoi on ne jure pas que par ça ? (Les Limites)
Si les systèmes experts sont si géniaux, pourquoi parle-t-on aujourd’hui de Deep Learning et de LLM ? Parce que l’approche “tout explicite” a ses démons.
L’Héritage : Le retour en grâce via l’Hybride
Il serait faux de croire que les systèmes experts sont morts. Ils ont simplement évolué. Après l’hiver de l’IA (années 90), ils se sont cachés dans les moteurs de règles métier (BRMS) utilisés par toutes les grandes entreprises (SAP, Salesforce, etc.).
Aujourd’hui, nous assistons à une convergence fascinante : l’IA Neuro-symbolique. On combine la puissance créative et linguistique des LLM (comme GPT-4) avec la rigueur logique des systèmes experts.
- Le LLM comprend la question de l’utilisateur (interface naturelle).
- Il interroge une base de connaissances structurée (RAG ou système expert).
- Le système expert valide la logique pour éviter les hallucinations.
- Le LLM rédige la réponse finale.
C’est le meilleur des deux mondes : la fluidité du poète et la rigueur du comptable.
À Retenir
Pour briller en réunion ou comprendre l’architecture d’un projet IA robuste, gardez ces points en tête :
- C’est de l’IA “Blanche” : Contrairement au Deep Learning (boîte noire), le système expert est une “boîte blanche”. On peut tracer chaque étape du raisonnement.
- Expertise = Règles + Faits : La formule magique est simple. On applique des règles métier immuables à des faits variables pour déduire de nouveaux faits.
- Déterministe : Si vous donnez deux fois les mêmes données d’entrée, vous aurez exactement la même sortie. C’est crucial pour la conformité (banque, médecine, aéronautique).
- Maintenance facile du savoir : On peut ajouter une nouvelle loi fiscale dans la base de règles sans avoir à réécrire le code du moteur d’inférence.
- Limité à son domaine : Excellent spécialiste, mais généraliste catastrophique. Ne lui demandez pas de raconter une blague.
Notions Liées
Pour approfondir votre compréhension de l’écosystème IA :
- Machine Learning : L’approche opposée, où la machine apprend les règles elle-même à partir des données.
- IA Symbolique : Le grand courant de pensée dont sont issus les systèmes experts.
- Hallucination : Le problème majeur des LLM que les systèmes experts aident à corriger par leur rigueur.
- Arbre de Décision : Une version simplifiée et visuelle de la logique des systèmes experts.