Simulation : Décider « Dois-je prendre un parapluie ? »
La Question Qui Révèle Tout
Vous entrez dans un ascenseur avec une IA conversationnelle dernier cri. Vous demandez : « Dois-je prendre un parapluie aujourd’hui ? »
L’IA répond avec assurance : « Oui, prendre un parapluie car la météo annonce 70 % de pluie et vous avez rendez-vous dehors dans deux heures. »
Vous repartez rassuré. Mais attendez—l’IA a-t-elle compris votre question, ou s’est-elle contentée de régurgiter des associations statistiques apprises sur des millions de conversations où des humains parlaient de pluie et de parapluies ?
C’est le paradoxe du parapluie : un test conceptuel qui expose la différence radicale entre prédire une corrélation et prescrire une action intelligente basée sur la causalité réelle. Cette distinction n’est pas abstraite—elle révèle les limites fondamentales de l’IA statistique moderne face aux décisions qui comptent vraiment.
L’Analogie du Perroquet Savant
Imaginez un perroquet entraîné sur tous les dialogues entre médecins enregistrés à l’hôpital. Posez-lui « Un patient a mal à la tête depuis trois jours, que prescrire ? », il répond fluidement : « D’abord examiner la tension, évaluer la fréquence, prescrire aspirine si simple céphalée… »
Saisissant. Terrifiant. Mais le perroquet ignore que l’aspirine guérit la douleur parce qu’elle bloque la synthèse de prostaglandines. Il a mémorisé comment les humains parlent quand ils raisonnent médicalement—les patterns linguistiques, les associations statistiques entre « migraine » et « triptan ». Demandez-lui de prescrire pour un patient sans antécédents documentés, cas unique, et l’illusion s’effondre.
L’IA conversationnelle d’aujourd’hui est ce perroquet, savant et éloquent, mais opérant par un mécanisme radicalement différent du raisonnement humain. Elle amplifie son Système 1 (traitement automatique, statistique, rapide) en imitant les patterns linguistiques du Système 2 humain (délibération, causalité, intentionnalité). Cette supercherie fonctionne bien… jusqu’au moment où elle ne fonctionne plus.
La décision du parapluie illustre exactement ce moment.
Prédiction vs Prescription : Le Cœur de la Distinction
Niveau 1 : Pourquoi Cela Compte
Un système de banque entraîné sur dix ans de données clients atteint 92 % de précision : il prédit « clients appelant en fin de mois = attrition probable ». Excellent résultat statistique.
Problème : la corrélation ne révèle pas la cause réelle. Les clients n’appeient pas parce que c’est fin de mois. Ils appellent parce que leur compte a été gelé (cause réelle), et ce gel se produit souvent en fin de mois lors de vérifications de fraude. Le système offre donc une réduction forfaitaire—solution statistique pour un problème causal ignoré. Le client reste insatisfait (son compte est toujours gelé), le désabonne.
Une approche causale recommanderait : « Si compte gelé AND appel client → débloquer compte EN PRIORITÉ ». Action prescriptive, ancrée en causalité.
Niveau 2 : Distinguer les Deux Paradigmes
Approche Statistique (Deep Learning)
- Entraînement : données historiques + gradient descent
- Fonctionnement : correlation patterns, associations probabilistes
- Sortie : “parapluie probable à 73 %”
- Force : scalabilité massive, performance élevée
- Faiblesse : opacité causale, fragile hors-distribution
Approche Causale (Système Symbolique)
- Entraînement : modélisation explicite du domaine
- Fonctionnement : règles si-alors, graphes causaux, logique
- Sortie : “prendre parapluie PARCE QUE pluie probable ET sortie longue”
- Force : explicabilité, robustesse contextuelle
- Faiblesse : scalabilité limitée, connaissance engineering coûteux
Niveau 3 : Les Mécanismes Profonds
L’IA statistique apprend par descente de gradient. Un réseau neural digère corpus contenant « Il pleut. J’ouvre mon parapluie. » Des poids synaptiques w_ij se calibrent pour minimiser erreur. En phase de prédiction, elle amplifie associations apprises : pluie (input) → parapluie (output). Aucun modèle causal interne. Aucune représentation de pourquoi.
Une IA causale (comme les systèmes experts modernes) encode explicitement :
SI (Probabilité_pluie > 60% OU Alerte_météo = true) ET (Sortie_prévue = true OU Distance_intérieur < 50m) ET (Tolérance_humidité_basse = true)ALORS Recommander parapluie [Confiance: 0.9]Chaque décision est traçable. Le raisonnement est transparent.
Mais attention : même les systèmes symboliques encodent causalités fournies par experts humains. Aucune IA ne découvre indépendamment que pluie cause mouillage. La différence : avec la causali codée explicitement, on peut l’auditer, l’amender, la généraliser à contextes nouveaux.
Pourquoi Les Deux Systèmes Coexistent (Et Doivent Coexister)
Depuis 1960, Herbert Simon a formalisé que toute décision humaine suivait trois phases : Intelligence (percevoir la situation), Design (générer options), Choix (évaluer et décider).
Exemple parapluie selon Simon :
- Intelligence : « La météo annonce 70 % pluie, mon trajet dure 45 min dehors »
- Design : Options = [parapluie, taxi couvert, attendre demain, vêement imperméable]
- Choix : Évaluer selon critères (coût, confort, urgence) → parapluie sélectionné
L’IA statistique court-circuite ces trois phases. Elle « saute » directement à prédiction via pattern matching. L’IA causale simule les trois phases via raisonnement explicite.
Coexistence obligatoire ? Oui, pour deux raisons :
Pour les problèmes prédictifs, l’IA statistique excelle. Exemple : « Combien d’utilisateurs cliquent sur cette publicité ? » Réponse : corrélation patterns. Deep learning domine.
Pour les problèmes prescriptifs (« Que dois-je faire ? »), causalité requise. Exemple : diagnostic médical, pilotage crise, orientation pédagogique. Systèmes symboliques modernes (comme ExpressIF du CEA-List) dominent.
- Identifier le type de problème : Prédire une variable ou Prescrire une action ?
- Si prescriptif : cartographier graphe causal. Pluie → Mouillage → Inconfort → Action.
- Identifier confondantes (variables qui affectent plusieurs éléments). Ex : température affecte à la fois météo et comportement vestimentaire.
- Pour systèmes critiques (santé, crise), privilégier explicabilité causale > performance brute.
- Pour systèmes exploratoires (recommandation contenu), statistique acceptable si monitorer décalages.
Cas Concrets : Quand Le Parapluie Devient Vrai Problème
Incendie Forêt (ExpressIF, Aquitaine)
Système symbolique raisonne spatialement-temporellement : « Pluie faible (15 %) + vent nord-est 40 km/h + terrain pente sud + type végétation pin = propagation probable vers zones A,B,C dans 3h ». Prescrit déploiement pompiers + évacuations spécifiques. Chaque décision justifiée, auditable. Coût erreur : vies humaines. Explicabilité non-négociable.
Recommandation Film (Statistique Acceptable)
Netflix prédit « vous avez 67 % probabilité regarder film X ». Apprend patterns : historique visionnage + âge + genre + saison. Prescrit aucune action (juste recommande). Erreur coûte peu. Explicabilité secondaire.
Diagnostic Tuberculose (Causali Requise)
Toux persistante + radio trouble → TB probable. Mais : toux peut venir de pneumonie, allergie, tuberculose, cancer. Système expert encode : « SI tests_TB_positifs ∧ radio_caverne ∧ antécédents_exposition ALORS TB_probable ». Prescrit traitement. Médecin audit logique avant prescription. IA statistique prédisant « TB 78 % » sans causalité = non-auditable, dangereuse.