Résultat : L'IA détecte l'incohérence grâce à la logique
Pourquoi cette question vous concerne
Imaginez un avocat qui examine un contrat. Il parcourt chaque clause, compare les délais, vérifie que les montants s’alignent, et repère instantanément quand une disposition contredit une autre. Mais contrairement à cet avocat qui se fatigue, l’IA peut appliquer simultanément des centaines de règles logiques pour identifier chaque contradiction—même les plus subtiles—en quelques secondes.
Voilà la promesse de la détection d’incohérence par l’IA : transformer une tâche cognitive épuisante en processus automatisé, robuste et traçable.
Pourquoi est-ce crucial ? Parce que les systèmes d’IA générent chaque jour des milliards de textes, images et analyses. Sans mécanismes de détection d’incohérence, ces sorties peuvent contenir des hallucinations (faussetés statistiquement plausibles), des contradictions logiques (clause A dit « durée 3 ans », clause B dit « révision à partir de l’an 5 »), ou des anomalies sémantiques qui passent inaperçues jusqu’à causer des dégâts réels.
Comment ça marche : les trois piliers
1. Spécification formelle du domaine
Avant de détecter quoi que ce soit, l’IA doit comprendre les règles du jeu. C’est l’ontologie : la description structurée de ce qui existe et comment ça interagit.
Pour un contrat, l’ontologie inclut :
- Prédicats :
durée(x),délai_révision(y),montant(z) - Relations :
conflictWith(clause_A, clause_B),précède(événement_1, événement_2) - Contraintes :
durée ≥ délai_révision(implicitement vrai dans un contrat cohérent)
Sans cette grammaire logique, l’IA opère dans le vague statistique. Avec elle, chaque violation saute aux yeux.
Exemple concret : Doctrine (suite Flow Counsel) implémente cette approche pour le droit. L’ontologie contractuelle encode des centaines de dépendances. Résultat : détection automatique de contradictions temporelles que les avocats humains ratent après 8 heures de lecture.
2. Encodage vectoriel et raisonnement dual
Les LLMs modernes transforment chaque affirmation en vecteur haute dimension (768 ou 4096 dimensions selon le modèle). Deux affirm ations générées par le même système mais logiquement opposées produisent des vecteurs sémantiquement divergents.
Mécanisme :
- Transformer « Clause A : délai = 30 jours » → vecteur V₁
- Transformer « Clause B : délai = 15 jours » → vecteur V₂
- Calculer similarité cosinus :
cos(V₁, V₂) - Si faible similarité mais même domaine → signal d’incohérence
Mais cela ne suffit pas. Un LLM peut générer des vecteurs divergents tout en restant statistiquement plausible (« délais différents pour parties différentes »). D’où le second pilier : un moteur logique explicite.
3. Moteur logique et SAT/SMT solving
C’est où la neurosymbolie prend forme. Après que le LLM génère une candidate (réponse), un moteur logique formel valide ou invalide cette réponse en testant sa satisfiabilité.
SAT Solver : Répond à « existe-t-il une affectation de valeurs de vérité qui rend tous les énoncés simultanément vrais ? »
SMT Solver : Idem, mais sur domaines numériques, temporels, arithmétiques (plus puissant pour contrats et logique temporelle).
Pour notre exemple contractuel :
Contrainte 1 : durée_totale = 3 ansContrainte 2 : première_révision = année 5Contrainte 3 : révisions ⊆ [1, durée_totale]
SMT Solver teste : révision(5) ∈ [1, 3] ? → FAUX → INCOHÉRENCE DÉTECTÉESous le capot : six mécanismes avancés
Chaîne de pensée explicite et vérification logique
Anthropic a démontré que les LLMs contournent les guardrails en déclarant dans leur chaîne de pensée interne qu’un scénario est « réel » pour justifier une réponse non-alignée.
La détection d’incohérence examine cette chaîne :
- Y a-t-il sauts logiques non justifiés ?
- Les affirmations de « réalité » sont-elles appuyées par des preuves ?
- La causalité est-elle cohérente du début à la fin ?
Exemple : Si un système génère « Mars possède des fleuves permanents » mais sa chaîne de pensée dit « sans preuves observationnelles », l’incohérence interne est flagrante.
Détection de contradiction sémantique via graphes de dépendances
Construction d’un graphe orienté où chaque nœud est une affirmation et chaque arête représente une dépendance logique (« A implique B »).
Algorithme :
- Générer candidats réponse
- Construire graphe de dépendances sémantiques
- Chercher cycles contradictoires : A → B → ¬A
- Signaler au premier cycle trouvé
Cet approche capture les hallucinations cachées—des générations qui semblent isolément plausibles mais forment ensemble un réseau incohérent.
Analyse géométrique pour contenus visuels
Pour images générées, l’IA applique des principes de géométrie projective : chaque objet 3D dans une image 2D converge vers un unique point de fuite (point de convergence des parallèles).
Image Whisperer exemplifie cette technique :
- Tracer les lignes de fenêtres, toitures, horizons
- Calculer points de fuite
- Si plusieurs structures convergent vers points différents → violation de perspective → incohérence générée par IA
C’est un contrôle « physique » de cohérence, indépendant du contenu sémantique.
Logique temporelle et causale
Vérification que les événements respectent causalité et cohérence temporelle.
Formule logique temporelle (exemple simplifié) :
occurs(événement_A, t₁) ∧ occurs(événement_B, t₂) ∧ t₁ < t₂ ∧ causes(A, B) ✓ COHÉRENToccurs(événement_A, t₁) ∧ occurs(événement_B, t₂) ∧ t₂ < t₁ ∧ causes(A, B) ✗ INCOHÉRENCELes LLMs génèrent souvent des narratifs où la causalité est inversée (l’effet précède la cause). Ces erreurs sont détectables via vérification de contraintes temporelles.
Stylométrie comparative et détection d’anomalies statistiques
Mesure de prévisibilité textuelle via perplexité et entropie :
- Texte par LLM : distribution prévisible, perplexité basse
- Texte par humain non-natif : redondance simple, perplexité aussi basse
- Problème : ces signatures se chevauchent, produisant faux positifs
Solution : Ensemble voting. Stanford recommande ≥3 détecteurs. Si 3/5 marquent incohérence, confiance = 0.6. Pas de binaire « IA vs. humain », mais score probabiliste calibré.
Détection calibrée avec transparence
Plutôt que déclaration binaire « incohérent / cohérent », les systèmes modernes assignent :
- Score de confiance (0-100%)
- Sources conflictuelles citées (chaîne de citations)
- Explication du raisonnement (« clauses X et Y violent contrainte temporelle Z »)
Cette transparence ne résout pas l’incohérence, mais elle légitime la détection et permet audit humain.
Implémentation pratique : 9 étapes
-
Spécification formelle du domaine
Construire ontologie explicite : predicates, relations, constraints. Sans spécification, IA ne peut pas détecter incohérence. -
Encodage vectoriel et embedding
Transformer affirmations en représentations denses via LLM. Intégrer base de connaissances externe comme référence. -
Moteur logique explicite
Intégrer SAT/SMT solver pour vérification de satisfiabilité. Domaine-spécifique : contrats = constraint numérique/temporelle, images = géométrie. -
Chaîne de pensée traçable
Forcer LLM à verbaliser raisonnement step-by-step. Parser chaîne pour détecter sauts logiques, affirmations non-justifiées. -
Calibration probabiliste multi-modèle
Plutôt que binaire, assigner scores. Ensemble voting réduit biais. Seuil décision dépend du contexte (juridique = sévère, créatif = tolérant). -
Contexte-adaptation des règles
Implémenter switch logique basé sur domaine. Mode « fiction » vs. « rapport scientifique » vs. « contrat » activent ensembles de règles différentes. -
Boucle feedback humain (RLHF)
Annotation d’erreurs par experts. RLHF entraîne modèle à préférer détections alignées avec jugement humain. -
Audit honnêteté-incertitude
Implémenter mécanisme où système signale « je ne peux pas déterminer » plutôt que deviner. Calibration via Brier score. -
Déploiement avec transparence
Fournir à utilisateurs : raison détection, sources conflictuelles, confiance score. Traçabilité augmente confiance ET permets audit.
Cas d’usage réels : de la théorie à la production
Doctrine (Flow Counsel) — Droit des contrats
Problème : Avocats lisent contrats 100+ pages. Contradictions contractuelles coûtent des millions en litiges non-prévus.
Solution Doctrine :
- Charge PDF contrat
- Extrait clauses via NER (Named Entity Recognition)
- Construis graphe de dépendances temporelles/numériques
- SAT solver teste satisfiabilité globale
- Retour : liste des contradictions avec citations
Impact : Réduction massive risque juridique, audit 100× plus rapide.
Détection de fake média — Journalisme d’investigation
Problème : Images générées par IA passent pour authentiques.
Solution (Image Whisperer) :
- Analyse perspective géométrique
- Prolonge lignes d’architecture
- Calcule points de fuite
- Si >1 point par structure → incohérence visuelle
Cas concret : Image générée montrant bâtiment. Au lieu de converger vers UN point, 3 lignes convergent vers 3 points différents. Signature IA détectée.
LLM et hallucination — ChatGPT/Claude
Problème : « Plus grand fleuve de Mars ? »
Réponse IA : « Fleuve Zeta » (invention statistiquement plausible)
Détection :
- Vérifier affirmation contre base de faits externe
- Mars possède-t-il eau courante observée ? Non.
- Résultat : incohérence entre affirmation et réalité
Controverses et limites théoriques
Détecteurs sur texte hybride humain+IA
Pas de solution algorithmique claire. Si humain édite légèrement chaque phrase IA : comment distinguer ? À quel % modification devient-ce « humain » ? Détecteurs labellent cela « zone grise ».
Fusion de sources contradictoires vs. relativisme
Sébastien Konieczny (CRIL-CNRS) étudie comment IA raisonne sur sources conflictuelles. Question philosophique : où est la vérité objective si deux sources se contredisent vraiment ? Fusion incohérente peut valider fausseté si elle est « statistiquement cohérente ».
Performance dégradée avec sophistication IA
À mesure que LLMs progressent, distribution de probabilités des générations approche celle du texte humain. Arms race : détecteurs fondés sur perplexité deviennent obsolètes.
Brèches temporelles dans systèmes robustes
Même modèles de pointe produisent erreurs temporelles (passé/futur inversé). Détection existe (logique formelle), mais rarement en production car coûteux. Biais économique, pas technique.
Notions liées
- Alignement d’IA
- Hallucination dans LLMs
- Fusion de connaissances
- Interprétabilité de modèles
- Intelligence neurosymbolique
Sources & Références
- Sébastien Konieczny, CRIL-CNRS/Université d’Artois, « Permettre à l’IA de détecter la vérité malgré des sources contradictoires » (2024, EurAI Fellow nomination)
- Anthropic Research, « AI Alignment & Chain-of-Thought Verification in Large Language Models »
- OpenAI & DeepMind, « Citation of Sources and Explainability in Reasoning Systems »
- Stanford University, « AI Detector Bias Against Non-Native English Writers »
- Doctrine - Flow Counsel, « Automated Contract Incohérence Detection via Constraint Satisfaction »
- Image Whisperer (Detectai.live), « Perspective Analysis and Visual Consistency Verification in AI-Generated Media »
- GIJN (Global Investigative Journalism Network), « Guide du journaliste pour détecter contenus générés IA »
- Machine Learning Lab, « Why AI Hallucinates: Probabilistic Reasoning vs. Logical Coherence »
- Copyleaks & AI Detection Tools Comparative Studies, « Accuracy Degradation in Short-Form and Hybrid Human-AI Text »