Aller au contenu

Intelligence Artificielle

Ce que vous saurez dans 3 minutes

L’IA est souvent comparée à l’électricité : une technologie “à usage général” qui va irriguer toute l’économie.

  • Pour les décideurs : Comprendre la différence entre l’IA qui prédit (Machine Learning) et l’IA qui crée (GenAI).
  • Pour les curieux : Voir au-delà du buzz et saisir la réalité technique (des maths, pas de la magie).
  • Pour les sceptiques : Mesurer l’écart abyssal entre l’IA d’aujourd’hui (spécialisée) et l’IA des films (consciente).

1. Comprendre

Les Trois Niveaux d’Intelligence

On classe généralement l’IA selon sa puissance cognitive :

  1. ANI (Artificial Narrow Intelligence) : L’IA Étroite.

    • Capacité : Excellente dans UNE tâche, nulle ailleurs.
    • Exemple : Deep Blue bat le champion d’échecs mais ne sait pas jouer aux dames ni parler. Tout ce que nous avons aujourd’hui est de l’ANI.
  2. AGI (Artificial General Intelligence) : L’IA Générale.

    • Capacité : Aussi polyvalente qu’un humain. Peut apprendre n’importe quelle tâche cognitive.
    • Exemple : C3PO ou HAL 9000 (sans la folie). C’est le Saint Graal de la recherche actuelle (OpenAI, DeepMind).
  3. ASI (Artificial Super Intelligence) : La Super-intelligence.

    • Capacité : Dépasse largement les meilleurs cerveaux humains dans tous les domaines (créativité, sagesse, calcul).
    • Exemple : Une entité capable de résoudre le cancer ou le voyage interstellaire en une matinée.

La Carte du Territoire (Taxonomie)

L’IA est un arbre gigantesque. Voici pour s’y retrouver :

mindmap
  root((Intelligence<br/>Artificielle))
    Symbolique<br/>(GOFAI)
      Systemes Experts
      Logique Formelle
      Planification
    Connexionniste<br/>(Machine Learning)
      Supervise
        Classification
        Regression
      Non Supervise
        Clustering
      Renforcement
        Robots
        Jeux
      Deep Learning
        Reseaux de Neurones
        Generative AI
          LLM
          Diffusion

2. Appliquer

Les Deux Grandes Écoles de Pensée

L’histoire de l’IA est une querelle entre deux tribus :

  • Philosophie : “L’esprit est un logiciel de logique.”
  • Approche : On encode les règles à la main. “Si c’est rond et rouge, c’est une pomme.”
  • Succès : Deep Blue, GPS, Systèmes Experts.
  • Limite : Ne gère pas le flou du monde réel (reconnaître un visage).

Exemple Code : L’Atome de l’IA (Le Perceptron)

Au cœur de ChatGPT, il y a ceci : le Perceptron. C’est une simulation mathématique simpliste d’un neurone biologique. Il fait une somme pondérée de ses entrées et décide de s’activer ou non.

import numpy as np
class Perceptron:
def __init__(self, num_inputs):
# Poids synaptiques aléatoires (L'importance de chaque entrée)
self.weights = np.random.rand(num_inputs)
# Biais (Seuil d'activation)
self.bias = np.random.rand()
def decide(self, inputs):
# Calcul : Somme(Entrées * Poids) + Biais
activation = np.dot(inputs, self.weights) + self.bias
# Fonction d'activation (Step) : Oui ou Non ?
return 1 if activation > 0 else 0
# Simulation : Décider "Dois-je prendre un parapluie ?"
# Inputs : [Il pleut (0/1), J'ai une voiture (0/1)]
brain_cell = Perceptron(num_inputs=2)
# On force l'apprentissage (normalement automatique)
brain_cell.weights = [1.5, -2.0] # La pluie pousse à OUI, la voiture pousse à NON
brain_cell.bias = -0.5
# Test 1 : Il pleut (1), Pas de voiture (0)
decision = brain_cell.decide([1, 0])
print(f"Prendre parapluie ? {'OUI' if decision else 'NON'}") # OUI
# Test 2 : Il pleut (1), J'ai une voiture (1)
# 1*1.5 + 1*-2.0 - 0.5 = -1.0 -> NON
decision = brain_cell.decide([1, 1])
print(f"Prendre parapluie ? {'OUI' if decision else 'NON'}") # NON

3. Aller plus loin

L’IA est-elle consciente ?

Non. Absolument pas. Même les modèles les plus avancés (comme Claude 3 ou GPT-4) sont des perroquets stochastiques (selon l’expression d’Emily Bender).

  • Ils manipulent des signifiants (les mots) sans accéder au signifié (le sens réel, l’expérience vécue).
  • Ils n’ont pas de “monde intérieur”, de désirs ou de peurs. Ils ne font que prédire le mot suivant le plus probable.

Le Test de Turing est-il obsolète ?

Alan Turing proposait en 1950 de juger une machine sur sa capacité à imiter un humain par écrit. Aujourd’hui, les LLMs passent le test de Turing haut la main. Pourtant, personne ne considère qu’ils sont “intelligents” au sens humain. On cherche donc de nouveaux tests :

  • The Coffee Test (Steve Wozniak) : Un robot peut-il entrer dans une maison inconnue et faire du café ? (IA Moravec).
  • The ARC Evaluation (François Chollet) : Mesure la capacité d’abstraction et de généralisation sur des puzzles visuels inconnus.

Points de vigilance


Questions Fréquentes

L’IA va-t-elle remplacer mon travail ? L’IA ne remplacera pas les humains, mais les humains utilisant l’IA remplaceront ceux qui ne l’utilisent pas. Elle va automatiser les tâches (rédaction, tri, calcul) mais pas les métiers entiers (qui incluent empathie, stratégie, responsabilité).

Quelle est la différence entre un Algorithme et une IA ?
  • Algorithme : Une recette de cuisine figée (“Fais A, puis B”). L’humain a tout prévu.
  • IA (Machine Learning) : Une recette qui change toute seule. L’humain ne dit pas “Fais A”, il dit “Voici le résultat voulu, trouve comment faire”.

Notions Liées (Spider Web)

Ressources Externes