Aller au contenu

Éthique de l'IA

Ce que vous saurez dans 3 minutes

Vous découvrirez que le célèbre “Dilemme du Tramway” n’est plus une expérience de pensée mais un choix d’ingénierie pour les constructeurs automobiles. Nous verrons comment Amazon a dû “tuer” sa propre IA de recrutement sexiste, et pourquoi la définition du “Bien” varie radicalement selon que vous êtes ingénieur à San Francisco ou utilisateur à Tokyo.


1. Comprendre

Les Piliers F.A.T.

Dans l’industrie, l’éthique se résume souvent à l’acronyme FAT :

  • Fairness (Équité) : L’algorithme traite-t-il tout le monde sans discrimination ?
  • Accountability (Responsabilité) : Qui va en prison si l’IA tue ? (Le codeur, le vendeur ou l’utilisateur ?).
  • Transparency (Transparence) : Peut-on expliquer pourquoi une décision a été prise ? (Le droit à l’explication).

Le Mythe de la Neutralité Mathématique

On pense souvent que “Les chiffres ne mentent pas”. C’est faux en IA. Si vous entraînez une IA sur les données d’embauche des 10 dernières années, elle n’apprendra pas à embaucher “les meilleurs”, elle apprendra à embaucher “des hommes blancs”, car c’est ce que l’histoire lui montre. L’IA est un miroir déformant de nos propres défauts sociétaux.


2. Appliquer

Étude de Cas N°1 : Le Dilemme du Tramway & La Voiture Autonome

Le vieux problème philosophique est devenu concret : Une voiture autonome perd ses freins. Doit-elle foncer dans le mur (tuant le passager) ou écraser 5 piétons sur la route ?

  1. L’Expérience Moral Machine (MIT) : Des millions de personnes ont voté sur ces scénarios.

    • Résultat : Il n’y a pas d’éthique universelle.
    • Occident : Sauver le plus grand nombre (Utilitarisme).
    • Asie : Sauver les personnes âgées (Respect des aînés).
    • Ailleurs : Sauver les citoyens respectueux de la loi (vs ceux qui traversent au rouge).
  2. La Réponse des Constructeurs (Le Cas Mercedes) : En 2016, un responsable de Mercedes-Benz a osé trancher en faveur de la protection du conducteur (“Save the one in the car”).

    • La Logique : On ne peut pas contrôler la route (les piétons), mais on peut contrôler la voiture. La certitude de sauver une vie (le client) prévaut sur la probabilité d’en sauver d’autres.
    • Le Paradoxe Social : Tout le monde veut que les voitures des autres soient utilitaristes (qu’elles se sacrifient pour sauver l’école), mais tout le monde veut acheter une voiture qui le protège, lui.

Étude de Cas N°2 : L’Outil de Recrutement Amazon (2014-2018)

Amazon a tenté d’automatiser le tri de CV pour recruter les “Top Talents”.

  • Le Fonctionnement : L’IA notait les candidats de 1 à 5 étoiles, basée sur les CV des employés performants actuels (majoritairement masculins).
  • La Dérive : L’IA a déduit que “Homme = Bien”.
    • Elle pénalisait les CV contenant le mot “Women’s” (ex: “Women’s Chess Club”).
    • Elle favorisait le vocabulaire agressif (“Executed”, “Captured”) typiquement masculin.
  • La Fin : Les ingénieurs n’ont jamais réussi à corriger ce biais (de-biasing). Le projet a été abandonné car jugé irrécupérable.

3. Aller plus loin

Le Problème de la Boîte Noire (Black Box)

Le RGPD impose un “Droit à l’explication”. Mais avec le Deep Learning (Réseaux de neurones profonds), même les créateurs ne savent pas exactement pourquoi le modèle a pris telle décision. C’est l’essor de la XAI (Explainable AI) : des techniques (comme SHAP ou LIME) pour éclairer la décision (“J’ai refusé le prêt car l’âge < 25 ans et la dette > 30%”).

L’Externalisation Morale

En utilisant ChatGPT ou Claude, nous importons les valeurs morales de la Silicon Valley (RLHF).

  • GPT-4 refusera de générer une blague sur Jésus mais acceptera parfois sur d’autres figures, selon les biais de ses annotateurs humains (souvent sous-payés au Kenya ou aux Philippines).
  • La question politique du siècle : Voulons-nous une IA souveraine avec nos propres valeurs éthiques ?

Questions Fréquentes

Qui est responsable en cas d’accident d’IA ? Juridiquement, c’est le flou. L’Union Européenne s’oriente vers une “Responsabilité du fait des produits” (comme si votre grille-pain explosait). C’est le fabricant qui est responsable, sauf si l’utilisateur a modifié le système.

L’éthique est-elle différente de la sécurité ? Oui.

  • Sécurité (Safety) : L’IA ne doit pas tuer ou casser accidentellement.
  • Éthique : L’IA ne doit pas discriminer ou manipuler. Une IA peut être parfaitement sûre (elle ne plante jamais) mais totalement pas éthique (elle est raciste).

Notions Liées (Spider Web)

  • Problème : Biais de l’IA (La racine du mal).
  • Solution : Alignement (Faire correspondre l’IA à nos vœux).
  • Régulation : IA Act (La réponse de la loi).

Ressources Externes

  • Livre : Weapons of Math Destruction - Cathy O’Neil (Analyse brillante des algo-inégalités).
  • Expérience : Moral Machine (MIT) - Testez vos propres choix éthiques.