IA & data

Peut-on faire confiance aux algorithmes d’IA dans les décisions publiques ?

Par Maxime
5 minutes

Des algorithmes au cœur de l'action publique : une révolution discrète


Depuis quelques années, les algorithmes d'intelligence artificielle (IA) s'invitent dans les rouages de l'administration, des services sociaux, de la police ou encore de la santé. Leur mission ? Aider à la prise de décision dans des contextes aussi variés que l'attribution d'allocations, la gestion des priorités médicales, la lutte contre la fraude ou l'anticipation des incivilités en ville. Mais derrière la promesse d'une action publique plus efficace, objective et innovante, une question essentielle gronde : peut-on vraiment leur faire confiance ?


Pourquoi recourir à l’IA dans les décisions publiques ?


L'intérêt croissant pour l'IA dans le secteur public s’explique par plusieurs facteurs :

  • L’automatisation des tâches répétitives : tri de dossiers, analyse de documents, détection d’anomalies… l’IA accélère les processus là où l’humain s’essouffle.

  • La gestion de volumes massifs de données : l’explosion du numérique génère d’énormes flux d’informations que seules des machines peuvent traiter rapidement.

  • La recherche d’objectivité : un algorithme bien conçu, débarrassé de l'émotion ou des préjugés, semble offrir une impartialité théorique dans l’application des règles de l’État.

  • L’adaptation en temps réel : certains modèles prédictifs ajustent leurs recommandations selon l'évolution de la situation (ex : gestion d'afflux dans les hôpitaux lors d’une pandémie).

En France comme ailleurs, on retrouve déjà des outils d’IA au sein de la CAF pour la détection des fraudes, de la Préfecture de police pour l’analyse de flux vidéo, ou encore du ministère de la Santé pour optimiser l'allocation des ressources médicales.


Quels bénéfices visibles… mais à quelles conditions ?


L’IA sait offrir des avantages concrets. Par exemple, elle permet de :

  • Réduire les délais de traitement pour les demandes administratives courantes
  • Mieux cibler les contrôles pour lutter contre la fraude
  • Anticiper des zones à risque pour une meilleure allocation des forces de sécurité
  • Optimiser les parcours de soins et les files d’attente dans le secteur médical

Cependant, ces succès exigent des prérequis : des données fiables et complètes, une supervision humaine, ainsi qu’une conception éthique et transparente du modèle utilisé. Car l’arbitraire algorithmique existe : une IA mal calibrée ou nourrie de données biaisées peut aboutir à des injustices… difficiles à repérer à grande échelle.


Biais, opacité, irresponsabilité : les risques réels de l’IA publique


L’illusion de la neutralité


Contrairement à une croyance répandue, un algorithme ne se résume pas à des lignes de code objectives. Les choix effectués au moment de la programmation (quelles données, quels modèles statistiques, quelles pondérations, etc.) sont fondamentalement humains et donc porteurs de biais potentiels.


Un exemple illustratif : dans le domaine de l’aide sociale, si un modèle s’appuie sur l’historique de décisions passées, il risque de perpétuer les inégalités pré-existantes du système, voire de les amplifier.


La question de la transparence


Nombre d’algorithmes – spécialement ceux fondés sur le machine learning ou le deep learning – sont des boîtes noires. Même leurs concepteurs sont aujourd'hui parfois incapables d’expliquer concrètement pourquoi l’IA a retenu ou rejeté tel dossier, proposé telle action, classé telle situation comme prioritaire.


Pour le citoyen, comprendre et contester une décision « algorithmique » relève donc souvent du parcours du combattant. Le principe de « redevabilité » de l’État s’en trouve alors fragilisé.


De l’automatisation à la déresponsabilisation ?


Quand une administration justifie une décision par « c’est l’outil qui l’a dit », on bascule dans une responsabilité diluée. Qui porte les conséquences d’une erreur, d’un refus injuste, d’un effet de ciseau ? Le fournisseur du logiciel ? Le ministère ? L’agent qui a appuyé sur « valider » ? Cette dilution complique la réparation des préjudices et le retour à la confiance.


Exemples et cas concrets : l’IA face à la réalité du terrain


  • Aux Pays-Bas, le scandale SyRI
    SyRI, un système algorithmique censé détecter la fraude sociale, s'est révélé discriminant envers des populations précarisées, aboutissant à la suppression de prestations pour des milliers de personnes injustement ciblées. À la suite d’une mobilisation citoyenne, la justice a interdit son usage en 2020, faute d’équité et de transparence.

  • Prédiction policière : fausses alertes en série
    Plusieurs grandes villes américaines ont expérimenté des technologies de predictive policing, qui, en analysant de la donnée historique (lieux de crimes, profils, horaires), proposent d’orienter les patrouilles. Résultat : les quartiers déjà surveillés se retrouvent encore plus contrôlés, tandis que la délinquance n’y baisse pas forcément.

  • En France : SIAO, la gestion des places d’hébergement d’urgence
    L’utilisation de modèles algorithmiques pour aiguiller les demandes d’hébergement a abouti à des « triages » difficiles à comprendre pour les associations ou les usagers.

À chaque fois, la critique renvoie à l’incompréhension du fonctionnement de l’algorithme et à l’absence d’un recours effectif pour ceux qui s’estiment lésés.


Quelles solutions pour (re)construire la confiance ?


  1. Transparence et explicabilité obligatoire : Les modèles utilisés dans la sphère publique doivent offrir une documentation accessible : comment sont-ils conçus ? Quelles variables retiennent-ils ? Quels sont leurs taux d’erreur ?

  2. Supervision et recours systématique : Aucun système automatisé ne doit écarter la possibilité d’une intervention ou d’une contestation humaine. L’agent ne doit pas être réduit au rôle d’exécutant, mais devenir un acteur critique du processus.

  3. Audits indépendants et évaluation continue : Des tiers (chercheurs, sociétés civiles, associations) devraient pouvoir analyser le fonctionnement réel des algorithmes, vérifier leur impact social, et pointer les biais ou défaillances.

  4. Participation citoyenne : L’implication de la société civile, tant dans la conception que le suivi des outils, reste l’un des meilleurs gardes-fous contre les dérives.

  5. Légalité et éthique avant tout : Les algorithmes publics doivent respecter les lois sur la protection des données, la non-discrimination, et garantir l’équité devant le service public.

Paroles d’utilisateurs : tendances et doutes sur le terrain


  • Manon, assistante sociale en Hauts-de-Seine : « Nous disposons d’outils de scoring pour la priorisation des aides. C’est pratique, mais il arrive que des cas particuliers échappent au système. Plus la pression pour traiter les dossiers va vite, plus le risque de faux positifs augmente. Je plaide pour un temps d’échange humain, surtout quand une décision est lourde de conséquences. »

  • Jean, data scientist dans le secteur public : « La donnée publique est parfois incomplète, ou biaisée par des habitudes anciennes. Un algorithme ne vaut que ce qu’on lui donne à ‘manger’. La vigilance doit être collective, car un bug algorithmique passe sous les radars bien plus vite qu’on ne le croit. »

  • Sonia, usagère d’un service municipal : « J’ai eu des difficultés à comprendre pourquoi ma demande avait été refusée ‘par la machine’. Impossible de savoir vers qui me tourner, tout est impersonnel… on se sent parfois démuni. »

Entre potentiel et vigilance : vers une gouvernance hybride de l’IA


L’essor des algorithmes dans les décisions publiques n’est ni une menace, ni une panacée automatique. Leur puissance peut servir l’intérêt général, à condition d’en maîtriser les limites, les risques et de garantir toujours le contrôle démocratique. La recherche d’un équilibre s’impose : tirer parti de l’efficacité et de l’objectivité promises, sans jamais sacrifier l’attention portée à l’humain, à la justice sociale, ni à la capacité de réparer les erreurs.


À l’heure où la transformation numérique accélère, il est essentiel de placer l’IA au service d’un service public transparent, responsable et inclusif… en n’oubliant jamais que la technologie, aussi efficace soit-elle, n’est qu’un outil. L’enjeu ? Que la confiance citoyenne ne se code pas, elle se construit et se cultive, jour après jour, par le dialogue et l’évaluation – humaine avant tout.

Articles à lire aussi
evjfparfait.fr