Alter Échosr
Regard critique · Justice sociale

Social

Les algorithmes, avatars de la lutte contre la fraude sociale

Le croisement de données à caractère personnel entre administrations publiques est désormais courant pour lutter contre la fraude sociale. Mais les progrès technologiques ont poussé encore plus loin l’usage d’algorithmes antifraude, jusqu’à anticiper les «profils suspects». Un usage non sans risques de discrimination, a fortiori lorsqu’il s’opère dans l’opacité et loin de tout contrôle démocratique…

Si vous êtes une femme seule avec enfants, que l’un d’eux est en situation de handicap et que vous habitez un quartier pauvre: bingo! Vous cochez toutes les cases de la fraudeuse potentielle. C’est en tout cas la conclusion que tireront certains algorithmes de lutte contre la fraude sociale, conçus pour établir des «scores de risque».

Ce «profiling», qui se superpose à plusieurs couches d’inégalités, est à comprendre à l’aune de l’État numérique: les personnes en situation de précarité reçoivent des aides financières de l’État; pour obtenir celles-ci, elles doivent lui fournir un grand nombre de données; avec cette manne d’informations à sa disposition, l’État peut plus facilement procéder à des contrôles. «Avec ce contrôle algorithmique, l’aide sociale est conditionnée à un contrôle social renforcé, résume la chercheuse Elise Degrave, professeure à la faculté de droit et directrice du master de spécialisation en droit du numérique à l’UNamur. Plus l’État a de données entre ses mains, plus il va être tenté de les réutiliser. Il y a donc un acharnement algorithmique sur les personnes vulnérables.»

Depuis l’époque des machines à écrire et cartes perforées, c’est peu dire que l’administration publique a fait du chemin en matière d’enregistrement de données. L’avènement du numérique et du «cloud» l’a plongée dans un monde nouveau, repoussant toujours plus loin les limites de l’enregistrement et du traitement des données. «La question qui se pose maintenant, c’est comment organiser une société démocratique dans un monde où l’on dispose des recueils de données plus importants et des manières inédites de collecter ces données», résume Gregory Lewkowicz, professeur de droit à l’Université libre de Bruxelles et chercheur à l’Institut d’intelligence artificielle pour le bien commun (FARI).

C’est en 1990 que la sécurité sociale, sentant le XXIe siècle pointer le bout de son nez, prend un tournant numérique majeur avec la création de la Banque Carrefour de la sécurité sociale (BCSS). Celle-ci marque la fin de l’époque où chaque administration collectait et gérait ses «propres» données en «silos». «Le choix s’est posé à l’époque de soit tout rassembler dans une base de données unique, soit créer un système en réseau pour ne pas mettre tous ses œufs dans le même panier. Et c’est ce qu’on a fait. Certains types de données sont enregistrées dans certaines administrations, et il existe des plateformes, comme la Banque Carrefour de la sécurité sociale, chargées de faire circuler ces données entre les administrations», retrace Elise Degrave, qui a récemment publié L’État numérique et les droits humains (L’Académie en poche).

Un système à l’époque tout à fait novateur, qui a permis, en plus d’accroître la protection des données personnelles face aux risques de piratage, l’automatisation de nombreux droits sociaux. Mais qui comporte aussi certains revers.

Détection renforcée et «risques sociétaux»

Lorsque des administrations souhaitent s’échanger des données à caractère personnel, par l’intermédiaire de la BCSS, elles doivent en demander l’autorisation au CSI, le comité de sécurité de l’information, lequel est chargé de vérifier si une base légale autorise ledit transfert.

C’est par exemple le cas lorsque des organismes tels que l’Onem ou l’Inasti demandent à avoir accès aux données relatives aux indemnités d’incapacité de travail de l’Inami pour détecter d’éventuels cumuls illégitimes avec des allocations de chômage ou revenus professionnels (voir délibération 23/058 du CSI).

« Plus on a de données dans les mains de l’État, plus l’État va être tenté de les réutiliser. Il y a donc un acharnement algorithmique sur les personnes vulnérables. »

ELISE DEGRAVE, PROFESSEURE À LA FACULTÉ DE DROIT ET DIRECTRICE DU MASTER DE SPÉCIALISATION EN DROIT DU NUMÉRIQUE À L’UNAMUR

Le procédé est désormais courant. Depuis une dizaine d’années, le plan d’action annuel pour la lutte contre la fraude sociale du SIRS (Service d’information et de recherche sociale), l’organe de coordination entre les différents services d’inspection sociale chargé de développer une vision de la lutte contre la fraude sociale, mentionne explicitement le recours aux techniques de datamatching et datamining pour améliorer la détection des fraudes.

Une implication de l’IA qui ne fait pas l’unanimité. Le Conseil national du travail (CNT), dans son avis 2425 relatif au plan d’action 2025-2026 du SIRS, souligne ainsi que cette utilisation «entraîne toutefois des risques sociétaux spécifiques lorsqu’ils sont utilisés par les organismes de sécurité sociale et les services d’inspection pour détecter la fraude. La technique du profilage de certains groupes à risque sur la base du datamining et du datamatching y est notamment sensible».

L’IA mise à l’épreuve

Pour mieux comprendre de quoi il retourne, nous nous sommes plongés dans les (nombreuses) délibérations du CSI. Au cours de l’année 2024, et de janvier à début mai 2025, 161 délibérations ont été rendues au total, parmi lesquelles il a fallu cibler les demandes de croisement de données relevant de la lutte contre la fraude sociale. Et puisque le sujet s’y prête, nous avons demandé un coup de pouce à l’IA. Après tout, si les administrations le font, pourquoi ne pas jouer avec les mêmes règles du jeu?

ChatGPT, visiblement très enthousiaste à l’idée d’être utilisé comme «source» dans notre article (et ainsi «montrer concrètement comment l’IA peut s’intégrer dans un travail journalistique, sans forcément écrire à votre place – mais en éclairant, en explorant et en facilitant l’accès à l’info»), a comptabilisé 28 délibérations sur les 161 directement liées à la lutte contre la fraude sociale.

Les administrations les plus «gourmandes» en croisements de données sont l’ONSS (11), l’Inasti (7) et l’Onem (4).

Pour détecter la fraude aux allocations de chômage, l’Office national de l’emploi (Onem) procède depuis plusieurs années à des croisements de données au sein de ses propres banques de données, mais aussi avec des banques de données d’autres institutions, comme le SPF Finances ou l’Inami, nous confirme son directeur du service d’inspection, Kevin Florizoone. «Soit on effectue le contrôle a posteriori, la personne doit alors rembourser les allocations indûment perçues, soit – et c’est de plus en plus le cas – on effectue le croisement de données avant l’ouverture du droit, pour permettre d’empêcher, à la source, un versement qui ne devrait pas être fait.»

En 2024, ces croisements de données ont ainsi donné lieu à plus de 43.000 enquêtes, dont 17.700 infractions confirmées.

Mais les administrations ne se contentent pas de croiser simplement des données, via datamatching. Des modèles algorithmiques plus complexes leur permettent désormais d’identifier des comportements anormaux, de définir des profils «à risque», et même de calculer des scores de risque pour orienter les contrôles vers les cas les plus probables de fraude: ce qu’on appelle datamining, analyses prédictives ou encore scoring prédictif.

Un modèle de ce type est utilisé au sein de l’Onem, nous explique Kevin Florizoone, qui vise à détecter de potentielles fraudes au chômage temporaire, en se basant sur les profils des employeurs. Il précise que le rôle du datamining se limite à la détection, l’enquête et la décision finale demeurant du ressort de l’inspecteur social.

Un tel modèle pourrait-il s’appliquer un jour aux chômeurs? «Oui ça pourrait, mais on n’y est pas encore. On sait qu’il faut être prudent», tempère le directeur.

6,7 millions d’euros pour rien?

Du côté de l’Office national de sécurité sociale (ONSS), c’est nettement moins clair. En 2008, alors qu’elle rédige sa thèse, Élise Degrave découvre presque par hasard l’existence d’Oasis, un outil de l’ONSS créé en 2002 dans l’ombre et sans aucun cadre légal. «C’est un ‘datawarehouse’, c’est-à-dire un ‘entrepôt de données’, gigantesque base de données de l’État qui centralise une masse d’informations relatives aux employeurs et aux travailleurs dans un but de profilage», écrit la chercheuse dans L’État numérique et les droits humains.

Dix ans plus tard, Oasis est remplacé par la Plateforme de Big Data Analytics (BDAP). Un nouvel outil de lutte contre la fraude sociale, qui comprend cette fois du datamining, des modèles prédictifs, de l’intelligence artificielle et du «deep learning» (via le recours aux réseaux de neurones, conçus pour mimer le fonctionnement du cerveau). L’ONSS a confié sa mise sur pied en 2018 à la société Deloitte pour la modique somme de… 6,7 millions d’euros.

Contacté, l’ONSS nous assure que la BDAP, mise en production en 2020, n’est plus active depuis fin février. Pour quelles raisons? Elle «ne répondait plus aux besoins de l’ONSS pour pouvoir mener à bien ses projets d’analyse de bout en bout», selon la réponse par mail de sa porte-parole.

Combien d’argent issu de la fraude sociale cette plateforme aura-t-elle permis, en cinq ans d’existence, de récupérer? Il y a fort à parier que les montants ne se comptent pas en millions… Ou comment perdre de l’argent en voulant en économiser.

La «carte d’identité» des algorithmes

Outre ce gaspillage d’argent public, le manque de transparence et de débat démocratique est un problème récurrent en matière d’usage de l’IA par les administrations publiques.

C’est notamment le cas du CSI, ce fameux organe chargé de vérifier qu’il existe une base légale pour chaque transfert de données sensibles. Sauf que «le CSI va plus loin: il définit des finalités, de nouveaux destinataires… Vérifier que les flux aient une base légale, c’est normal. Le problème, c’est qu’il a aujourd’hui un pouvoir gigantesque et qu’il ne fait l’objet d’aucun contrôle parlementaire et d’un faible contrôle de la part de l’Autorité de protection des données (APD). C’est un ovni complet», affirme Franck Dumortier, juriste et chercheur au Cyber and Data Security Lab de la VUB, qui est aussi membre du pôle «contentieux» de la Ligue des droits humains (LDH).

Combien d’argent issu de la fraude sociale cette plateforme aura-t-elle permis, en cinq ans d’existence, de récupérer? Il y a fort à parier que les montants ne se comptent pas en millions… Ou comment perdre de l’argent en voulant en économiser.

Les dessous des algorithmes sont également opaques. Malgré plusieurs tentatives, Élise Degrave n’est jamais parvenue à avoir accès aux algorithmes utilisés par les administrations, «parce que, selon elles, diffuser ces algorithmes aiderait les fraudeurs à développer d’autres schémas de fraude». Dénonçant l’absence de débat public et politique sur leur usage, la chercheuse en droit réclame la publicité de la «carte d’identité» de chaque algorithme de l’État: «Qui l’a conçu? Comment s’appelle-t-il? Comment est-il structuré? À quoi sert-il? Qui l’utilise? On ne se rend pas assez compte que ces algorithmes interviennent partout dans nos relations avec l’État: pour choisir l’école de son enfant, pour identifier les fraudeurs, pour automatiser des droits…»

Un projet innovant d’intelligence artificielle, qui réunit Unia, la Commission européenne et le Conseil de l’Europe, vise actuellement à prévenir et à combattre la discrimination algorithmique dans les administrations publiques. Dans son «rapport d’analyse de la situation actuelle», le Conseil de l’Europe pointe «un manque important de transparence concernant l’utilisation des systèmes d’IA et de PDA (prise de décision automatisée, NDLR) dans la sphère publique» en Belgique. Il note également que «la sensibilisation du public à l’utilisation potentielle de ces systèmes reste faible, ce qui entrave considérablement l’accès à des recours efficaces en cas de discrimination».

Une «massification» de l’erreur

D’ailleurs, comment prouver l’éventuel biais discriminatoire d’un algorithme? «C’est quasi impossible, déplore Franck Dumortier. Le cheminement est complètement opaque. Au sein de la LDH, on a actuellement quelques recours sur la reconnaissance faciale, mais aucun sur des cas de discrimination par un algorithme.»

Des cas ont pourtant déjà fait grand bruit à l’étranger. Aux Pays-Bas, pour lutter contre la fraude aux allocations familiales, le ministère des Impôts a eu recours à des algorithmes qui identifiaient les personnes ayant la double nationalité ou un nom à consonance étrangère comme étant «à risque». Entre 2013 et 2019, 26.000 parents ont ainsi été ciblés et contraints de rembourser des milliers d’euros, pourtant légalement perçus. Un scandale aux conséquences sociales dramatiques – divorces, suicides, enfants placés, expulsions… – qui a provoqué la chute du gouvernement néerlandais le 15 janvier 2021.

Des algorithmes discriminatoires ont également été mis au jour en France, en Australie et en Grande-Bretagne.

Contrairement à une erreur ou discrimination d’origine humaine, l’algorithme a ceci de vertigineux qu’il s’applique à l’ensemble d’une population donnée. «C’est comme pour les contrôles au faciès: qu’un policier puisse contrôler votre identité n’est pas problématique en soi, mais si vous faites systématiquement l’objet d’un contrôle, ça devient un problème», résume Grégory Lewkowicz.

Face à ce risque de «massification de l’erreur», que souligne aussi Élise Degrave, l’État répondra-t-il aux exigences de transparence et de débat démocratique pour accompagner la mue technologique de ses administrations?

L’IA dans la lutte contre la fraude sociale:

Datamatching: comparaison de données provenant de différentes bases pour repérer des incohérences.

Datamining: analyses approfondies pour identifier des schémas de fraude.

Analyses prédictives: utilisation de données historiques pour anticiper de nouveaux risques.

Scoring prédictif: calcul de scores de risque pour orienter les contrôles vers les cas individuels les plus probables de fraude.

Clara Van Reeth

Clara Van Reeth

Journaliste et contact freelances, stagiaires et partenariats

Pssstt, visiteur, visiteuse du site d'Alter Échos !

Nous sommes heureux que vous soyez si nombreux à nous suivre sur le web. Nous avons fait le choix de mettre en accès gratuit une grande partie de nos contenus, notamment ceux en lien avec le Covid-19, pour le partage, pour l'intérêt qu'ils représentent pour la collectivité, et pour répondre à notre mission d'éducation permanente. Mais produire une information critique de qualité a un coût. Soutenez-nous ! Abonnez-vous ! Et parlez-en autour de vous.
Profitez de notre offre découverte 19€ pour 3 mois (accès web aux contenus/archives en ligne + édition papier)