L’Algorithme De Contrôle De La CAF Fait Peau Neuve
La nouvelle tombe le 12 mars 2026. La Caisse d’allocations familiales annonce une refonte complète de son algorithme de contrôle. Un outil qui scrute les dossiers de 13,8 millions d’allocataires et qui, jusqu’ici, cristallisait toutes les tensions. Depuis le 1ᵉʳ janvier dernier, c’est une toute nouvelle version qui tourne dans les serveurs de la CAF : le « Datamining Données entrantes 2026 » (DMDE 2026).
Le changement est radical. Pour la première fois, le code source est rendu public. Fini l’opacité qui alimentait les soupçons. Désormais, associations, chercheurs et citoyens peuvent plonger dans les entrailles de la machine pour comprendre comment elle fonctionne. La Cnaf assume cette transparence : « Sa démarche d’élaboration a été particulièrement guidée par la prise en compte des risques de discrimination liés aux variables retenues, en excluant les variables les plus sensibles ou contestables, selon une méthode explicable ». L’organisme promet un algorithme « plus éthique et plus transparent ».
Un tournant qui arrive après des mois de polémique. Car ce nouvel outil ne sort pas de nulle part. Il répond à une accusation grave qui a ébranlé l’institution et soulevé une question brûlante : la CAF discrimine-t-elle vraiment les plus pauvres ?
Les Chiffres Vertigineux Des Contrôles CAF
Derrière la machine, les chiffres donnent le vertige. En 2024, 31,5 millions de contrôles ont été effectués sur 6,4 millions de bénéficiaires. Une surveillance de masse qui échappe largement au regard du grand public. Chaque mois, la CAF vérifie, croise, ajuste. L’objectif affiché : garantir le « juste droit », cette promesse que chaque allocataire reçoive le montant exact auquel il a droit, ni plus, ni moins.
Mais la complexité du système génère inévitablement des erreurs. Revenus fluctuants, situation familiale qui évolue, changement de logement : autant de déclarations à jour qui peuvent coincer. Et les régularisations tombent. Dans 92 % des cas, ces ajustements sont automatiques, issus d’échanges entre administrations. Pôle emploi, impôts, sécurité sociale : les données circulent, se recoupent, déclenchent des corrections sans intervention humaine.
Les 8 % restants ? Des contrôles documentaires ou sur le terrain, menés par des agents. Et tout au bout de la chaîne, une infime portion : 0,5 % seulement passent par l’algorithme de datamining. Ce dispositif, aussi discret que controversé, évalue le « risque d’indu ». Autrement dit, la probabilité qu’un allocataire ait touché trop d’argent. Mais ces vérifications peuvent aussi jouer en faveur des bénéficiaires, en détectant des sous-versements et en déclenchant des rappels de paiement.
Un système tentaculaire qui brasse des millions de dossiers. Et c’est précisément cette mécanique que 15 associations ont décidé d’attaquer de front.
L’Accusation Qui A Tout Fait Basculer
2024. Quinze associations frappent un grand coup. Elles saisissent le Conseil d’État et portent une accusation frontale : l’algorithme de la CAF discrimine les plus précaires. Pas une suspicion vague, mais des preuves, des analyses, des données croisées. La Quadrature du Net, fer de lance du collectif, ne mâche pas ses mots : « Nous avons pu démontrer que cet algorithme vise délibérément les plus précaires. »
Le mécanisme est brutal. Être pauvre augmente votre « score de risque ». Toucher les minima sociaux ? Vous grimpez dans la liste. Au chômage ? Pareil. Vivre dans un quartier défavorisé ? La probabilité d’être contrôlé s’envole. L’algorithme transforme la précarité en facteur de suspicion. Plus vous êtes fragile économiquement, plus le système vous surveille. Une logique circulaire qui punit deux fois les mêmes.
Les associations détaillent les paramètres incriminés. Les variables « sensibles » pointées du doigt ciblent systématiquement ceux qui ont le moins. Le datamining n’évalue pas seulement un risque d’erreur administrative. Il profile, classe, hiérarchise. Et place les allocataires les plus vulnérables sous surveillance renforcée.
Face à ce tollé, la CAF ne pouvait plus ignorer. Le scandale a forcé l’institution à revoir sa copie. D’où ce nouveau DMDE 2026, censé exclure toute discrimination. Reste à vérifier si la promesse sera tenue.
Ce Qui Change Vraiment Pour Les Allocataires
La CAF promet un tournant radical. Fini les variables « sensibles » qui ciblaient la pauvreté. Le nouveau DMDE 2026 exclut désormais tout paramètre potentiellement discriminatoire. Quartier de résidence, type de prestations, situation d’emploi : ces critères controversés disparaissent officiellement du calcul. L’organisme affirme adopter une « méthode explicable », loin de l’opacité dénoncée.
Autre nouveauté majeure : la publication intégrale du code source. N’importe qui peut désormais consulter les lignes de programmation, comprendre la logique, vérifier les pondérations. Un geste inédit pour une administration publique. La Cnaf l’assume : « Éclairer le débat » en ouvrant le capot de la machine. Les associations, les chercheurs, les journalistes peuvent analyser, critiquer, alerter si nécessaire.
Mais le contrôle n’est pas toujours synonyme de sanction. Les vérifications révèlent aussi des oublis favorables aux allocataires. Des prestations non réclamées, des droits sous-évalués. Dans ces cas, la CAF procède à des rappels de versement : un paiement complémentaire vient corriger l’erreur. Le système ne chasse pas seulement les trop-perçus, il rattrape aussi les sous-versements.
Reste la question cruciale : ces garanties suffiront-elles à restaurer la confiance ? Les 13,8 millions de bénéficiaires attendent des preuves concrètes. Les contrôles de 2026 diront si la promesse d’équité résiste à l’épreuve du terrain.