ACTUALITÉ ÎLE-DE-FRANCE

(93) CAF : Un algorithme de contrôle discriminatoire ? La Défenseure des droits saisie

(93) CAF : Un algorithme de contrôle discriminatoire ? La Défenseure des droits saisie
Publié le 10/12/2023 à 17:52

Dans sa lutte contre la fraude sociale, la Caisse nationale d’allocations familiales (CNAF) utilise depuis quelques années un algorithme qui serait discriminatoire, accuse le président du conseil départemental de Seine-Saint-Denis, Stéphane Troussel.

Soupçonnant la CNAF d'utiliser un algorithme anti-fraude qui discriminerait les personnes ayant un revenu plus faible, le président du conseil départemental de Seine-Saint-Denis a saisi la Défenseure des droits mercredi 6 décembre. Dans une lettre à l’attention de cette dernière, Stéphane Troussel pointe ainsi que « les critères retenus par l'algorithme ont une évidente portée discriminatoire à l'égard des populations les plus vulnérables et que celle-ci est d'autant plus importante dans un territoire qui cumule les difficultés socio-économiques comme la Seine-Saint-Denis », sans préciser la source sur laquelle il s’appuie.

Depuis 2010, la CNAF utilise en effet un outil visant à repérer les individus les plus susceptibles de commettre des erreurs dans leurs déclarations. Cependant, selon une enquête du journal Le Monde, cet outil établirait un « score de risque ». Ce « score » controversé s'appuierait sur plusieurs critères, incluant l'âge, les revenus, la localisation de résidence dans des quartiers jugés défavorisés, le statut de chômage et même le statut d'éventuel handicap de la personne. Une situation qui, pour Stéphane Troussel, ne saurait être tolérée, « certaines catégories de populations, déjà en proie aux difficultés, sont particulièrement visées, ce qui représente une double peine inacceptable ».

Les plus précaires dans le viseur ?

Cette récurrence des contrôles dans les milieux précaires fait plus précisément l’objet d’une étude de l’association de défense des libertés numériques, La Quadrature du Net. L’algorithme pointerait ainsi davantage comme étant « à risque » des mères de famille sans revenus que des couples à l’aise financièrement à la suite d’un événement tel qu'un déménagement ou une séparation.

Un procédé qui était déjà plus ou moins connu, car lors de son audition en 2020 par la commission d’enquête parlementaire sur la lutte contre les fraudes aux prestations sociales, Jacques Toubon avait critiqué les « ciblages discriminatoires, quelle que soit la technologie employée ». Selon l'ancien ministre de la Justice, garde des Sceaux à l’époque, cette pratique est « complètement opposée à l'esprit de la protection sociale et, plus globalement, à celui de la République ».

D’autres organismes recourraient à ce type d’algorithme

Il semblerait que la CNAF ne soit pas la seule à recourir à ce genre de pratique. En effet, plusieurs autres organismes tels que l’Assurance Maladie, l’Assurance Vieillesse, les Mutualités Sociales Agricoles et même Pôle Emploi utiliseraient des algorithmes similaires. De son côté, le gouvernement, par le biais de la ministre chargée des Personnes handicapées, Fadila Khattabi, soutient que l’objectif de cet algorithme est simplement d'identifier les dossiers comportant des erreurs, et non de surveiller les quelque 13,5 millions d'allocataires à la manière de « Big Brother ». 

Néanmoins, il est important de souligner que la fraude aux aides sociales représente une somme estimée à plusieurs milliards d’euros. D'après la Cour des comptes, la fraude aux prestations sociales est évaluée à environ 6 à 8 milliards d’euros par an. Face à cette réalité, le gouvernement a pris la décision de renforcer ses actions en dévoilant en mai un plan visant à doubler les redressements d’ici à 2027.


                                                                                        Romain Tardino

0 commentaire
Poster

Nos derniers articles