ACTUALITÉ

Le Conseil d’État veut plus d’intelligence artificielle dans le service public

Le Conseil d’État veut plus d’intelligence artificielle dans le service public
Publié le 10/10/2022 à 11:38

La haute juridiction administrative estime dans une étude que l’IA est aujourd’hui sous-exploitée par les collectivités publiques, alors qu’elle pourrait « considérablement améliorer » la qualité du service. Elle plaide donc pour que soit mise en œuvre une politique « volontariste » en la matière, via la mise en œuvre de lignes directrices, mais aussi pour que la France investisse davantage dans la formation des dirigeants publics, le recrutement des experts des données et les ressources techniques « de pointe » adaptées.

 



Dans son étude dévoilée fin août mais adoptée en assemblée générale plénière du 31 mars 2022, le Conseil d’État révèle une facette, si ce n’est avant-gardiste, en tout cas résolument lucide et ancrée dans son temps, en appelant à généraliser et à intensifier l’utilisation de l’intelligence artificielle au sein de la sphère publique.

La haute juridiction administrative, qui livre ses analyses à la demande du Premier ministre, souligne que si l’IA a tendance à exacerber les craintes, il s’agit « d’abord et avant tout [d’]un ensemble d’outils numériques au service de l’humain ». Mieux, estime-t-elle, « en permettant notamment la résolution rapide de problèmes grâce à un apprentissage automatique, elle offre une opportunité unique pour améliorer la qualité du service public ».

 

 



De l’IA partout déjà… oui, mais pas assez 


Les auteurs du texte rappellent qu’aucun domaine de l’action publique n’est « imperméable » aux systèmes d’intelligence artificielle (SIA) ou n’a « vocation à l’être ». En effet, tous les secteurs sont aujourd’hui concernés, de la gestion des territoires (circulation automobile, entretien de la voirie, gestion des déchets, de l’eau, de l’éclairage public, du nettoyage urbain, transport public par véhicule « autonome »…) à la défense et la sécurité (détection de forces militaires sur des images, prévention des attaques informatiques, lecture automatisée de plaque d’immatriculation, anticipation des catastrophes naturelles, reconnaissance faciale de suspects ou de victimes…) en passant par la justice (pseudonymisation des jugements, recherche documentaire, évaluation des préjudices…) ou encore la santé (aide au diagnostic et à la prescription médicale, alertes sanitaires, robotique médicale…).

Cependant, à l’instar du reste de l’Europe, la France connaît jusqu’ici un déploiement des SIA dans les services publics « très progressif », « inégal selon les administrations et souvent expérimental », pointent les rédacteurs. Si ces systèmes sont déjà largement déployés dans le cadre de certaines tâches, par exemple en soutien des activités de contrôle et de lutte contre les infractions, mais aussi pour la fourniture de renseignements aux citoyens, ils sont encore peu voire pas utilisés dans l’assistance à la gestion des ressources humaines ou la prise de décision entièrement automatisée, pour ne citer qu’elles.

 

 


 

Les possibilités d’utilisation sont multiples


Une sous-exploitation que le Conseil d’État regrette, puisque les systèmes d’intelligence artificielle ont vocation, affirme-t-il, à améliorer la qualité du service public sur tout une série d’aspects : la pertinence des décisions et prestations délivrées, par exemple via « l’identification précoce des entreprises en difficulté, pour déclencher au plus tôt des actions de soutien » ; la continuité du service public via un guichet numérique 24/7 ; la réduction du temps d’instruction des demandes de prestations sociales ou de permis de construire, ; l’accomplissement de tâches matériellement impossibles à accomplir avec les ressources humaines disponibles – comme identifier une personne à partir des milliers de photos enregistrées dans un fichier ; une meilleure égalité de traitement ; mais aussi, la neutralisation ou la réduction, pour l’usager, de la complexité administrative.

« Les SIA, s’ils sont bien conçus et efficacement déployés, permettent d’optimiser l’emploi des ressources publiques, matérielles comme humaines. À la faveur de l’automatisation d’une activité, les agents publics peuvent être redéployés sur d’autres missions, sur les cas complexes ou pour apporter une assistance personnalisée à des publics en difficulté », argumente l’étude. Sans compter que l’engagement des administrations dans le développement de SIA constitue un véritable levier de compétitivité économique, met-elle en exergue.

 




Vers une politique de l’IA « volontariste » et « de confiance »


La haute juridiction invite donc l’État à « prendre conscience du potentiel de performance des systèmes d’IA et de sa sous-exploitation par les collectivités publiques ». Elle plaide pour la mise en œuvre d’une politique de déploiement de l’intelligence artificielle « volontariste » : « la France ne doit pas attendre passivement le moment, mais le créer », appuie-t-elle.

Pour cela, les rédacteurs reconnaissent qu’il est au préalable nécessaire de « créer les conditions de la confiance » auprès des citoyens. « L’acceptabilité sociale des SIA publics n’est pas définitivement acquise [et constitue un] frein sérieux, dans un contexte général de défiance croissante à l’égard des autorités publiques », admettent-ils. Selon eux, il est donc « impératif et urgent » de rehausser le niveau de compréhension des citoyens comme des agents publics « sur ce qu’est et ce que n’est pas l’intelligence artificielle, sur ce que ces systèmes permettent de faire ou d’espérer et ce qui leur est inaccessible ».

Dans le même sens, de l’avis du Conseil d’État, les pouvoirs publics devraient anticiper la mise en place d’un cadre réglementaire au niveau européen à travers la mise en œuvre de lignes directrices, plutôt qu’une législation-cadre qui risque de s’avérer « trop rigide et rapidement dépassée ». Cette « doctrine administrative de l’IA de confiance », dont l’élaboration pourrait associer le Parlement et l’ensemble des parties prenantes, formaliserait « tout à la fois la stratégie, la doctrine d’emploi et la méthodologie pratique de conception, de déploiement et d’utilisation des SIA au sein de la sphère publique », et rappellerait les règles de droit déjà applicables, propose la haute juridiction.

 



 

Plus de ressources 


Par ailleurs, le Conseil d’État le répète à plusieurs reprises, pour conduire cette stratégie, la France doit disposer des ressources humaines et techniques adaptées.

S’agissant des ressources humaines, les rédacteurs notent ainsi que « l’enjeu premier » est de former les dirigeants publics. Autre challenge de taille : recruter des experts des données. À cet égard, la haute juridiction observe que si l’administration est « attractive pour les profils peu expérimentés », elle doit s’atteler à diversifier les recrutements, notamment des experts les plus chevronnés, quitte à ce que des facilités particulières leur soient reconnues en termes de plafonds d’emplois et de budgets de personnel.

Par ailleurs, « sauf à prendre un retard impossible à rattraper », avertit l’étude, la France doit se doter des ressources techniques adaptées à la conception de SIA de pointe, « en particulier pour ce qui concerne la puissance de calcul, ce qui constitue tout à la fois un enjeu de performance et de souveraineté ». Cela nécessitera également d’opérer un arbitrage entre le développement en interne ou le recours à un prestataire. « L’administration doit avoir conscience que l’externalisation suppose de disposer de ressources internes de pilotage et qu’elle n’est pas nécessairement moins chère que la conception interne, surtout sur le long terme, et qu’elle suppose de respecter les règles de la commande publique et de faire usage des souplesses qu’elles ménagent. »

D’autres conditions sont énumérées, parmi lesquelles l’assouplissement du cadre juridique du partage de données au sein des administrations, ou encore le renforcement d’Etalab – le département de la direction interministérielle du numérique qui vise à améliorer le service public et l’action publique grâce aux données – et du coordonnateur national pour l’intelligence artificielle, en lien avec l’intervention de l’Agence nationale de la cohésion des territoires, pour « faire de l’État un possible prestataire de services et pourvoyeur de ressources, y compris humaines, pour les collectivités territoriales ».

L’étude préconise enfin une « transformation profonde » de la CNIL en autorité de contrôle nationale responsable de la régulation des systèmes d’IA, notamment publics, pour « incarner et internaliser le double enjeu de la protection des droits et libertés fondamentaux, d’une part, et de l’innovation et de la performance publique, d’autre part ».

 



Environnement, cybersécurité… attention aux limites 


Néanmoins, le Conseil d’État n’oublie pas de formuler quelques limites. Il invite d’abord à faire preuve de lucidité et de vigilance dans le déploiement de l’intelligence artificielle, qui ne constitue pas « une fin en soi ». « Le volontarisme ne saurait se confondre avec le solutionnisme, alors que les SIA ne sont pas toujours une réponse pertinente. En outre, le potentiel considérable de ces systèmes ne doit pas faire perdre de vue leur complexité et la technicité de leur conception, qui ne s’improvise pas », met-il en garde.

Cette complexité est d’ailleurs telle que les rédacteurs de l’étude insistent sur la notion de « sûreté » que les systèmes doivent intégrer, c’est-à-dire la prévention des attaques dont ils peuvent être la cible et la résolution de leurs conséquences. Les SIA présentent en effet des points faibles particuliers « susceptibles d’être exploités à des fins malveillantes », à l’instar de l’« empoisonnement » des données d’apprentissage, pratique qui consiste à « altérer le jeu de données utilisé pour l’entraînement du modèle afin d’en biaiser le fonctionnement et d’en vicier les résultats » ; du risque de leurre des systèmes, qui peut ainsi entraîner une « prédiction » totalement différente ; mais aussi du vol de données par rétro-ingénierie illégale, soit par la reconstitution du code-source utilisé en vue de l’exploiter à des fins personnelles, soit par l’obtention des données d’entraînement « mémorisées » par le modèle, qui peuvent être des données à caractère personnel voire des informations classifiées.

Un autre point intéressant concerne l’impact de ces systèmes d’intelligence artificielle. Bien que cet impact ne soit pas d’une nature différente de celui des autres technologies du numérique, il peut toutefois atteindre un degré d’intensité « qui exige une attention et des précautions renforcées », prévient le Conseil d’État. « Force est de constater que la généralisation des SIA, tels qu’ils sont aujourd’hui conçus, concourrait significativement à l’aggravation de la crise environnementale », pointe même la haute juridiction, qui met le lecteur face à un paradoxe : s’ils peuvent par ailleurs s’avérer des aides précieuses dans la lutte contre le dérèglement climatique, ces systèmes présentent plusieurs points noirs : l’accroissement du besoin en terres rares, l’artificialisation des sols et, surtout, l’immense consommation d’électricité qu’ils induisent. Des risques qu’il conviendra donc de garder à l’esprit pour se lancer dans une politique de l’IA audacieuse. 


Bérengère Margaritelli





 


0 commentaire
Poster
IA

Nos derniers articles