La haute juridiction administrative estime dans une
étude que l’IA est aujourd’hui sous-exploitée par les collectivités publiques,
alors qu’elle pourrait « considérablement améliorer » la qualité du service.
Elle plaide donc pour que soit mise en œuvre une politique « volontariste » en
la matière, via la mise en œuvre de lignes directrices, mais aussi pour que la
France investisse davantage dans la formation des dirigeants publics, le
recrutement des experts des données et les ressources techniques « de pointe »
adaptées.
Dans son étude
dévoilée fin août mais adoptée en assemblée générale plénière du 31 mars 2022,
le Conseil d’État révèle une facette, si ce n’est avant-gardiste, en tout cas
résolument lucide et ancrée dans son temps, en appelant à généraliser et à
intensifier l’utilisation de l’intelligence artificielle au sein de la sphère
publique.
La haute juridiction
administrative, qui livre ses analyses à la demande du Premier ministre,
souligne que si l’IA a tendance à exacerber les craintes, il s’agit « d’abord
et avant tout [d’]un ensemble d’outils numériques au service de l’humain ».
Mieux, estime-t-elle, « en permettant notamment la résolution rapide de
problèmes grâce à un apprentissage automatique, elle offre une opportunité
unique pour améliorer la qualité du service public ».
De l’IA partout déjà… oui,
mais pas assez
Les auteurs du texte rappellent
qu’aucun domaine de l’action publique n’est « imperméable » aux systèmes
d’intelligence artificielle (SIA) ou n’a « vocation à l’être ». En effet, tous
les secteurs sont aujourd’hui concernés, de la gestion des territoires
(circulation automobile, entretien de la voirie, gestion des déchets, de l’eau,
de l’éclairage public, du nettoyage urbain, transport public par véhicule «
autonome »…) à la défense et la sécurité (détection de forces militaires sur
des images, prévention des attaques informatiques, lecture automatisée de
plaque d’immatriculation, anticipation des catastrophes naturelles,
reconnaissance faciale de suspects ou de victimes…) en passant par la justice
(pseudonymisation des jugements, recherche documentaire, évaluation des
préjudices…) ou encore la santé (aide au diagnostic et à la prescription
médicale, alertes sanitaires, robotique médicale…).
Cependant, à l’instar du reste de
l’Europe, la France connaît jusqu’ici un déploiement des SIA dans les services
publics « très progressif », « inégal selon les administrations et souvent
expérimental », pointent les rédacteurs. Si ces systèmes sont déjà largement
déployés dans le cadre de certaines tâches, par exemple en soutien des
activités de contrôle et de lutte contre les infractions, mais aussi pour la
fourniture de renseignements aux citoyens, ils sont encore peu voire pas
utilisés dans l’assistance à la gestion des ressources humaines ou la prise de
décision entièrement automatisée, pour ne citer qu’elles.
Les
possibilités d’utilisation sont multiples
Une
sous-exploitation que le Conseil d’État regrette, puisque les systèmes
d’intelligence artificielle ont vocation, affirme-t-il, à améliorer la qualité
du service public sur tout une série d’aspects : la pertinence des décisions et
prestations délivrées, par exemple via « l’identification précoce des
entreprises en difficulté, pour déclencher au plus tôt des actions de soutien »
; la continuité du service public via un guichet numérique 24/7 ; la réduction
du temps d’instruction des demandes de prestations sociales ou de permis de
construire, ; l’accomplissement de tâches matériellement impossibles à
accomplir avec les ressources humaines disponibles – comme identifier une
personne à partir des milliers de photos enregistrées dans un fichier ; une
meilleure égalité de traitement ; mais aussi, la neutralisation ou la
réduction, pour l’usager, de la complexité administrative.
« Les SIA,
s’ils sont bien conçus et efficacement déployés, permettent d’optimiser
l’emploi des ressources publiques, matérielles comme humaines. À la faveur de
l’automatisation d’une activité, les agents publics peuvent être redéployés sur
d’autres missions, sur les cas complexes ou pour apporter une assistance
personnalisée à des publics en difficulté », argumente l’étude. Sans compter
que l’engagement des administrations dans le développement de SIA constitue un
véritable levier de compétitivité économique, met-elle en exergue.
Vers une politique de
l’IA « volontariste » et « de confiance »
La haute juridiction
invite donc l’État à « prendre conscience du potentiel de performance des
systèmes d’IA et de sa sous-exploitation par les collectivités publiques ».
Elle plaide pour la mise en œuvre d’une politique de déploiement de
l’intelligence artificielle « volontariste » : « la France ne doit pas attendre
passivement le moment, mais le créer », appuie-t-elle.
Pour cela, les
rédacteurs reconnaissent qu’il est au préalable nécessaire de « créer les
conditions de la confiance » auprès des citoyens. « L’acceptabilité sociale des
SIA publics n’est pas définitivement acquise [et constitue un] frein sérieux,
dans un contexte général de défiance croissante à l’égard des autorités
publiques », admettent-ils. Selon eux, il est donc « impératif et urgent » de
rehausser le niveau de compréhension des citoyens comme des agents publics «
sur ce qu’est et ce que n’est pas l’intelligence artificielle, sur ce que ces
systèmes permettent de faire ou d’espérer et ce qui leur est inaccessible ».
Dans le même sens, de
l’avis du Conseil d’État, les pouvoirs publics devraient anticiper la mise en
place d’un cadre réglementaire au niveau européen à travers la mise en œuvre de
lignes directrices, plutôt qu’une législation-cadre qui risque de s’avérer «
trop rigide et rapidement dépassée ». Cette « doctrine administrative de l’IA
de confiance », dont l’élaboration pourrait associer le Parlement et l’ensemble
des parties prenantes, formaliserait « tout à la fois la stratégie, la doctrine
d’emploi et la méthodologie pratique de conception, de déploiement et
d’utilisation des SIA au sein de la sphère publique », et rappellerait les
règles de droit déjà applicables, propose la haute juridiction.
Plus de
ressources
Par ailleurs, le
Conseil d’État le répète à plusieurs reprises, pour conduire cette stratégie,
la France doit disposer des ressources humaines et techniques adaptées.
S’agissant des
ressources humaines, les rédacteurs notent ainsi que « l’enjeu premier » est de
former les dirigeants publics. Autre challenge de taille : recruter des experts
des données. À cet égard, la haute juridiction observe que si l’administration
est « attractive pour les profils peu expérimentés », elle doit s’atteler à
diversifier les recrutements, notamment des experts les plus chevronnés, quitte
à ce que des facilités particulières leur soient reconnues en termes de
plafonds d’emplois et de budgets de personnel.
Par ailleurs, « sauf à
prendre un retard impossible à rattraper », avertit l’étude, la France doit se
doter des ressources techniques adaptées à la conception de SIA de pointe, « en
particulier pour ce qui concerne la puissance de calcul, ce qui constitue tout à
la fois un enjeu de performance et de souveraineté ». Cela nécessitera
également d’opérer un arbitrage entre le développement en interne ou le recours
à un prestataire. « L’administration doit avoir conscience que
l’externalisation suppose de disposer de ressources internes de pilotage et
qu’elle n’est pas nécessairement moins chère que la conception interne, surtout
sur le long terme, et qu’elle suppose de respecter les règles de la commande
publique et de faire usage des souplesses qu’elles ménagent. »
D’autres conditions
sont énumérées, parmi lesquelles l’assouplissement du cadre juridique du
partage de données au sein des administrations, ou encore le renforcement
d’Etalab – le département de la direction interministérielle du numérique qui
vise à améliorer le service public et l’action publique grâce aux données – et
du coordonnateur national pour l’intelligence artificielle, en lien avec
l’intervention de l’Agence nationale de la cohésion des territoires, pour «
faire de l’État un possible prestataire de services et pourvoyeur de
ressources, y compris humaines, pour les collectivités territoriales ».
L’étude préconise
enfin une « transformation profonde » de la CNIL en autorité de contrôle
nationale responsable de la régulation des systèmes d’IA, notamment publics,
pour « incarner et internaliser le double enjeu de la protection des droits et
libertés fondamentaux, d’une part, et de l’innovation et de la performance
publique, d’autre part ».
Environnement,
cybersécurité… attention aux limites
Néanmoins, le Conseil d’État n’oublie pas de formuler
quelques limites. Il invite d’abord à faire preuve de lucidité et de vigilance
dans le déploiement de l’intelligence artificielle, qui ne constitue pas « une
fin en soi ». « Le volontarisme ne saurait se confondre avec le solutionnisme,
alors que les SIA ne sont pas toujours une réponse pertinente. En outre, le
potentiel considérable de ces systèmes ne doit pas faire perdre de vue leur
complexité et la technicité de leur conception, qui ne s’improvise pas »,
met-il en garde.
Cette complexité est d’ailleurs telle que les rédacteurs de
l’étude insistent sur la notion de « sûreté » que les systèmes doivent
intégrer, c’est-à-dire la prévention des attaques dont ils peuvent être la
cible et la résolution de leurs conséquences. Les SIA présentent en effet des
points faibles particuliers « susceptibles d’être exploités à des fins
malveillantes », à l’instar de l’« empoisonnement » des données
d’apprentissage, pratique qui consiste à « altérer le jeu de données utilisé
pour l’entraînement du modèle afin d’en biaiser le fonctionnement et d’en
vicier les résultats » ; du risque de leurre des systèmes, qui peut ainsi
entraîner une « prédiction » totalement différente ; mais aussi du vol de
données par rétro-ingénierie illégale, soit par la reconstitution du
code-source utilisé en vue de l’exploiter à des fins personnelles, soit par
l’obtention des données d’entraînement « mémorisées » par le modèle, qui
peuvent être des données à caractère personnel voire des informations
classifiées.
Un autre point intéressant concerne l’impact de ces
systèmes d’intelligence artificielle. Bien que cet impact ne soit pas d’une
nature différente de celui des autres technologies du numérique, il peut
toutefois atteindre un degré d’intensité « qui exige une attention et des
précautions renforcées », prévient le Conseil d’État. « Force est de constater
que la généralisation des SIA, tels qu’ils sont aujourd’hui conçus, concourrait
significativement à l’aggravation de la crise environnementale », pointe même
la haute juridiction, qui met le lecteur face à un paradoxe : s’ils peuvent par
ailleurs s’avérer des aides précieuses dans la lutte contre le dérèglement
climatique, ces systèmes présentent plusieurs points noirs : l’accroissement du
besoin en terres rares, l’artificialisation des sols et, surtout, l’immense
consommation d’électricité qu’ils induisent. Des risques qu’il conviendra donc
de garder à l’esprit pour se lancer dans une politique de l’IA audacieuse.
Bérengère Margaritelli