Les Jeux Olympiques de 2024 n’ont pas été qu’un évènement éphémère de performance sportive et de célébration festive, ils ont aussi laissé en France un héritage matériel durable : des éco-quartiers en Seine Saint-Denis, des équipements sportifs dans plusieurs villes de France, des infrastructures de transport, ou bien encore la possibilité de se baigner dans la Seine.
Mais qu’en est-il en matière juridique ? La question se pose d’autant plus que la « loi JO » du 19 mai 2023 avait prévu en son article 10 une expérimentation de traitements algorithmique d’images collectées au moyen de systèmes de vidéoprotection qui avait pour objectif, comme l’indique le rapport de janvier 2025 du comité d’évaluation de cette expérimentation, de permettre « de disposer d’un dispositif juridique encadrant le développement d’un modèle d’IA française performante et éthique, qui soit motivant pour la filière industrielle française et qui apporte des outils opérationnels » en matière de sécurité.
IA : médaille en chocolat ?
D’un point de vue industriel, on ne peut que constater que cette expérimentation n’a pas dopé la filière française comme attendu ni permis le développement de ce modèle d’IA française espéré. Le rapport du comité d’évaluation le constate : en raison des choix faits dans la loi comme dans sa mise en œuvre, notamment de ne pas recourir à des traitements auto-apprenants ou au traitement algorithmique d’images collectées au moyen de drones, ainsi que des nombreuses contraintes posées par un cadre juridique devenu toujours plus strict au fil des étapes de son élaboration, un certain nombre de prestataires ont été dissuadés de se porter candidats à la passation des marchés, notamment ceux ayant développé des solutions techniques plus sophistiquées, en particulier reposant sur les systèmes d’IA les plus avancés.
Ce n’est pas non plus sans lien avec le fait, que souligne également le rapport du comité d’évaluation, que « la loi du 19 mai 2023 et les textes pris pour son application ont eu pour effet de remettre en cause la légalité éventuelle des dispositifs développés avant cette date ». La mise en place par le législateur d’une expérimentation pour le développement de traitements algorithmiques d’images de vidéoprotection pour des finalités de sécurité physique des personnes a été interprété comme signifiant qu’en-dehors de ce cadre expérimental ou d’une autre loi, l’élaboration de tels traitements était interdite.
Jeu interdit
Cette interdiction à défaut de loi spéciale avait notamment été affirmée par la CNIL en juillet 2022 dans une position où elle indiquait « estimer que la loi française n’autorise pas l’usage, par la puissance publique, des caméras “augmentées” pour la détection et de poursuite d’infractions, qu’il s’agisse de dispositifs dédiés ou couplés à des caméras de vidéoprotection préexistantes ». La loi du 19 mai 2023 a été considérée comme une confirmation de cette position, notamment par la CNIL qui a affirmé dans une position de novembre 2024 que « les dispositifs susceptibles d’affecter les garanties fondamentales apportées aux citoyens pour l’exercice des libertés publiques ne pourront être déployés que si une loi les autorise et les encadre spécifiquement ». Or, « à l’exception du cadre expérimental prévu par la loi sur les Jeux olympiques et paralympiques du 19 mai 2023 (voir plus bas), il n’existe pas actuellement de texte spécifique encadrant l’usage des dispositifs de vidéo “augmentée” ». Par conséquent ces dispositifs « sont interdits en l’absence de cadre légal spécifique ».
Ce principe d’interdiction en l’absence de texte répond sans doute aux inquiétudes qui s’expriment régulièrement au sujet des risques pour l’exercice des libertés publiques des dispositifs de vidéo « augmentée ». Est-il pour autant fondé ?
Plus vite, plus haut, plus fort… plus près
Le rapport du comité d’évaluation l’indique fort justement : le recours à l’intelligence artificielle sert à « améliorer l’efficacité des dispositifs de vidéoprotection ». L’IA n’est pas un traitement en elle-même, son utilisation n’est pas une finalité particulière, elle n’est qu’un moyen d’effectuer un traitement pour une certaine finalité. C’est de même ce que signifie le terme « vidéoprotection augmentée » employé par la CNIL : l’IA est un accessoire de la vidéoprotection, un élément additionnel qui permet d’en accroître l’efficacité.
Ce qu’il convient donc d’apprécier, c’est le dispositif de vidéoprotection, dans toutes ses composantes, non chacune prise séparément, car elles concourent toutes ensemble à la réalisation des finalités pour lesquelles il est déployé.
Dans cette perspective, la licéité du système de vidéoprotection dépend de sa conformité aux exigences légales posées à son déploiement. L’intégration de l’IA en son sein ne saurait avoir pour conséquence de l’interdire alors que sans IA il serait parfaitement licite.
En revanche, dans la mesure où l’intégration de l’IA accroît l’efficacité du dispositif, il peut être nécessaire de faire une application plus stricte des exigences légales, notamment des garanties correspondant à l’augmentation des risques pour l’exercice des libertés publiques que pourrait induire cette performance accrue.
Arbitrage arbitraire
Cette analyse permet de répondre aux inquiétudes et au besoin de ne pas porter une atteinte disproportionnée aux droits et libertés publiques, tout en satisfaisant l’objectif affiché de la loi de 2023 : avoir un cadre motivant pour les entreprises permettant le développement d’IA françaises.
Il est en effet paradoxal qu’une loi ayant ce but soit interprétée comme posant un principe d’interdiction de développement des IA destinées à être intégrées dans un dispositif de vidéoprotection.
C’est en outre juridiquement critiquable, car une telle interdiction ne peut être le fait que d’une disposition légale expresse, non d’une interprétation a contrario d’une loi par une autorité.
C’est d’ailleurs précisément ce qu’a fait le législateur européen dans le règlement IA pour certains systèmes considérés comme présentant un risque inacceptable.
Or, compte tenu des traitements pouvant être effectués dans le cadre des dispositifs de vidéoprotection, la très grande majorité des systèmes d’intelligence artificielle susceptibles d’en améliorer la mise en œuvre n’entrent pas dans cette catégorie.
C’est très exactement le constat que fait le comité d’évaluation de l’expérimentation dans son rapport. Le système concerné par l’expérimentation « paraît devoir être regardé comme destiné à “améliorer le résultat d’une activité humaine préalablement réalisée”. Il ne relèverait donc pas de la qualification d’IA à haut risque ».
Match retour
Ainsi, non seulement il ne serait pas interdit pas le Règlement IA, mais il ne serait même pas soumis aux exigences de la catégorie des systèmes à haut risque. Dans ces conditions, comment peut-on justifier le principe d’interdiction dégagé de la loi de 2023 ?
Pour aborder les problématiques de l’intelligence artificielle avec confiance, ce webinaire sur l’IA éthique vous apportera des réponses :