France
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

« Les drones intelligents violent la clause républicaine d’égalité de traitement des personnes »

Pour les JO 2024, le gouvernement a fait voter par l’Assemblée un paquet de lois disparates allant du contrôle génétique antidopage aux drones-caméras pour assurer notre sécurité. Le conseil constitutionnel vient d’avaliser ce projet. Il estime donc que le législateur, malgré les craintes énoncées par les députés à l’origine de sa saisie ce projet, n’entraîne pas d’« atteintes graves aux libertés fondamentales d’aller et venir, de manifester et d’opinion », même si la sélection des événements susceptibles de justifier une telle surveillance est laissée à l’appréciation d’ultérieurs décrets.

Mais de quoi s’agit-il vraiment ? Les caméras de surveillance sont certes déjà innombrables. Pourtant, leur efficacité n’a jamais été prouvée, et semble assez relative si l’on songe à l’attentat de Nice en 2016, un camion tueur dans la ville la plus filmée de France… Aujourd’hui, on leur adjoint des drones et on flanque tout cela d’algorithmes qui les rendent « intelligentes », autrement dit, prédictives. À partir de mouvements de foule variés, d’attitudes individuelles, elles infèrent l’action à venir : quel individu se jettera avec une arme dans la masse des autres ?

De la surveillance à la prédiction

Ainsi, les caméras doublées d’algorithmes déplacent en effet la question de la surveillance vers celle de la prédiction. Il s’agit moins de répondre à « où est qui ? », que de prédire les comportements dangereux pour « l’ordre public ». Et cela s’avère problématique à maints égards.

D’abord, écarter la reconnaissance faciale est plus aisé à décréter qu’à vérifier. En 2019, à partir d’un simple téléphone posé sur un trottoir et de logiciels de traitement d’image basiques, le New York Times avait identifié des milliers de personnes de passage à Bryant Park, Manhattan - et ceci par des moyens légaux, même si la ville de New-York interdit les logiciels de reconnaissance faciale. Pour des algorithmes massivement entraînés, la comparaison de ces images filmées à des milliers d’images présentes sur les réseaux sociaux, délibérément postées par les personnes, suffit à reconnaître avec une précision effrayante ces quidams qui croisèrent l’iPhone du journaliste.

Une zone floue

Où donc commence la reconnaissance faciale légale ? En réalité, le traitement algorithmique de données, en particulier visuelles, constitue une zone assez floue, et exemplaire de cette problématique de la limite suscitée par la prolifération de données massives aujourd’hui mêlées à nos existences, dont on ignore jusqu’où elles sont privées ou publiques.

Qui dit caméra intelligente dit « entraînement sur un large corpus de données » afin de pouvoir reconnaître les images captées. La vogue de ChatGPT nous a depuis peu rendu familiers de cette idée. Or, comme le répètent à satiété les analystes de l’IA, ces entraînements ne sauraient être objectifs puisque la répartition des données originelles employées est grevée de biais sociaux bien connus. Ainsi les ensembles des textes et images où apparaissent respectivement des Noirs et des Blancs s’avéreront assez différents, en moyenne, pour des raisons de structuration sociale (en particulier aux USA, mais aussi bien en Europe) ; tout traitement d’images représentant une foule aura donc tendance à inférer certaines prédictions qui vont dépendre de la composition « raciale » de cette foule, sans même identifier les individus.

Les systèmes intelligents prédiront beaucoup plus d’incidents à partir d’une foule de personnes plutôt noires que d’une foule plutôt blanche. De même, les dispositifs de reconnaissance faciale légaux, tendront à confondre les Noirs avec des personnes aux antécédents judiciaires substantiels, puisqu’aux États-Unis les Noirs sont bien plus persécutés par la justice que les Blancs – et donc enclencher des mesures préventives à l’encontre de gens pacifiques. Comme toujours, les systèmes algorithmiques sous leur façade d’objectivité renforcent en réalité des biais raciaux d’autant plus lourds qu’ils sont ignorés. Juridiquement parlant, la clause républicaine d’égalité de traitement des personnes est donc violée par les drones espions.

Liberté et sécurité

Tout ceci pourrait relever d’une thématique banale dès lors qu’il est question de technologies et de confidentialité, à savoir le rapport entre liberté (ou privacy) et sécurité. On s’entend à penser ces deux droits comme antagonistes, si bien qu’il faut trouver un compromis entre eux : rogner les droits à la privacy, donc la liberté (de garder pour soi ses pensées, ses actions, ses déplacements), permettrait de nous protéger des menées conspiratrices et séditieuses d’ennemis de la liberté, terroristes ou saboteurs, tandis que garantir absolument la privacy nous exposerait aux assauts de ceux que le secret rend intraçables. Négocier les rapports entre privacy et sécurité constituerait donc l’objet d’un choix politique, en pratique plus ou moins éclairé.

Or drones et les caméras intelligentes couplés à un arsenal de recueil de données digitales ne sauraient garantir la sécurité. Pourquoi ? Parce que multiplier ainsi les données amplifie démesurément ce que les informaticiens appellent le « bruit », soit le fouillis de données insignifiantes qu’il faut toujours découpler du « signal » - les informations pertinentes - pour pouvoir exploiter les données. Que se passera-t-il si les drones prévoient des centaines d’incidents en région parisienne simultanément ? À défaut d’une forte capacité de ce découplage signal-bruit, aujourd’hui hors d’atteinte, la sécurité ne saurait même plus être garantie ! Les faux positifs risquent d’inonder nos écrans.

Police prédictive

Comment réagiront alors les pouvoirs ? En prohibant - à rebours même du projet de surveillance intelligente - tout ce qui de près ou de loin pourrait être un groupe de factieux. La vérité de la police prédictive se trouve dans la généralisation d’une panoplie prohibitive et répressive, elle consiste en l’interdiction radicale de tout : casseurs, casseroles, même combat, comme on l’a déjà vu ces dernières semaines.

Croire que les prudences d’un gouvernement actuel jurant son respect de limites infranchissables telles que la reconnaissance faciale ou la pérennité des enregistrements - nous prémunissent de la généralisation de la reconnaissance faciale alors même que la possibilité technique de l’éviter n’est même pas établie méconnaît radicalement ce que sont ces technologies, dont la simple existence change la donne politique. À la suite de la plupart des politiciens, le conseil constitutionnel semble croire qu’on lui demandait là de valider l’encadrement juridique de moyens techniques, alors qu’il s’agit d’une question politique. La technique est toujours une action politique, dont nous entrevoyons ici la dangereuse nature.