Innovations inédites de l’intelligence artificielle au service des forces de l’ordre

L’intelligence artificielle (IA) s’impose comme une révolution technologique sans précédent, et son impact se fait de plus en plus sentir dans de nombreux domaines, en particulier dans celui des forces de l’ordre. Dans un monde où la criminalité évolue à un rythme alarmant, l’intégration des technologies IA dans les pratiques policières est devenue essentielle pour garantir la sécurité et la protection des citoyens. Des méthodes comme l’analyse prédictive, la reconnaissance faciale et les systèmes d’alerte avancés transforment la manière dont les agents interagissent avec leur environnement, leur permettant d’anticiper et de répondre plus rapidement aux incidents criminels. Cet article se penche sur ces innovations inédites qui redéfinissent le secteur de la sécurité publique, tout en soulevant des questions cruciales sur l’éthique et le respect de la vie privée. Face à ces avancées, il est impératif de discuter des répercussions qu’elles engendrent sur la société et de la manière dont elles peuvent être encadrées pour garantir leur efficacité tout en respectant les droits fondamentaux des citoyens.

L’intelligence artificielle (IA) a connu une adoption croissante dans le domaine des forces de l’ordre au cours des dernières décennies, transformant les méthodes d’application de la loi. Dès les années 1960, des systèmes de traitement de données étaient utilisés pour analyser et prédire la criminalité, mais ce n’est que dans les années 2000 que l’intégration de l’IA a vraiment décollé.

En 2008, le quartier général de la police de Los Angeles a mis en œuvre un système d’analyse prédictive appelé PredPol, qui combine des méthodes mathématiques avec des données historiques sur les crimes pour prédire les zones à risque élevé. Ce logiciel a généré une attention mondiale en raison de sa capacité à anticiper la criminalité.

À partir de 2012, les technologies de reconnaissance faciale ont commencé à être adoptées par plusieurs agences de police aux États-Unis. Ce système permet de comparer les images capturées par des caméras de surveillance avec des bases de données de visages connus. Malgré ses avantages en matière de sécurité, cette technologie a également suscité des préoccupations relatives à la vie privée et à la discrimination.

En 2014, l’utilisation des drones pour surveiller des événements publics ou des zones à risque est devenue plus courante. Ces appareils, alimentés par l’IA, fournissent une vue aérienne précieuse, permettant une réaction rapide en cas d’incidents.

Plus récemment, en 2020, un certain nombre de départements de police ont mis en place des systèmes d’analyse d’énormes quantités de données sociales, notamment des publications sur les réseaux sociaux, pour identifier et anticiper des événements potentiellement violents, une application qui soulève des débats éthiques concernant la surveillance.

En 2022, les technologies d’IA conversationnelle ont commencé à être utilisées dans des centres d’appels d’urgence pour améliorer l’efficacité du traitement des demandes. Des systèmes alimentés par IA peuvent analyser le ton des appelants et fournir des recommandations en temps réel aux opérateurs.

En 2023, la police a commencé à expérimenter des systèmes de visage synthétique, capables de créer des représentations 3D d’individus à partir de photos 2D, afin d’assister les enquêtes criminelles. Bien que prometteur, ce développement a soulevé des préoccupations sur son application et sur l’exactitude des résultats.

Alors que les technologies d’IA continuent d’évoluer, l’impact sur les forces de l’ordre et les questions éthiques qui en découlent restent au cœur des discussions. Les exemples chronologiques soulignent à quel point l’intégration de l’IA dans ce secteur a changé la manière dont la sécurité est gérée et évalue les implications larges que cela peut avoir sur les droits des citoyens.

Les technologies d’intelligence artificielle développent des applications croissantes au sein des forces de l’ordre, aidant à améliorer la sécurité et l’efficacité des opérations policières. Parmi ces technologies, la reconnaissance faciale et l’analyse prédictive sont particulièrement notables.

La reconnaissance faciale est utilisée pour identifier des suspects à partir d’images disponibles dans des bases de données. En se basant sur des algorithmes avancés, cette technologie permet d’analyser des caractéristiques faciales et de les comparer à des images existantes pour fournir des résultats d’identification. Les forces de l’ordre l’emploient pour résoudre des crimes, localiser des personnes disparues et surveiller des lieux publics à forte affluence.

L’analyse prédictive, quant à elle, consiste à utiliser des données historiques afin de prévoir des activités criminelles potentielles. En combinant des algorithmes d’apprentissage machine avec des données géolocalisées et des modèles statistiques, cette technologie aide les policiers à déterminer les zones susceptibles d’être davantage exposées à des incidents criminels. Ainsi, les ressources peuvent être réparties de manière plus efficace, permettant des patrouilles ciblées et des interventions proactives.

D’autres technologies d’IA utilisées par les forces de l’ordre incluent des systèmes de surveillance intelligents, intégrant des caméras capables d’analyser en temps réel le comportement des individus dans des environnements publics, ainsi que des chatbots d’assistance aux victimes, offrant une première réponse rapide et efficace. Ces outils contribuent à un renforcement des mesures de sécurité tout en rationalisant les procédures opérationnelles.

Cependant, l’utilisation de ces technologies soulève également des questions éthiques et des préoccupations liées à la protection des données et à la vie privée. Les débats sur la réglementation et les implications de ces outils restent au cœur des préoccupations sociétales concernant l’équilibre entre sécurité publique et droits individuels.

L’utilisation de l’intelligence artificielle (IA) par les forces de l’ordre a permis des avancées significatives en matière de sécurité et d’efficacité dans de nombreux cas. Voici quelques exemples illustrant les succès de l’IA dans ce secteur.

Étude de cas 1 : Prédiction du crime à Los Angeles

Le département de police de Los Angeles a mis en œuvre un système basé sur l’IA appelé PredPol. Ce logiciel utilise des données historiques de criminalité pour identifier les zones à haut risque de criminalité. Depuis 2014, l’implémentation de PredPol aurait conduit à une réduction de 13 % des crimes dans les zones ciblées. Les résultats ont montré une baisse significative des délits comme le vol de véhicule et le vol à la tire, témoignant de l’efficacité de l’IA dans la prévention des crimes.

Étude de cas 2 : Reconnaissance faciale à New York

La police de New York a adopté des systèmes de reconnaissance faciale pour retrouver des suspects. En 2022, ces systèmes ont permis d’identifier des suspects dans 240 affaires, dont des crimes violents. Grâce à la rapidité et à la précision du système, les forces de l’ordre ont pu résoudre des affaires plus rapidement, contribuant à une augmentation de 25 % des arrestations durant les six premiers mois de l’utilisation de cette technologie.

Étude de cas 3 : Analyser les données à Houston

À Houston, le bureau du shérif a mis en place une plateforme d’analyse de données alimentée par l’IA pour analyser les tendances criminelles. En 2023, l’algorithme a identifié des schémas criminels dans des zones spécifiques, permettant aux enquêteurs de cibler leurs ressources de manière plus efficace. L’analyse a mené à une augmentation de 20 % des arrestations dans les zones ciblées, et les résidents ont signalé un sentiment de sécurité accru.

Étude de cas 4 : Surveillance vidéo intelligente à Chicago

La ville de Chicago a installé un système de surveillance vidéo amélioré qui utilise l’IA pour analyser en temps réel les flux vidéo. Ce système a permis d’identifier et de réagir à des incidents en cours, réduisant ainsi le temps d’intervention des agents. En 2024, Chicago a constaté une diminution de 30 % des incidents dans les zones où le système était actif, prouvant son impact sur la réduction de la criminalité.

Ces cas d’utilisation illustrent comment l’intelligence artificielle joue un rôle crucial dans la transformation des opérations des forces de l’ordre, améliorant non seulement l’efficacité mais aussi la sécurité publique.

Avec l’essor de l’intelligence artificielle (IA) dans le domaine des forces de l’ordre, plusieurs défis et préoccupations se sont matérialisés. L’intégration de ces technologies s’accompagne d’inquiétudes, notamment en ce qui concerne la vie privée des citoyens et les biais de données.

Les nouvelles solutions d’IA, telles que la reconnaissance faciale et l’analyse prédictive, promettent d’améliorer l’efficacité des enquêtes et la prévention des crimes. Cependant, leur adoption soulève des questions sur la surveillance de masse et la protection des données personnelles. De nombreux citoyen.ne.s craignent que l’utilisation de telles technologies ne conduise à des intrusions injustifiées dans leur vie privée, remettant en question les droits civils.

En outre, les biais de données représentent un autre aspect crucial. Les algorithmes alimentés par des données peuvent perpétuer des biais systémiques, souvent issus des ensembles de données sur lesquels ils se basent. Cela peut mener à des discriminations au sein des communautés marginalisées, intensifiant la méfiance envers les autorités et exacerbant les inégalités existantes. Par exemple, si un algorithme est formé principalement sur des données provenant de zones à forte criminalité, il peut exagérer les risques associés à ces régions, ciblant ainsi des individus innocents sur la base de leur profil.

Le manque de transparence dans le fonctionnement de ces systèmes d’IA soulève également des préoccupations. Les citoyens ont le droit de comprendre comment et pourquoi des décisions sont prises à leur égard, ce qui est souvent obscur dans les procédés d’IA. De plus, l’absence de normes réglementaires claires accentue les risques d’abus des technologies d’IA par les forces de l’ordre.

Il est essentiel d’établir un équilibre entre la sécurité publique et le respect des droits humains. Les forces de l’ordre doivent travailler en partenariat avec des experts en éthique et en protection des données pour s’assurer que l’utilisation de l’IA respecte les normes de responsabilité et d’éthique.

Considérée comme la Quatrième Révolution industrielle, l’intelligence artificielle (IA) s’affirme comme l’une des avancées technologiques majeures du XXIe siècle, ayant une large présence dans des discussions variées, allant de l’économie de l’information à la création artistique. Le développement et le déploiement rapides des technologies IA ont pris de court la société et les gouvernements.

Depuis, le gouvernement américain a entrepris diverses démarches ambitieuses. Cependant, l’activité législative en la matière reste inexistante. Les récentes actions des régulateurs fédéraux et étatiques offrent des aperçus sur les priorités en matière d’application des lois entourant l’IA. Bien que ces priorités, ainsi que la nature et l’ampleur des mesures d’application, puissent évoluer avec la nouvelle administration Trump, les actions récentes montrent les outils disponibles pour réguler l’IA.

EN ÉTABLI

À la suite de l’émergence explosive de ChatGPT, l’administration Biden a pris un certain nombre d’initiatives exécutives visant à encadrer l’IA, principalement centrées sur des politiques de consommation responsable de cette technologie. En octobre 2023, le président Biden a émis un arrêté exécutif concernant le “Développement et l’Utilisation sécurisés et fiables de l’Intelligence Artificielle”, réaffirmant l’engagement de l’administration envers la recherche et l’utilisation responsable de l’IA. Cet arrêté a chargé le Département du Commerce de développer des recommandations pour l’authentification de contenu et le marquage d’objets générés par IA, exigeant par ailleurs des développeurs de modèles d’IA relatifs à la sécurité nationale, l’économie nationale et la santé publique de partager leurs résultats de tests de sécurité et d’autres informations critiques avec le gouvernement américain.

Le président Biden a également mis en place l’Institut de Sécurité de l’IA au sein de l’Institut National des Normes et de la Technologie, qui fait partie du Département du Commerce. Avant son élection, le président élu Trump avait promis d’annuler l’arrêté consécutif, arguant qu’il “entrave l’innovation en IA” et que “les républicains soutiennent le développement de l’IA, fondé sur la liberté d’expression et l’épanouissement humain.” Bien qu’il soit encore trop tôt pour déterminer comment une administration Trump traiterait l’IA, les actions de régulation axées sur des causes d’action standard comme la fraude et les pratiques commerciales trompeuses devraient se poursuivre, même en l’absence d’une nouvelle réglementation fédérale plus complète.

Au Congrès, le sénateur Chuck Schumer a plaidé pour un cadre législatif complet sur l’IA, bien que cela se soit jusqu’à présent traduit par des groupes de travail et la publication de feuilles de route. (En mai 2024, le Groupe de travail bipartisan sur l’IA du Sénat a publié une “[r]oute à suivre pour la politique sur l’intelligence artificielle au Sénat des États-Unis”, affirmant que “les lois existantes, notamment celles sur la protection des consommateurs et les droits civils, doivent s’appliquer de manière systématique et efficace aux systèmes d’IA et à leurs développeurs, déployeurs et utilisateurs.) Toutefois, aucune législation fédérale n’a encore vu le jour.

Cependant, des législations importantes ont été adoptées à l’échelle des États. En juin 2024, le Colorado a passé son Artificial Intelligence Act, un cadre complet abordant le développement et le déploiement de l’IA, exigeant que les développeurs d’“IA à haut risque” prennent des mesures raisonnables pour protéger les consommateurs des risques de “discrimination algorithmique”. En septembre 2024, la Californie a adopté plus d’une douzaine de lois liées à l’IA, y compris des mesures imposant des exigences de divulgation aux entreprises d’IA concernant les ensembles de données utilisés pour entraîner leurs modèles, exigeant des prestataires de soins de santé qu’ils informent lorsqu’ils utilisent l’IA générative pour communiquer avec les patients, et limitant la façon dont les prestataires de soins de santé et les assureurs peuvent automatiser leurs services. Depuis 2023, l’Indiana a créé un groupe de travail sur l’IA, et l’Illinois, la Louisiane, le Texas et la Virginie-Occidentale ont constitué des comités sur l’IA. De plus, le New Hampshire a rendu illégal l’utilisation frauduleuse de deepfakes, créant un droit d’action à cet égard.

En l’absence de législation fédérale ou de réglementation spécifiques ciblant l’IA, les responsables des agences et les procureurs régulent l’IA via l’application des lois existantes dans des domaines tels que la protection des consommateurs, les services financiers, la privacy et les droits civils. Jusqu’à présent, l’activité d’application a été limitée et s’est principalement concentrée sur l’impact de l’IA sur les individus, y compris les abus de l’IA pour commettre des fraudes ou tromper les consommateurs.

Au cours de l’année passée, les procureurs ont ciblé les crimes commis via ou avec l’assistance de l’IA, plutôt que d’examiner le développement des technologies elles-mêmes. Une attention particulière a été portée aux méthodes dont l’IA a été impliquée dans des pratiques déloyales ou trompeuses ainsi qu’aux types de schémas frauduleux généralement poursuivis par les forces de l’ordre locales et fédérales.

ACTIONS DE LA FTC

Le 25 septembre 2024, la Federal Trade Commission (FTC) des États-Unis a lancé une nouvelle opération de répression nommée “Operation AI Comply”. Lina M. Khan, présidente de la FTC, a insisté sur le fait que “[u]tiliser des outils d’IA pour tromper, induire en erreur ou frauder les gens est illégal” et que “il n’y a aucune exemption en matière de lois en vigueur concernant l’IA.” L’initiative visait spécifiquement les opérations ayant utilisé l’IA ou vendu des technologies d’IA pouvant être utilisées de manière trompeuse ou déloyale, comme en témoignent les actions d’application incluses dans le lancement initial de l’initiative :

  • DoNotPay, un service d’abonnement en ligne offrant de l’aide sur des questions commerciales et juridiques, s’est présenté comme “le premier avocat robot au monde” et a accepté un règlement pour des allégations de fausses ou non fondées concernant ses performances. Le règlement a obligé la société à verser 193 000 USD et à informer les consommateurs ayant souscrit au service entre 2021 et 2023 des limitations des fonctionnalités juridiques proposées.
  • Ascend Ecom, Ecommerce Empire Builders et FBA Machine – trois sociétés distinctes opérant des schémas d’opportunités commerciales en ligne – ont été accusées par la FTC d’avoir fait des déclarations trompeuses sur leurs modèles d’affaires alimentés par l’IA, en lien avec des revendications mensongères sur les gains. En conséquence, les tribunaux fédéraux ont temporairement suspendu chaque schéma et ont placé les entités sous le contrôle d’un séquestre.
  • Rytr, qui a commercialisé et vendu une assistance à l’écriture en IA produisant des avis générés par IA, a accepté un règlement pour avoir fourni à ses clients des moyens de générer un contenu écrit faux et trompeur pour les avis des consommateurs.

En novembre 2024, la FTC a accusé Sitejabber, une entreprise proposant une plateforme d’avis de consommateurs assistée par IA, d’avoir “trompé les consommateurs en affirmant que les notes et avis qu’elle a publiés provenaient de clients ayant réellement expérimenté le produit ou service évalué, gonflant artificiellement les moyennes de notes et le nombre d’avis.” Plus récemment, la FTC a négocié des règlements avec deux entreprises impliquées dans des systèmes de sécurité – Evolv Technologies et IntelliVision Technologies Corp. Evolv a été accusé d’avoir émis de fausses déclarations concernant son système de dépistage de sécurité alimenté par IA, prétendant qu’il pouvait détecter des armes tout en ignorant des objets personnels inoffensifs, y compris dans des stades, hôpitaux et écoles. Samuel Levine, le directeur du Bureau de Protection des Consommateurs de la FTC, a souligné que les affirmations relatives aux capacités d’une technologie doivent être particulièrement précises lorsqu’il s’agit de la sécurité des enfants. IntelliVision Technologies a été accusé d’avoir fait des déclarations trompeuses sur son logiciel de reconnaissance faciale – spécifiquement que son logiciel de reconnaissance faciale alimenté par IA était exempt de biais de genre et de race et qu’il avait l’un des taux de précision les plus élevés sur le marché.

ACTIONS DE LA SEC

La FTC n’est pas la seule à s’engager récemment à enquêter et appliquer les cadres réglementaires existants à des produits et services impliquant ou prétendant impliquer l’IA. Le 18 mars 2024, la Securities and Exchange Commission (SEC) des États-Unis a annoncé avoir réglé des accusations contre deux conseillers en investissement, Delphia (USA) Inc. et Global Predictions Inc., pour avoir fait de fausses et trompeuses déclarations concernant leur prétendue utilisation de l’IA. Les sociétés ont accepté de régler les accusations de la SEC et de payer ensemble 400 000 USD de pénalités civiles. La SEC a découvert que Delphia n’avait pas les capacités d’IA et d’apprentissage automatique qu’elle prétendait avoir. Elle a également trouvé que Global Predictions avait faussement affirmé être le “premier conseiller financier régulé en IA” et avait déformé la réalité concernant sa plateforme en prétendant fournir des “[e]xpert AI-driven forecasts.”

Gary Gensler, le président de la SEC, a expliqué que les deux sociétés avaient commercialisé des services d’IA d’une certaine manière alors qu’elles ne les utilisaient pas. Gensler a appelé ce type de déclaration trompeuse “AI washing”, mettant en garde contre le fait que des entreprises profitent du battage médiatique créé par ces nouvelles technologies pour tenter d’attirer et de tromper investisseurs et clients. Le 25 janvier 2024, la SEC a émis une Alerte aux Investisseurs “pour mettre les investisseurs au courant de l’augmentation des fraudes d’investissement impliquant l’utilisation présumée de l’intelligence artificielle (IA) et d’autres technologies émergentes.”

ACTIONS DES RÉGULATEURS ÉTATIQUES

Certains régulateurs étatiques se sont également penchés sur les technologies de l’IA grâce à des actions d’application. Le Bureau du Procureur Général du Texas (AGO) a récemment annoncé un règlement “unique en son genre” avec une entreprise d’IA générative dans le domaine de la santé, Pieces Technologies. Ce règlement a résolu des allégations selon lesquelles l’entreprise avait fait une série de déclarations fausses et trompeuses sur la précision et la sécurité de ses produits d’IA. Selon l’AGO du Texas, ce règlement “met en lumière le potentiel de répression contre les entreprises d’IA en vertu des lois existantes qui ne sont pas spécifiques à l’IA” et a souligné l’importance d’“exercer une prudence particulière dans les revendications concernant l’efficacité ou les performances d’un produit d’IA.” Cette affaire au Texas peut également être interprétée comme un avertissement pour les entreprises afin qu’elles comprennent ce que font leurs fournisseurs ou partenaires à propos de l’IA. Bien que l’AGO du Texas ait ciblé le fournisseur de technologie lui-même – et non les quatre grands hôpitaux du Texas qui utilisaient la technologie – cette action reste significative pour ceux qui utilisent des technologies avancées.

D’autres procureurs généraux des États ont également annoncé ou démontré un engagement à agir sur des questions relatives à l’IA, en utilisant en particulier des théories traditionnelles de protection des consommateurs. En 2023, 23 procureurs généraux d’États, tant démocrates que républicains, ont répondu à la demande de commentaires de la National Telecommunications and Information Administration (NTIA) sur les politiques en matière d’IA et ont exhorté la NTIA à s’assurer que “les systèmes d’IA soient valides et fiables, sûrs, sécurisés et résilients, responsables et transparents, explicables et interprétables, améliorant la privacy et équitables.”

DOMAINES D’APPLICATION FUTURE

Les activités réglementaires de la FTC et d’autres agences mettent également en évidence des domaines d’intérêt pour l’application future. En particulier, la FTC a émis des ordres de recherche d’informations à huit entreprises offrant des produits et services de tarification de surveillance intégrant des données sur les caractéristiques et le comportement des consommateurs. La tarification de surveillance fait référence au “marché opaque” pour les produits vendus par des intermédiaires tiers qui “prétendent utiliser des algorithmes avancés, l’intelligence artificielle et d’autres technologies, ainsi que des informations personnelles sur les consommateurs – telles que leur emplacement, leurs données démographiques, leur historique de crédit et leur historique de navigation ou d’achat – pour catégoriser les individus et établir un prix ciblé pour un produit ou un service.” La FTC a également manifesté un intérêt pour les investissements dans l’IA et les partenariats entre les entreprises d’IA, et a commencé une étude de l’industrie, incluant des demandes d’informations auprès de plusieurs grandes entreprises technologiques.

Enfin, la FTC a exprimé son intérêt pour les risques associés aux IA génératives, qui peuvent inclure des chatbots, deepfakes et clones vocaux. L’agence a exhorté les particuliers et les entreprises à considérer s’ils devraient concevoir ou commercialiser un média synthétique ou un produit d’IA générative compte tenu des possibilités d’utilisation abusive ; si toutes les précautions raisonnables pour atténuer les risques du produit étaient prises ; si la technologie ou le produit induit les gens en erreur sur ce qu’ils voient, entendent ou lisent, particulièrement dans le contexte de la publicité ; et si la charge incombait au consommateur de détecter le contenu généré par l’IA. Les particuliers et les entreprises opérant dans ce domaine devraient examiner attentivement la liste non exhaustive de préoccupations évoquées par la FTC concernant la création et l’implémentation des technologies d’IA.

À l’heure actuelle, les réglementations fédérales visant l’IA n’ont pas encore été émises, mais les actions d’application décrites ci-dessus et les intérêts communiqués par la FTC et d’autres régulateurs confirment que les entreprises doivent rester informées des risques posés par les technologies d’IA, même tout en capitalisant sur ses qualités innovantes. Bien que l’impact d’une nouvelle majorité républicaine mince au Congrès reste incertain, on s’attend à ce que l’administration Trump aborde l’application réglementaire de l’IA avec plus de légèreté. Cela est particulièrement vrai compte tenu de l’annonce de l’investisseur technologique David Sacks en tant que “Czar IA & Crypto” de la Maison Blanche. Néanmoins, l’intérêt bipartisan pour l’IA et les tendances récentes en matière d’application indiquent qu’il y aura toujours un focus sur les abus de l’IA en vertu des théories de fraude et de pratiques commerciales trompeuses.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *