November 21, 2024

PDFS

C'est en forgeant qu'on devient forgeron

L’approvisionnement en technologies d’application de la loi nécessite un examen plus approfondi

4 min read

Un panel d’experts des États-Unis, de la Belgique et de la Nouvelle-Zélande a informé la commission de la justice et des affaires intérieures de la Chambre des Lords des risques de permettre aux entreprises technologiques d’appliquer la technologie à la police.

Les députés ont interrogé le panel sur l’utilisation des technologies de surveillance telles que les caméras portées sur le corps et les algorithmes d’application de la loi.

Elizabeth Joh, professeur de droit Martin Luther King Jr à la Davis School of Law de l’Université de Californie, a déclaré au comité qu’il y avait eu une expérimentation pure et simple de l’utilisation de la technologie pour le maintien de l’ordre aux États-Unis. Elle a mis en garde contre l’influence des entreprises du secteur privé, qui, selon elle, ont influencé l’adoption de la technologie dans les forces de police.

“C’est le secteur privé qui a développé la technologie pour l’application de la loi”, a déclaré Joh. “Ils ont un intérêt énorme et offrent des incitations.”

Par exemple, les forces de l’ordre sont incitées à utiliser gratuitement caméras portées sur le corps pendant un an, dit-elle. Mais à la fin du procès, les forces de police sont alors contraintes d’utiliser les logiciels et services de l’entreprise pour accéder à toutes les données de surveillance qu’elles ont collectées.

Joh a déclaré que les services de police sont obligés d’envoyer les données collectées par les caméras portées sur le corps au propre magasin de données de l’entreprise, auquel on ne peut accéder qu’à l’aide de son logiciel. “Après un an, de nombreuses forces de police ont tellement de données de caméras corporelles qu’elles sont obligées d’utiliser le logiciel de l’entreprise”, a-t-elle ajouté.

Rosamunde Elise Van Brakel, professeure-chercheure en études de surveillance à la Vrije Universiteit de Bruxelles, en Belgique, et codirectrice du Réseau d’études de surveillance, a déclaré au comité : « Il n’y a pas de transparence sur les règles de passation des marchés. Il n’y a aucune information publique sur la façon dont les décisions sont prises.

Van Brakel a déclaré que l’un des défis auxquels les services de police sont confrontés est le fait qu’ils manquent souvent d’une expertise suffisante. “Je pense qu’un facteur important est d’avoir l’expertise nécessaire pour comprendre ce que les entreprises technologiques promettent que la technologie fera”, a-t-elle déclaré. Dans certains pays européens, certains services de police ont choisi de ne pas acheter de technologie auprès de fournisseurs de technologie américains, a-t-elle ajouté.

Van Brakel a également discuté de la nécessité d’établir des organes de surveillance et des réglementations. Mais certaines lois, telles que celles couvrant la protection des données, sont trop restrictives, a-t-elle déclaré. « Une réglementation sectorielle pourrait être très utile car la protection des données est très axée sur la protection des données en ligne ou dans le secteur privé. Il existe peu de lignes directrices sur la manière dont le secteur public devrait mettre en œuvre la protection des données. »

Par exemple, les réglementations générales ne peuvent pas saisir les spécificités du crime organisé ou de la protection de l’enfance, a-t-elle déclaré.

Avant d’investir dans une technologie d’application de la loi, a déclaré Van Brakel, il faut une évaluation de la proportionnalité, qui tienne compte du respect des réglementations et de la manière dont le déploiement de la technologie impact sur la société, la démocratie et les droits des citoyens. « Comment la technologie permet-elle à la police d’atteindre son objectif sociétal ? » elle a dit. « Cette question n’est pas assez posée. Il n’y a pas assez de réflexion sur la façon dont cela aide la police. »

Dans le pire des cas, a déclaré Van Brakel, les réglementations et les droits des citoyens seront édulcorés, ce qui pourrait amener certains groupes de la société à être soumis à la technologie de manière disproportionnée.

Colin Gavaghan, président du groupe consultatif sur les technologies émergentes à la police néo-zélandaise et directeur du Centre de la Fondation néo-zélandaise pour le droit et la politique en technologies émergentes, Université d’Otago, a déclaré que la réduction des biais dans un algorithme ne consiste pas simplement à supprimer un seul point de données. , comme l’ethnicité, parce que le le biais est réparti sur plusieurs ensembles de données.

Lors de la collecte de données sur la criminalité à des fins d’apprentissage automatique, Gavaghan a recommandé que les services de police puisent dans les rapports de criminalité du public, « pour briser la boucle de rétroaction ». Cela se produit lorsque l’algorithme indique à la police où un crime est susceptible de se produire. Ils enquêtent, trouvent un crime et leur rapport applique la décision de l’algorithme.

Leave a Reply

Your email address will not be published. Required fields are marked *

Copyright © All rights reserved. | Newsphere by AF themes.