Icône

Aidez-nous à poursuivre notre travail de recherche indépendant

Devenez membre

Profilage racial et social : et si la solution ne provenait pas de la collecte de données?

16 mars 2019


Le 11 décembre dernier, le Service de police de la Ville de Montréal (SPVM) publiait son nouveau plan stratégique pour lutter contre le profilage racial et social: Écouter, comprendre et agir (à ne pas confondre avec le manuel scolaire du même nom). Faisant suite à la consultation publique sur la lutte au profilage racial et profilage social organisé par la Ville de Montréal en 2017, le document présentait une dizaine d’actions qui ont pour objectif d’éliminer la pratique du profilage racial et social des forces de police. Parmi l’une des actions, le SPVM s’engageait à recueillir des données afin de documenter et de contrer ce phénomène.

Collecter pour prévenir

La tendance du corps de police de parler du profilage comme d’une « perception » lui a valu de nombreuses critiques[1]. Le plan contient toutefois une mesure longtemps demandée par la société civile, à savoir la collecte de données sur les interactions entre la police et la population montréalaise. Déjà, en 2011, la Commission des droits de la personne et des droits de la jeunesse (CDPDJ) recommandait une telle mesure dans un rapport publié dans le cadre de la consultation publique qu’elle avait menée l’année précédente. L’un des constats de la Commission était qu’il existait un large consensus auprès des intervenants (organismes, groupes communautaires, militant.e.s, etc.) sur le besoin d’une collecte systématique des données ethnoraciales par les institutions publiques, et ce afin de mieux identifier les biais discriminatoires, d’aider les gestionnaires à adopter des mesures pour lutter contre ces biais et d’assurer une reddition de comptes périodique[2]. Ainsi, sans données, il est difficile de confirmer (ou d’infirmer) l’existence de profilage racial et social et de le combattre[3].

Or, une telle approche n’est pas sans danger : « on peut craindre que des données révélant une surreprésentation des jeunes racisés parmi les personnes judiciarisées, les décrocheurs et les jeunes pris en charge par la DPJ ne contribuent qu’à stigmatiser davantage ces jeunes[4]. »

C’est d’ailleurs la raison pour laquelle, dans son rapport, la CDPDJ appelait à ce que de telles données soient analysées par une instance indépendante. Cette dernière recommandation a été partiellement prise en compte par le SPVM, puisque l’analyse des données recueillies a été confiée à trois chercheurs « indépendants[5] ». Du reste, si l’on se base sur le plan actuel du SPVM, ni les données recueillies, ni leur analyse ne seront rendues publiques. Dès lors, la population, comme la communauté universitaire qui espère pouvoir utiliser ces données, restera dans le noir.

Le précrime, une technologie du futur ?

En 1956, l’un des pères de la littérature spéculative, Philip K. Dick publiait The Minority Report. Dans cette nouvelle adaptée par Steven Spielberg en 2002, des créatures mutantes dotées de précognition[6] permettent à une division de police d’arrêter les criminels avant même qu’ils aient commis de crime ; c’est la science du précrime. Aujourd’hui, le précrime n’est plus une théorie fantaisiste.

En effet, de plus en plus de services de police s’intéressent aux données afin de prédire les délits. Aux États-Unis, la ville de Hartford a installé un système utilisant des algorithmes permettant d’identifier certaines tendances. Grâce à plus de 1 000 caméras de surveillance et à un réseau de drones, le programme informatique permet une surveillance en temps réel des citoyens, mais aussi, à partir de différents croisements de divers données, de centraliser le travail des policiers dans des zones où le potentiel qu’un crime s’y produise est élevé. Cette utilisation des données peut être définie comme une approche macro (partir des infractions individuelles pour construire une vue d’ensemble), mais il existe aussi une approche micro qui propose d’utiliser les données afin de produire des profils individuels.

C’est le cas du Département de police de la Ville de Chicago, qui se sert de données afin d’attribuer un « score de dangerosité » à plus de 400 000 citoyen·ne·s consigné·e·s dans une « liste stratégique de suspects » (heat list)[7]. Peu d’informations permettent actuellement de savoir comment une personne est ajoutée à cette liste, mais officiellement, seules les personnes ayant des antécédents criminels s’y retrouvent. Le score d’un individu dépend de plusieurs éléments, comme son âge, son passé criminel, le nombre de fois dont il a été victime ou à l’origine d’actes violents et son affiliation à un gang de rue.

Bien que ce secteur du marché du « Big data » soit encore en plein essor, un nombre croissant d’entreprises développent des programmes destinés à identifier de potentielles menaces à partir d’algorithmes. Les données déjà recueillies par les services de police (arrestations, interpellations, nombre de contraventions, etc.) sont complétées par celles tirées des médias sociaux, des sites de commerce en ligne, etc. Les promoteurs de ces programmes promettent tous la même chose aux forces de police : un pouvoir de surveillance accrue, à moindre coût (humain et matériel), capable d’identifier les criminels avant qu’ils ne soient passés à l’action.

Dans un climat de peur généralisé post-11 septembre, marqué par des réseaux terroristes mondialisés, peu sont disposés, au sein des départements de police,  des cabinets politiques et des  cours de justice, à remettre en question la légalité et l’efficacité réelle d’une telle méthode d’investigation.

L’appui croissant au sein des départements de police pour l’achat de ces programmes est renforcé, ironiquement, par le souci de divers groupes de pression de la société civile d’assurer une meilleure surveillance des corps de police. Car c’est là le second argument en faveur d’une collecte toujours plus importante de données par la police : celles-ci permettraient de limiter les abus policiers en mettant en évidence les pratiques biaisées des agents de police.

Le « big data policing » et la question raciale

Le problème que représente cette nouvelle tendance en matière de maintien de l’ordre va au-delà des atteintes qu’elle peut porter au droit à la vie privée et au principe de la présomption d’innocence. Considérant que certaines communautés, individus ou groupes sont plus sujets à être surveillés ou interceptés par les forces de police[8], les données collectées au travers des interventions policières peuvent résulter en des interprétations biaisées de la criminalité.  Plus concrètement, comme nous savons qu’un jeune homme noir a quatre fois plus de chance de se faire interpeller que son homologue blanc[9], les services de police disposent de davantage de données sur les communautés noires. Une interprétation non contextualisée par un programme informatique statuerait que ces dernières ont une propension plus grande à enfreindre la loi. Du coup, la police exercerait, avec la bénédiction de la technologie, une surveillance accrue de ces communautés afin de réduire le crime.

Or, comme le note Andrew Ferguson dans The Rise of Big Data Policing, le big data renforce  les iniquités systémiques déjà au cœur du travail des policiers au lieu de les résoudre[10]. Les systèmes de prédiction de la criminalité se basent donc sur des pratiques policières historiquement biaisées qui ciblent certains groupes plus que d’autres en fonction des caractéristiques personnelles (origine ethnique, couleur de peau, genre, statut socio-économique, etc.).  Ainsi, la « heat list » de Baltimore est majoritairement composée de personnes racisées, d’activistes noirs surveillé·e·s sur les réseaux sociaux et de cibles de surveillances aériennes[11].

Deux autres éléments problématiques du « big data policing », note Ferguson, sont le manque de transparence et d’encadrement légal[12]. D’une part, les entreprises derrière ces programmes informatiques offrent très peu de détails sur la manière dont ceux-ci sont élaborés et  sur leur fonctionnement technique. Ainsi, les services de police dépendent du secteur privé afin de pouvoir interpréter les résultats livrés par un programme prédictif.

D’autre part, pour le moment, très peu de lois régissent l’utilisation des données personnelles par les entreprises privées et encore moins par l’État[13]. Le cas de la Chine est éclairant à ce sujet. Dans un pays où les droits de la personne sont presque inexistants, l’État chinois dispose de l’architecture de surveillance la plus importante à l’heure actuelle. Ce système de pointage se base sur une variété de données (comportements, consommation, infractions, commentaires en ligne, etc.) afin de distinguer les « bon·ne·s » des « mauvais·es » citoyen·ne·s. Selon le gouvernement chinois, le système Skynet permet de maintenir l’ordre et d’assurer la sécurité. Or, on le sait maintenant, cette surveillance de masse permet surtout au gouvernement chinois de raffermir son pouvoir en pourchassant les dissidentes et les dissidents politiques.

Si les pays occidentaux sont encore prudents quant à la surveillance de masse, rien n’indique que ce sera le cas dans le futur. Du fait de lois laxistes en matière de protection des renseignements personnels, le « big data » peut servir à tout et n’importe quoi. Il est donc primordial pour les États de construire un cadre légal en matière de données numériques apte  à assurer la sécurité et les droits des citoyennes et des citoyens.

Bluff technologique

La technologie est une arme à double tranchant. Oui, les données permettent de comprendre et de résoudre plusieurs problèmes, comme dans le domaine de la santé où elles peuvent prédire une épidémie avant qu’elle ne se propage mondialement ou encore dans l’aménagement urbain afin de construire des collectivités plus sécuritaires, attractives et adaptées aux réels besoins des résidentes et des résidents. Oui, mais pas seulement.

En 1988, Jacques Ellul notait que le discours sur la technologie tient surtout du bluff[14]. Pour Ellul, lorsqu’on vante les apports (économiques, sociaux, etc.) d’une nouvelle technologie tout en niant ses coûts, et que l’on subordonne l’humain à la machine afin de répondre à de nouvelles structures normatives (productivité, individualisme, etc.), alors, nous vivons dans une fiction (un bluff) construite pour nous rassurer… et mieux nous contrôler.

Dans le cas du SPVM, il faudra garder à l’œil que cette petite victoire dans la lutte contre le profilage racial et social n’est pas sans risque. Au cours des prochaines années, il nous faudra questionner le corps policier sur l’usage qu’il fera de ces données afin d’évaluer l’impact d’une telle pratique pour les groupes plus à risque d’être profilés.

Crédits photo : (c) Musingtree | Dreamstime.com


[1] Ville de Montréal. (2018). Écouter, comprendre, agir : Plan stratégique pour soutenir le personnel du SPVM en matière de prévention du profilage racial et social 2018-201. Service de police de la Ville de Montréal.

[2] Commission des droits de la personne et des droits de la jeunesse. (2011). Profilage racial et discrimination systémique des jeunes racisés. Rapport de la consultation sur le profilage racial et ses conséquences, p.21.

[3] C’est pourquoi, d’ailleurs, les services de police préfèrent parler du profilage racial comme de « perceptions » plutôt que de pratiques.

[4] Commission des droits de la personne et des droits de la jeunesse. (2011). Profilage racial et discrimination systémique des jeunes racisés. Rapport de la consultation sur le profilage racial et ses conséquences, p.21.

[5] Sans remettre en question l’éthique et l’objectivité de ces chercheurs, il reste que nous pouvons questionner le degré de leur « indépendance » puisqu’ils seront, de facto, des employés contractuels du SPVM.

[6] Capacité de prédire l’avenir.

[7] http://time.com/4966125/police-departments-algorithms-chicago/ ; https://medium.com/equal-future/how-strategic-is-chicagos-strategic-subjects-list-upturn-investigates-9e5b4b235a7c

[8] Carmichael, J. T., & Kent, S. L. (2015). Structural Determinants of Municipal Police Force Size in Large Cities across Canada: Assessing the applicability of ethnic threat theories in the Canadian context. International Criminal Justice Review, 25(3), 263-280.

[9] Bernard, L., & McAll, C. (2010). La mauvaise conseillère. Revue du CREMIS3(1), 7-14.

[10] Ferguson, A. (2017). The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement, p. 132. New York: NYU Press. Retrieved from http://www.jstor.org.proxy.bibliotheques.uqam.ca/stable/j.ctt1pwtb27

[11] Ibid, p.133.

[12] Ibid, p.136-142.

[13] En 2018, le Canada a mis à jour la Loi sur la protection des renseignements personnels et les documents électroniques afin de tenir de compte de l’émergence du big data. Cependant, étant données le peu de financement et de ressources mis à la disposition du Commissariat à la protection de la vie privée ainsi que de son pouvoir coercitif limité, force est de constater qu’il n’y a plus ou moins aucun changement profond dans la manière dont les données sont collectées et utilisées par les entreprises.

[14] Ellul, J. (2012). Le bluff technologique.

Icône

Vous aimez les analyses de l’IRIS?

Devenez membre

Icône

Restez au fait
des analyses de l’IRIS

Inscrivez-vous à notre infolettre

Abonnez-vous