S3-Épisode 1 : Prédire les crimes avant qu’ils ne soient commis : ce n’est plus de la science-fiction
Cela peut sembler relever de la science-fiction, mais c’est pourtant bien ce qui se passe aujourd’hui. Les organismes chargés de l’application de la loi utilisent des données pour prédire les activités criminelles avant qu’elles ne se produisent. Bien que le maintien de l’ordre prédictif puisse rendre la lutte contre la criminalité plus efficace, elle soulève également des risques réels pour la vie privée et d’autres droits de l’homme. Christopher Parsons, ancien chercheur du Citizen Lab de l’université de Toronto et aujourd’hui conseiller principal en technologie au CIPVP, nous présente certains de ces risques et la manière dont ils peuvent être atténués.
Remarques
Christopher Parsons est conseiller principal en technologie et en politiques au CIPVP. Avant de se joindre au CIPVP au début de 2023, il était associé supérieur en recherche au Citizen Lab, un laboratoire interdisciplinaire de la Munk School of Global Affairs and Public Policy de l’Université de Toronto.
- Orientation vers la recherche sur la protection de la vie privée, la sécurité nationale et les politiques publiques [2:38]
- Modernisation du maintien de l’ordre grâce à la technologie [4:57]
- Définition de l’expression « maintien de l’ordre prédictif » [7:19]
- Évaluation des demandes de mise en liberté sous caution comme exemple de maintien de l’ordre prédictif [8:33]
- Aspects éventuellement problématiques des technologies prédictives [9:34]
- Constatations du rapport Surveil and Predict du Citizen Lab [11:11]
- Protection de la vie privée et maintien de l’ordre prédictif [12:20]
- Questions relatives aux droits de la personne associées au maintien de l’ordre prédictif [14:18]
- Principales recommandations du rapport Surveil and Predict du Citizen Lab [18:07]
- Ouverture et responsabilisation dans le contexte de l’utilisation d’outils de maintien de l’ordre prédictif [21:09]
- Enjeux à venir concernant les pratiques de maintien de l’ordre et la protection de la vie privée en Ontario [26:26]
Ressources
- To Surveil and Predict: A Human Rights Analysis of Algorithmic Policing in Canada (Citizen Lab, 1er septembre 2020)
- ‘Algorithmic policing’ in Canada needs more legal safeguards, Citizen Lab report says (Toronto Star)
- Law Enforcement and Security Agency Surveillance in Canada: The Growth of Digitally-Enabled Surveillance and Atrophy of Accountability (Citizen Lab, 26 février 2018)
- Law Enforcement and Surveillance Technologies (webémission du CIPVP à l’occasion de la Journée de la protection des données)
- Priorités stratégiques du CIPVP 2021-2025
- La nouvelle génération des forces de l’ordre (ressources du CIPVP)
L’info, ça compte est un balado sur les gens, la protection de la vie privée et l’accès à l’information animé par Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario. Avec des invités de tous les milieux, nous parlons des questions qui les intéressent le plus sur la protection de la vie privée et l’accès à l’information.
Si vous avez aimé cet épisode, laissez-nous une note ou un commentaire.
Vous aimeriez en apprendre plus sur un sujet lié à l’accès à l’information ou la protection de la vie privée? Vous aimeriez être invité à une émission? Envoyez-nous un gazouillis à @cipvp_ontario ou un courriel à @email.
Les renseignements, opinions et recommandations que contient ce balado sont présentés à des fins d’information générale uniquement, et ne peuvent pas se substituer à des conseils juridiques. Sauf indication contraire, le CIPVP ne soutient, n’approuve, ne recommande, ni n’atteste aucun renseignement, produit, processus, service ou organisme présenté ou mentionné dans ce balado. En outre, les renseignements que contient ce balado ne doivent pas être utilisés ni reproduits d’une manière qui sous-entend un tel soutien ou une telle approbation. Les renseignements, opinions et recommandations présentés dans ce balado ne lient pas le Tribunal du CIPVP, qui peut être appelé à enquêter et à rendre une décision sur une plainte ou un appel en se fondant sur les circonstances et les faits pertinents.
Transcriptions
Patricia Kosseim :
Bonjour. Ici Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario, et vous écoutez L’info, ça compte, un balado sur les gens, la protection de la vie privée et l’accès à l’information. Avec des invités de tous les milieux, nous parlons de questions qui les intéressent sur la protection de la vie privée et l’accès à l’information.
Bonjour, chers auditeurs, et merci d’être des nôtres. Les amateurs de science-fiction se souviendront sans doute du film Rapport minoritaire. Ce film d’action, qui met en vedette Tom Cruise, est une adaptation d’une nouvelle de Philip K. Dick, écrivain de science-fiction bien connu. Dans ce film, les policiers de l’Unité du précrime ne font pas que maintenir l’ordre; ils prédisent les crimes au moyen de technologies psychiques afin d’empêcher qu’ils ne soient commis. En analysant les visions du futur de « précogs » mutants, ils accumulent des indices qui leur permettent de retrouver les suspects avant qu’ils ne passent à l’acte. Cette histoire se passe en 2054, un avenir pas si éloigné de 2023, et elle peut sembler un peu fantaisiste, mais l’est-elle vraiment? Croyez-le ou non, en Amérique du Nord et dans d’autres pays, les forces de l’ordre utilisent déjà des technologies pour prédire la criminalité. Au lieu de faire appel à des capacités psychiques, elles s’appuient sur des algorithmes pour repérer les activités criminelles éventuelles. C’est ce qu’on appelle le maintien de l’ordre prédictif, et c’est le sujet que nous allons explorer dans l’épisode d’aujourd’hui. Ces technologies pourraient révolutionner le maintien de l’ordre d’une manière que nous n’aurions jamais crue possible dans la réalité, mais elles s’accompagnent aussi de risques bien réels pour la vie privée et l’éthique.
Mon invité est Christopher Parsons. Il est conseiller principal en technologie et en politiques à mon bureau. Avant de se joindre au CIPVP au début de 2023, Christopher était associé supérieur en recherche au Citizen Lab, qui fait partie de la Munk School of Global Affairs and Public Policy de l’Université de Toronto. Le Citizen Lab mène des recherches interdisciplinaires, s’appuyant sur la science politique, le droit et l’informatique, pour produire des connaissances fondées sur des données probantes dans les domaines des technologies numériques, des droits de la personne et de la sécurité mondiale. Bienvenue, Christopher.
Christopher Parsons :
Merci de m’avoir invité.
PK :
Chris, pouvez-vous commencer par nous parler de vous et de votre travail et nous expliquer comment vous en êtes venu à axer vos recherches sur la protection de la vie privée, la sécurité nationale et les questions de politique publique?
CP :
Eh bien, c’est en fait en philosophie que j’ai commencé ma carrière; mes deux premiers diplômes sont dans cette discipline. À l’époque, je m’intéressais surtout à ce qui permet aux démocraties de se développer et de prospérer. J’ai examiné cette question sous l’angle de la protection de la vie privée et des répercussions que la surveillance peut avoir sur la capacité des gens à communiquer librement, et en même temps, je travaillais dans le domaine des technologies de l’information. C’est ce qui m’a conduit tout naturellement à m’intéresser à cette question pendant mon doctorat. J’essayais donc de comprendre comment certaines technologies de réseau adoptées par les fournisseurs de services de télécommunication pouvaient être employés pour surveiller leurs utilisateurs à différentes fins. C’est ce qui m’a poussé à m’intéresser non seulement à la protection de la vie privée, mais aussi à la sécurité nationale, aux politiques publiques et à la législation en cours d’élaboration, compte tenu des nombreux débats politiques qui ont lieu au pays sur les nouvelles technologies dont disposent les services de sécurité et des forces de l’ordre.
Je pense que ce sujet est devenu une réalité beaucoup plus tangible pour moi quand j’ai rejoint le Citizen Lab. Quelques mois, voire quelques semaines après mon arrivée au Citizen Lab, Edward Snowden a révélé des documents à des journalistes, et on nous a demandé, au laboratoire et à moi, de commencer à analyser et à comprendre la manière dont certains de ces documents pourraient être révélés publiquement ou non. Cela m’a très vite fait comprendre qu’il ne s’agissait pas seulement d’un domaine d’étude théorique, même si c’était évidemment le cas, mais qu’il y avait en fait un travail concret à faire. Depuis, au cours des dix dernières années environ, j’ai essayé de comprendre les types de mesures que les gouvernements doivent prendre pour protéger la vie des particuliers ainsi que les droits garantis par la Charte, tout en veillant à ce que les protocoles, les politiques ou les lois adoptés soient examinés de très près pour s’assurer qu’ils protègent nos droits démocratiques sans rompre l’équilibre entre la sécurité et les libertés civiles.
PK :
Vous avez dit que nous vivons déjà en quelque sorte dans un monde de science-fiction en ce qui concerne les capacités technologiques des forces de l’ordre, un peu comme dans le film Rapport minoritaire que j’ai mentionné il y a quelques minutes. Dites-nous comment le maintien de l’ordre est entré dans le monde de la science-fiction.
CP :
Il y a 30 ans, si on voulait savoir ce que vous aviez écrit à quelqu’un d’autre, il fallait soit intercepter vos lettres et les ouvrir à la vapeur, ce qui n’est pas sans poser de problèmes juridiques dans notre pays. Ou bien, pour filer quelqu’un, savoir où il va dans une ville, où il voyage, il fallait faire appel à des équipes entières d’agents de services de sécurité ou des forces de l’ordre, donc il fallait des transferts, des voitures, de la planification, des réservations d’hôtel. Il y avait donc plein de détails à régler. Un journal intime était un objet unique, et pour y accéder, il fallait entrer par effraction dans un domicile. Nos documents les plus importants étaient rangés dans un coffre-fort. Pour les forces de l’ordre, intercepter une communication, c’était fixer un fil à pince alligator à une ligne téléphonique.
Aujourd’hui, les forces de l’ordre peuvent accomplir bon nombre de ces tâches bien plus vite et avec beaucoup moins de ressources humaines. Nous stockons d’énormes quantités de données dans le nuage, qu’elles soient chiffrées ou non. C’est donc dire que si vous avez un journal intime, il y a fort à parier qu’il se trouve sur un serveur quelque part. Vous avez peut-être un blogue ou un site Web dans lequel vous publiez des réflexions personnelles qui, autrefois, étaient beaucoup plus intimes. Les capteurs intelligents se multiplient partout, de sorte que beaucoup de données sont recueillies sur nos déplacements. Les téléphones intelligents eux-mêmes ajoutent des données de géolocalisation à nos photos et à d’autres éléments, ce qui constitue une autre source d’information et nous évite de devoir faire appel à une trentaine d’agents pour nous orienter. Nous vivons aujourd’hui dans un monde où les forces de l’ordre les plus évoluées et les mieux dotées en ressources peuvent faire des choses qui relevaient encore vraiment de la science-fiction il y a 20 ou 30 ans.
Bien sûr, il ne faut pas croire que tous les corps de police disposent de moyens équivalents, car ce n’est évidemment pas le cas. Et je ne prétends pas non plus que les forces de l’ordre ne rencontrent aucune difficulté du fait de la prolifération des technologies. Elles sont effectivement confrontées à des défis. Mais leurs difficultés d’aujourd’hui sont très différentes de celles d’il y a 30 ans. Nous devons en être conscients quand nous examinons les technologies contemporaines et émergentes, afin de ne pas oublier que nous avons élaboré nos lois criminelles en pensant à la manière dont elles seraient appliquées il y a 20, 30 ou 40 ans, et que leur application est en train de changer du tout au tout à cause de la technologie.
PK :
Il se peut que certains ne connaissent pas très bien l’expression « maintien de l’ordre prédictif ». Pouvez-vous nous expliquer ce concept?
CP :
Il s’agit en fait d’un rapprochement avec un autre concept que nous aborderons en premier lieu. Nous avons pour l’essentiel ce que l’on appelle les technologies algorithmiques, ce qui signifie simplement qu’il existe une sorte de processus qui automatise une activité ou une mesure de maintien de l’ordre. Pensez à la caméra d’intervention d’un policier. Lors d’un incident, quand des gens parlent fort ou que le policier dégaine son arme à feu, ou qu’il se produit différentes autres choses, la caméra s’actionne. Il s’agit d’une technologie algorithmique, qui agit en réponse à quelque chose.
La technologie prédictive, en revanche, permet de déterminer des actions qui auront lieu dans l’avenir. Voici un exemple. Dans certains territoires, il existe des cartes d’incidence de l’activité criminelle prévue. Ainsi, sur la base d’actes qui ont déjà été commis dans une région donnée, les policiers ou l’organe central qui les dirige peuvent être informés qu’il faudrait peut-être affecter davantage de policiers à certains endroits en raison de la prévalence historique de l’activité criminelle présumée. Il ne s’agit donc pas d’une réaction à une action précise, mais d’une prédiction quant à une action qui aura lieu à un moment donné dans l’avenir.
PK :
Je vous ai déjà entendu parler d’une autre application, dans le domaine des mises en liberté sous caution.
CP :
Oui. Il s’agit donc d’un domaine où les enjeux sont très importants. C’est une situation où une personne accusée d’une infraction quelconque demande à être libérée sous caution et où il peut y avoir un moyen algorithmique de prédire si cette personne est plus ou moins susceptible de violer les conditions de sa libération. Là encore, l’algorithme n’est pas nécessairement basé sur l’individu en question, il n’est pas spécifique à la personne qui demande la mise en liberté sous caution, mais il existe plutôt une série de caractéristiques liées à cette personne qui sont ensuite intégrées dans un algorithme qui prédit s’il faudrait ou non lui accorder la liberté sous caution. Et si nous le faisons, à quelles conditions? Combien d’argent doit-on exiger, quelles restrictions doit-on imposer à ses déplacements, etc. pour que la mise en liberté sous caution lui soit accordée?
PK :
On a constaté des problèmes liés à la précision des technologies prédictives et à leur utilisation dans ces contextes, qu’il s’agisse de cartes d’incidence de la criminalité ou d’évaluations aux fins de la mise en liberté sous caution. Pouvez-vous nous en dire un peu plus sur certains de ces problèmes et sur la manière dont on peut les atténuer?
CP :
Je pense que Vancouver est un excellent exemple de la façon dont on peut déployer certaines de ces technologies prédictives tout en étant conscient du fait qu’elles peuvent poser de sérieux problèmes si elles ne sont pas gérées avec soin. Donc, à Vancouver, on utilise depuis longtemps un programme appelé GeoDASH. Il s’agit d’un exemple de carte d’incidence de la criminalité. À Vancouver, il est bien connu que dans certains quartiers de la ville, comme le Downtown Eastside, un grand nombre de policiers répondent régulièrement à des appels. C’est l’un des quartiers les plus pauvres et les plus défavorisés des centres urbains du Canada. Le système a donc été conçu de manière que toute suggestion visant à affecter davantage de policiers au Downtown Eastside soit automatiquement écartée et que l’on passe à l’option suivante. On reconnaît ainsi que l’on ne peut pas se fier uniquement à l’algorithme. D’autres processus sont en place.
Et dans le cas de GeoDASH, des réunions régulières sont censées avoir lieu pour confirmer que les renseignements fournis par GeoDASH et l’affectation des policiers sont appropriés et ne contribuent pas à une présence policière excessive, à une discrimination systémique ou à d’autres préjudices qui pourraient résulter d’une adhésion aveugle aux recommandations de l’algorithme et aux prédictions pour déterminer ce que les policiers devraient faire.
PK :
Le Citizen Lab, où vous travailliez auparavant, a publié en 2020 un rapport intitulé To Surveil and Predict: A Human Rights Analysis of Algorithmic Policing in Canada, sur l’utilisation des algorithmes dans le maintien de l’ordre envisagée sous l’angle des droits de la personne. Vous en avez en fait supervisé les co-autrices. Pouvez-vous nous en dire un peu plus sur les conclusions de ce rapport?
CP :
Ce rapport a été rédigé par Kate Robertson, Cynthia Khoo et Yolanda Song. Elles ont accompli un travail magnifique et admirable aux fins de la préparation de ce rapport. De manière générale, il s’agissait de mener une évaluation des technologies algorithmiques et prédictives de maintien de l’ordre. L’objectif était de prévoir l’évolution de la situation. Nous savions que des technologies de ce genre seraient probablement adoptées. Il fallait donc faire tout un travail, tenter de déterminer quels organismes utilisent ces technologies au Canada, il s’agit donc d’un rapport spécifique au Canada, et quelles sont les répercussions de ces technologies et les précautions que les décideurs pourraient envisager de prendre. Les recommandations, que nous pourrons peut-être aborder dans un instant, ont pour but d’inciter les responsables politiques et les membres de la communauté juridique à réfléchir à ce qui les attend, à éviter d’avoir à y réagir et à élaborer des politiques et des mesures proactives pour atténuer les préjudices tout en tirant parti des avantages que peuvent présenter les technologies prédictives en question.
PK :
Voilà un excellent exemple qui nous montre combien il est important de prévoir ces risques émergents et d’agir de façon préventive pour y faire face ou du moins pour déterminer certains problèmes qui pourraient se présenter en aval. Donc, quelles sont les répercussions du maintien de l’ordre prédictif sur la vie privée en particulier?
CP :
Je pense que, sur le plan de la protection de la vie privée, la chose la plus importante est probablement la manière dont on recueille et utilise les renseignements personnels. D’autant plus que dans le contexte du maintien de l’ordre, il y a une asymétrie de pouvoir. Une personne peut donc être ou se sentir incapable de dire : « Non, je ne veux pas que ces données soient recueillies, je ne veux pas que mes renseignements soient utilisés de cette manière. »
De plus, nous avons constaté à plusieurs reprises qu’il y avait un problème de réutilisation des données. Je vais vous donner un exemple. Nous savons, sur la foi d’études et d’enquêtes publiques, que certaines communautés font l’objet d’un contrôle policier excessif, en particulier les communautés racialisées noires et autochtones. En conséquence, les membres de ces communautés sont souvent arrêtés. Ainsi, chaque fois que l’on crée un algorithme qui s’appuie, par exemple, sur des comportements criminels antérieurs présumés, on obtient forcément des données tendancieuses. Et si l’on s’appuie sur ces données pour entraîner les modèles, il est fort probable que l’algorithme intégrera certains de ces préjugés, puis recréera et généralisera une toute nouvelle forme de préjudices et de préjugés systémiques.
L’une de nos préoccupations majeures est donc de savoir comment les données sont recueillies, à quel moment et dans quelles conditions, et comment les données historiques peuvent être réutilisées. L’une des principales recommandations est d’avertir tous les intervenants du système de justice criminelle de faire très attention à la manière dont les données sont utilisées, car sinon, les préjudices qui, comme on le sait, préoccupent les forces de l’ordre, et évidemment les commissaires aux droits de la personne et à la protection de la vie privée ainsi que la société en général, pourraient se perpétuer.
PK :
Donc il a un risque de perpétuer les préjugés de départ. Vous avez évoqué des questions touchant les droits de la personne, et le document fait état de répercussions importantes sur d’autres droits en général. Pouvez-vous décrire certaines de ces répercussions? Comme la discrimination, mais aussi certains des autres droits mentionnés dans le document.
CP :
Lorsque nous avons examiné la manière dont les technologies prédictives et les technologies algorithmiques pouvaient fonctionner, nous avons procédé à une analyse générale fondée sur les droits de la personne. Le droit à la vie privée est l’un des plus importants, car il nous intéressait beaucoup, mais les droits de la personne vont évidemment bien au-delà du simple droit à la vie privée. Par exemple, lorsque nous avons réfléchi à des questions telles que la liberté d’association, quand on dispose d’une technologie prédictive qui regroupe des gens, on peut se demander si cela peut pousser certains à éviter de s’associer à ce groupe dans la mesure du possible.
Qu’est-ce qui pourrait en résulter dans la réalité? Il se peut que les forces de l’ordre soient invitées à se rendre plus souvent dans une communauté donnée, n’est-ce pas? C’est là que se trouve votre église, votre bureau syndical ou, tout simplement, l’endroit où vous aimez passer du temps avec vos amis, mais vous pouvez être dissuadé de vous y rendre parce que vous craignez les conséquences d’une présence accrue des forces de l’ordre. Il y a des problèmes liés à la liberté d’expression, en particulier lorsqu’il s’agit de technologies de maintien de l’ordre prédictif qui s’appuient sur la collecte de renseignements personnels ou de renseignements que l’on communique publiquement. Certains organismes gouvernementaux ont donc souvent l’impression erronée qu’elles peuvent s’appuyer sans restriction sur tout ce que vous dites en ligne.
Et bien sûr, nous avons le droit à la vie privée qui est censé contraindre les organismes gouvernementaux à ne recueillir des renseignements que lorsque c’est nécessaire dans le cadre de leurs activités. Mais si on ignore ce qui est recueilli, si on ne sait pas quelles communications sont surveillées, on peut hésiter à communiquer, ce qui est un problème majeur dans une démocratie. Il faut pouvoir communiquer librement et sans crainte tant que ce que l’on fait n’est pas illégal ou ne contribue pas à des activités que les forces de l’ordre ont un intérêt légitime à surveiller.
En ce qui concerne des questions telles que la mise en liberté sous caution ou la manière dont le maintien de l’ordre prédictif peut être intégré dans le système judiciaire, nous nous heurtons à des questions relatives au droit de ne pas être détenu arbitrairement ou au droit à l’application régulière de la loi. Ainsi, lorsque vous ne savez pas quels outils sont utilisés pour décider si vous serez incarcéré ou non, et que vous ignorez l’impact de ces outils sur des décisions que vous n’avez même pas la possibilité de contester, cela peut vraiment remettre en question ces valeurs fondamentales. C’est très important parce que nous parlons souvent des droits d’une manière qui ne touche pas directement notre expérience vécue, mais il est certain que quand on est détenu par les forces de l’ordre, c’est là que nos droits deviennent rapidement très réels. Il est donc important que toute nouvelle technologie ne porte pas indûment atteinte à ces droits.
À un niveau plus général, l’un des principaux risques est de savoir si les technologies de maintien de l’ordre prédictif, ou plus globalement les technologies prédictives, sont adoptées par les gouvernements ou les organismes publics, et dans quelle mesure. Les personnes qui ne savent pas ce qui est recueilli, qui ne connaissent pas les procédures, qui ne comprennent pas vraiment les décisions prises par les organismes gouvernementaux, les forces de l’ordre ou les policiers, pourraient être moins disposées à exercer leurs libertés. Cela a un effet paralysant sur la société. Cela peut dissuader les gens de s’engager dans l’arène politique. Si je dis quelque chose à propos de tel ou tel politicien ou de tel ou tel conseiller, va-t-on m’arrêter, vais-je pouvoir conserver mon emploi ? Le manque de transparence et de responsabilisation peut réellement nuire à la capacité des citoyens à communiquer entre eux et à maintenir ou accroître la vitalité des éléments clés de notre démocratie, comme notre capacité à exprimer des idées et des concepts et à nous associer librement les uns aux autres.
PK :
Le rapport formule plusieurs recommandations à l’intention du gouvernement et des forces de l’ordre. Quelles sont les plus importantes d’entre elles?
CP :
Le rapport contient de nombreuses recommandations, et je recommande donc à toute personne intéressée de s’en procurer un exemplaire. Il est accessible sur le site Web du Citizen Lab. Il propose sept recommandations prioritaires et dix recommandations secondaires. Je me contenterai d’évoquer quelques-unes des recommandations prioritaires.
On a notamment recommandé au gouvernement d’imposer un moratoire sur l’utilisation par les forces de l’ordre de technologies qui s’appuient sur des bases de données historiques. Cela signifie que si, par exemple, les forces de l’ordre font l’acquisition d’une technologie de reconnaissance faciale, mais qu’elles doivent l’entraîner ou qu’elles s’appuient sur de vieilles photos signalétiques ou quelque chose de ce genre, la prudence est de mise car nous savons, par exemple, que les données historiques des photos signalétiques seront biaisées en raison des personnes qui sont plus susceptibles d’avoir été arrêtées ou détenues par les forces de l’ordre.
Deuxièmement, le gouvernement devrait faire de la fiabilité, de la nécessité et de la proportionnalité des conditions préalables à l’utilisation de toute technologie algorithmique ou policière, ce qui signifie que si la technologie est très envahissante, elle devrait être proportionnelle au préjudice causé. Il ne faudrait pas utiliser des technologies très envahissantes pour, par exemple, prédire les actions de voleurs à l’étalage, les identifier ou les arrêter. Troisièmement, et cela va sans doute de soi, les forces de l’ordre devraient faire preuve d’une transparence totale en ce qui concerne les technologies qu’elles adoptent. Soyons clairs, cela ne veut pas dire de rendre publics la marque et le modèle d’une technologie. Il y a de bonnes raisons de garder certaines de ces informations confidentielles, je le comprends au même titre que les autrices, mais les forces de l’ordre devraient dire : « Nous utilisons, par exemple, des technologies de reconnaissance faciale dans cet environnement pour telles ou telles raisons, et voici comment elles pourraient être utilisées », pour que le public sache clairement ce qui se passe.
Quatrièmement, nous avons suggéré au gouvernement provincial d’établir des règles d’approvisionnement concernant l’utilisation des technologies par les forces de l’ordre. Ces règles imposeraient des évaluations des incidences ou des rapports annuels sur la manière dont la technologie est utilisée, sur les sources de données d’entraînement, et d’autres choses de ce genre. Il s’agit de veiller à ce que les forces de l’ordre disposent d’un processus leur permettant d’être honnêtes et à ce qu’il n’y ait pas de situation dans laquelle des policiers, même bien intentionnés, recueillent ou utilisent une technologie d’une manière qui pourrait être préjudiciable au public dans la mesure où elle pourrait être biaisée ou contribuer à une surveillance policière excessive.
Enfin, nous recommandons vivement aux gouvernements et aux forces de l’ordre de s’engager dans des consultations très approfondies, notamment avec les parties qui ont été historiquement soumises à une surveillance policière excessive et à de la discrimination de la part de l’État. Ces consultations approfondies et cette écoute doivent porter non seulement sur la question de savoir comment élaborer une meilleure politique pour la technologie en question, mais aussi sur celle de savoir s’il faut utiliser cette technologie et si des fonds publics doivent y être consacrés.
PK :
Le CIPVP a retenu La nouvelle génération des forces de l’ordre parmi les quatre priorités stratégiques qui orientent ses travaux. Notre objectif à cet égard est de contribuer à renforcer la confiance du public dans les forces de l’ordre en travaillant avec les partenaires concernés pour élaborer les balises nécessaires à l’adoption de nouvelles technologies qui protègent à la fois la sécurité publique et les droits des Ontariennes et Ontariens en matière d’accès à l’information et de protection de la vie privée. Donc, Chris, quelles sont à votre avis les étapes les plus importantes à franchir pour l’élaboration et le déploiement de technologies pour la nouvelle génération des forces de l’ordre?
CP :
Je pense que ce qui compte avant tout, c’est l’ouverture et la responsabilisation. Il faudrait déclarer ouvertement quels sont les types d’outils que nous voulons utiliser et pourquoi. Parallèlement, il faut mettre en place un régime de responsabilisation afin que, lorsqu’une technologie émerge soudainement, quelqu’un soit chargé d’expliquer ce qui s’est passé exactement. Par ailleurs, et je l’ai déjà mentionné, les techniques et les technologies policières doivent vraiment répondre aux besoins des communautés, au lieu d’exiger une réaction de la part des communautés.
Il n’est donc pas suffisant, il n’est pas approprié de dire : « Nous voulons installer 13 caméras dans un quartier de la ville ou sur une route rurale, pour une raison quelconque. Dites-nous ce que vous en pensez ». Il faut dire plutôt : « Nous avons relevé un problème au sein de la communauté. Voici comment nous pensons qu’il se manifeste. Nous aimerions vous en parler. » Puis, en cours de route, dites : « Voici quelques pistes que nous avons envisagées. Qu’en pensez-vous? » Il s’agit donc d’un véritable dialogue. Il doit donc y avoir une écoute importante et approfondie, de sorte qu’une communauté peut parfois dire : « Non, nous ne voyons pas cela comme un problème » ou, en fin de compte : « Non, nous ne sommes pas d’accord avec vos propositions et voici ce dont nous avons besoin à la place. » Et c’est beaucoup plus difficile.
Je crois qu’il faut peut-être envisager les choses sous un angle légèrement différent. Je pense que l’un des véritables défis auxquels sont confrontées les forces de l’ordre dans tout le pays et en Ontario également réside dans le fait qu’elles sont responsables ou ont été chargées de s’occuper d’un grand nombre de problèmes qui vont au-delà de leurs capacités normales. Ce n’est pas nécessairement elles qui ont un remède à tous les maux de notre communauté, et ce n’est pas ce que nous attendons d’elles. C’est pourquoi de nombreux groupes communautaires considèrent qu’ils n’ont pas nécessairement besoin d’une solution policière, mais plutôt d’une solution scolaire ou d’un autre type de renforcement des capacités sociales.
Enfin, en ce qui concerne les technologies de la prochaine génération, je pense qu’il est important de prévoir des tests contradictoires effectués par des chercheurs indépendants. Il pourrait s’agir d’universitaires, d’entreprises privées ou d’ONG, mais ils auraient un regard critique sur le fonctionnement de la technologie.
Pour vous donner un exemple concret tiré de mes travaux de doctorat, nous avons étudié la manière dont les systèmes de reconnaissance des plaques d’immatriculation sont utilisés. Il s’agit des caméras utilisées par les forces de l’ordre pour capter et identifier automatiquement des centaines ou des milliers de plaques d’immatriculation à l’heure. Honnêtement, c’est assez phénoménal. Mais nous nous sommes contentés d’examiner les taux de faux positifs et de faux négatifs. C’est important, car ces systèmes et ces caméras fonctionnent souvent de la manière suivante : une voiture de police circule sur l’autoroute et reçoit un grand nombre d’alertes disant : Oh, voilà quelqu’un qui n’est pas enregistré ou qui a commis des délits plus graves. Mais lorsque le taux de faux positifs est élevé, on peut dire à tort: « Oh, Chris conduisait ici et il n’a pas le droit de conduire », alors qu’il s’agit en fait d’une erreur de lecture de la caméra.
Il est donc important de déterminer ces taux de faux positifs et de faux négatifs, car ils ont une incidence sur la capacité des forces de l’ordre à faire leur travail. C’est pourquoi il faut procéder à des tests contradictoires. Ce n’est pas parce que nous voulons saper, empêcher, prévenir ou bloquer l’utilisation de la technologie en tant que telle. Il s’agit plutôt de s’assurer que la technologie adoptée par la communauté des forces de l’ordre est adaptée à l’objectif visé et qu’elle est précise, à la fois pour protéger les droits des particuliers, mais aussi, honnêtement, pour veiller à ce que les forces de l’ordre se servent d’outils d’une utilité maximale dans le cadre de leur mission, dans le respect de l’éthique.
Ce qui compte est de s’assurer que les forces de l’ordre font preuve de transparence et adoptent des normes de responsabilisation strictes. Pourquoi? Parce que c’est la bonne chose à faire, mais idéalement aussi, je crois, pour que le public et les organismes de surveillance, comme le Bureau du commissaire à la protection de la vie privée, puissent comprendre ce qui se passe et ne condamnent pas systématiquement la police en disant, « ce que vous faites, ça ne marche pas ». Il s’agit en fait d’instaurer un climat de confiance et de pouvoir soulever les problèmes qui se présentent. Au cours de la dernière décennie, il y a eu de nombreux cas où les bureaux de commissaires à la vie privée, des groupes de citoyens, des universitaires et le public ont été informés des mois, voire des années, trop tard d’incidents qui étaient survenus. S’il y avait eu plus de responsabilisation, plus de transparence en amont, ces problèmes n’auraient peut-être pas éclaté et ils auraient pu être réglés bien avant que les préjudices ou difficultés ne surviennent.
PK :
Chris, pour conclure notre conversation, j’aimerais que vous vous projetiez quelques années dans l’avenir. Selon vous, quelles seront les questions les plus intéressantes, voire les plus difficiles, liées aux pratiques de maintien de l’ordre et à la protection de la vie privée en Ontario?
CP :
Je pense donc que pour ce qui est du maintien de l’ordre, il s’agit en fait d’examiner la politique internationale et les discussions juridiques en cours. Je vais vous donner quelques exemples. Au niveau international, il y a eu des mises à jour de ce que l’on appelle la Convention sur la cybercriminalité, qui a vraiment élargi le partage de renseignements et la collaboration en matière de maintien de l’ordre que nous pourrions observer à l’échelle internationale au cours de la décennie à venir. Cette convention accroîtra énormément la capacité des forces de l’ordre canadiennes à travailler avec leurs partenaires internationaux et vice-versa. Mais il est vrai que l’on s’inquiète de l’impact possible sur les droits de la personne et de l’élargissement des pouvoirs en vertu desquels cette collaboration pourrait avoir lieu.
Il y a aussi, un peu plus près de chez nous, à une échelle un peu moins internationale, ce que l’on appelle la Cloud Act des États-Unis. Cette loi permet au gouvernement américain de conclure des accords bilatéraux avec d’autres pays. Ces accords modifieront considérablement la manière dont les renseignements électroniques peuvent être partagés ou recueillis par les forces de l’ordre. Le Canada négocie actuellement l’un de ces accords avec les États-Unis. S’il se révèle semblable à ce que nous avons vu au Royaume-Uni et en Australie, les forces de l’ordre canadiennes seraient en mesure de délivrer des mandats à Facebook, par exemple, directement aux États-Unis, ce qui permettrait de contourner une grande partie des difficultés rencontrées actuellement en la matière.
Pourquoi cela est-il important? Eh bien, c’est important parce que si les forces de l’ordre canadiennes sont de plus en plus en mesure d’agir à l’étranger, elles pourront adopter un grand nombre de techniques en usage aux États-Unis. Il y a donc toutes sortes de choses qui sont très controversées aux États-Unis en ce moment. Des choses telles que les recherches par mots-clés, pour lesquelles on s’adresse à Google, à Microsoft ou à une autre société de moteurs de recherche en disant : « Nous recherchons les personnes qui ont effectué ce type de recherche parce que nous pensons qu’elles pourraient être liées à une activité criminelle. » Ou encore les mandats de géolocalisation où, là encore, on s’adresse soit à Apple, soit à Google ou à une autre société qui recueille des données de géolocalisation, pour demander : « Écoutez, nous voulons connaître les personnes qui se trouvaient à tel endroit à tel moment », vraisemblablement parce qu’un événement criminel réel ou présumé est survenu au cours de cette période.
Nous allons également assister à une augmentation probable de l’utilisation de logiciels malveillants au pays, c’est-à-dire que les forces de l’ordre canadiennes installent des logiciels malveillants sur des terminaux afin de recueillir des éléments de preuve. Il ne faut pas s’attendre à ce que toutes les forces de l’ordre du Canada disposent un jour tout à coup des mêmes pouvoirs et des mêmes capacités. Il devra y avoir beaucoup de formation. Je soupçonne que les grands services de police de l’Ontario, en particulier, seront en mesure d’utiliser ces outils beaucoup plus rapidement que les plus petits. Quoi qu’il en soit, nous allons voir apparaître toute une série de nouvelles possibilités technologiques en raison des changements juridiques internationaux qui se préparent. Je pense qu’il s’agit là d’un espace vraiment passionnant et dynamique pour voir ce qui se profile à l’horizon.
Et aussi, honnêtement et idéalement, travailler avec les forces de l’ordre avant que ces pouvoirs ne leur soient conférés et leur demander : « Bon, de quoi avez-vous besoin? Pourquoi? Comment ces outils peuvent-ils être utilisés de manière à protéger au maximum la vie privée, à minimiser les incidences sur les droits de la personne tout en permettant aux forces de l’ordre de mener à bien les opérations que la loi leur a confiées? »
PK :
Christopher, merci d’avoir participé à notre balado d’aujourd’hui. Ce fut une excellente conversation, et nous sommes très heureux que vous ayez rejoint le CIPVP. Vous nous avez donné beaucoup à réfléchir sur les technologies de maintien de l’ordre prédictif et sur les précautions à prendre pour protéger les droits des citoyens.
C’est tout pour le premier épisode qui donne le coup d’envoi à la troisième saison du balado L’info, ça compte. Je suis très enthousiaste quant aux questions de protection de la vie privée et d’accès à l’information que nous allons explorer cette saison, alors ne manquez pas les prochains épisodes. Les auditeurs qui veulent en savoir davantage sur nos initiatives et ressources dans le domaine de la nouvelle génération des forces de l’ordre et sur d’autres sujets touchant la protection de la vie privée et l’accès à l’information peuvent consulter notre site Web à cipvp.ca. Vous pouvez aussi nous appeler ou nous envoyer un courriel si vous avez besoin d’aide ou de renseignements généraux concernant les lois ontariennes sur l’accès à l’information et la protection de la vie privée. Merci d’avoir été des nôtres pour cet épisode de L’info, ça compte. À la prochaine.
Ici Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario, et vous avez écouté L’info, ça compte. Si vous avez aimé ce balado, laissez-nous une note ou un commentaire. Si vous souhaitez que nous traitions d’un sujet qui concerne l’accès à l’information ou la protection de la vie privée dans un épisode futur, communiquez avec nous. Envoyez-nous un gazouillis à @cipvp_ontario ou un courriel à @email. Merci d’avoir été des nôtres, et à bientôt pour d’autres conversations sur les gens, la protection de la vie privée et l’accès à l’information. S’il est question d’information, nous en parlerons.