S4-Épisode 2 : La technologie de reconnaissance faciale et la protection de la vie privée
Qu’elle serve à déverrouiller son téléphone intelligent ou à élucider des crimes, la technologie de reconnaissance faciale transforme l’identification. Dans cet épisode, nous traitons des conséquences des systèmes de reconnaissance faciale pour la vie privée et les droits de la personne en compagnie de Cynthia Khoo, avocate spécialisée en technologie et en droits de la personne.
Remarques
Cynthia Khoo est avocate spécialisée en technologie et en droits de la personne et a été récemment associée principale au Center on Privacy and Technology de l’école de droit de Georgetown University, à Washington. Elle est chercheuse attachée au Citizen Lab de l’Université de Toronto.
- Comment fonctionne la technologie de reconnaissance faciale [4:09]
- L’utilisation de la technologie de reconnaissance faciale par des organismes gouvernementaux [8:02]
- L’utilisation de la technologie de reconnaissance faciale dans le secteur privé [10:15]
- Les logiciels traqueurs et la technologie de reconnaissance faciale [15:07]
- L’incidence des algorithmes biaisés sur les groupes historiquement marginalisés [17:40]
- L’anonymat public, un droit essentiel en matière de vie privée [22:00]
- Document d’orientation sur la reconnaissance faciale et les bases de données de photos signalétiques à l’intention des services de police de l’Ontario [25:22]
- La possibilité de désactiver les systèmes de reconnaissance faciale [29:30]
- Balises et mesures de protection dans les contrats conclus avec des fournisseurs externes [32:12]
Ressources
- Your Face Belongs to Us, Kashmir Hill
- Gender Shades, Joy Buolamwini
- Wrongfully Accused by an Algorithm (Kashmir Hill, The New York Times, 3 août 2020)
- Another Arrest, and Jail Time, Due to a Bad Facial Recognition Match (Kashmir Hill, The New York Times, 6 janvier 2021)
- La reconnaissance faciale et les bases de données de photos signalétiques : document d’orientation à l’intention des services de police de l’Ontario (document d’orientation du CIPVP)
- R. c. Bykovets (arrêt de la Cour suprême du Canada)
- Priorités stratégiques du CIPVP 2021-2025
- La nouvelle génération des forces de l’ordre (ressources du CIPVP)
L’info, ça compte est un balado sur les gens, la protection de la vie privée et l’accès à l’information animé par Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario. Avec des invités de tous les milieux, nous parlons des questions qui les intéressent le plus sur la protection de la vie privée et l’accès à l’information.
Si vous avez aimé cet épisode, laissez-nous une note ou un commentaire.
Vous aimeriez en apprendre plus sur un sujet lié à l’accès à l’information ou la protection de la vie privée? Vous aimeriez être invité à une émission? Envoyez-nous un gazouillis à @cipvp_ontario ou un courriel à @email.
Transcriptions
Patricia Kosseim :
Bonjour. Ici Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario, et vous écoutez L’info, ça compte, un balado sur la protection de la vie privée et l’accès à l’information. Nous discutons avec des gens de tous les milieux des questions concernant l’accès à l’information et la protection de la vie privée qui comptent le plus pour eux.
Bonjour, chers auditeurs, et bienvenue à L’info, ça compte. Dans cet épisode, nous allons discuter d’une technologie qui vous a à l’œil. La technologie de reconnaissance faciale permet d’identifier une personne ou de vérifier qu’elle est bien celle qu’elle prétend être à partir de son visage. La distance entre vos yeux, la forme de votre nez, la longueur de votre mâchoire, toutes ces caractéristiques peuvent servir à créer un modèle numérique unique.
Avec ses nombreuses applications, la reconnaissance faciale se répand de plus en plus. Les entreprises du secteur privé, les organisations gouvernementales, les forces de l’ordre et les particuliers y font appel. Elle peut être utilisée pour vérifier votre identité, par exemple pour déverrouiller votre téléphone intelligent ou étiqueter des personnes sur des images que vous publiez sur les médias sociaux, ou pour identifier les locataires d’un immeuble, empêcher l’accès non autorisé et suivre les déplacements des visiteurs. Et les détaillants peuvent aussi s’en servir pour identifier d’éventuels voleurs à l’étalage.
Pour les forces de l’ordre, c’est un moyen de retrouver les personnes disparues, d’élucider des crimes et de surveiller les grandes foules plus efficacement. La technologie de reconnaissance faciale comporte assurément un large éventail d’applications possibles, mais quelle est son incidence sur la vie privée?
Nous allons découvrir les subtilités de la technologie de la reconnaissance faciale et ses vastes conséquences avec Cynthia Khoo, chercheuse au Citizen Lab de l’Université de Toronto et, plus récemment, associée principale au Center on Privacy and Technology de l’école de droit de Georgetown University, à Washington. Cynthia, bienvenue au balado et merci beaucoup d’avoir pris le temps, malgré votre emploi du temps chargé, de vous joindre à nous aujourd’hui.
Cynthia Khoo :
Merci beaucoup de m’avoir invitée.
PK :
Cynthia, commençons par un survol de votre parcours et des raisons qui vous ont amenée à vous intéresser au domaine de la technologie, des droits de la personne et de la protection de la vie privée.
CK :
Dès le début de mes études de droit, j’avais l’intention de me consacrer au droit des technologies. La science-fiction m’a toujours beaucoup intéressée, et je voulais donc faire quelque chose d’avant-gardiste, qu’il s’agisse de technologies émergentes ou de bioéthique dans le contexte du droit de la santé, par exemple. Mais tout a commencé par un séminaire vraiment formidable que j’ai suivi à l’Université de la Colombie-Britannique, sur la rhétorique des sciences de la santé et de la médecine, et qui m’a permis de m’initier aux études scientifiques et technologiques, un domaine interdisciplinaire qui touche à beaucoup de choses et sur lequel nous nous appuyons beaucoup lorsqu’il s’agit de technologie et des droits de la personne.
Donc, après avoir commencé mes études de droit, j’ai sauté sur toutes les occasions de travailler dans ce domaine, que ce soit sur les droits d’auteur et la liberté d’expression, la neutralité d’Internet, l’accès abordable à Internet ou la violence sexiste facilitée par la technologie. Cela m’a conduit à une carrière juridique peu orthodoxe, parce que j’ai vraiment choisi de travailler aux choses qui m’intéressaient le plus.
Et puis j’ai fini par faire des recherches au Citizen Lab. J’ai fait ma maîtrise en droit dans le programme de droit et de technologie de l’Université d’Ottawa. Et puis bien sûr, comme vous l’avez mentionné, j’ai travaillé ces dernières années au Center on Privacy and Technology de l’école de droit de Georgetown University, qui est très axé sur les droits de la personne.
PK :
Votre passion pour toutes ces questions qui se situent à l’intersection de la technologie, des droits de la personne, de la communication et du droit de la vie privée est vraiment fascinante, et je la partage. Cette conversation s’annonce donc passionnante. Cynthia, les auditeurs ne connaissent peut-être pas la technologie de reconnaissance faciale. Pouvez-vous nous expliquer comment elle fonctionne?
CK :
En gros, la technologie de reconnaissance faciale permet d’identifier des personnes en fonction des caractéristiques de leur visage. Comme vous l’avez déjà mentionné, qu’il s’agisse de l’espace entre vos yeux, de la forme de votre menton, de mesures prises à partir de différents points de votre visage qui sont ensuite utilisées pour créer une empreinte faciale que l’on compare aux empreintes d’autres visages, que ce soit dans une grande base de données ou sur une photo que vous avez déjà remise à la personne responsable du système, par exemple.
La reconnaissance faciale a donc deux grands types d’utilisations. Dans le premier cas, elle sert à déverrouiller son iPhone, par exemple, ou à l’aéroport, ou pour obtenir des services gouvernementaux, quand il faut prouver son identité. Il s’agit de comparer votre photo à une autre photo de vous, ce que l’on appelle la reconnaissance faciale biunivoque.
L’autre utilisation, celle dont on parle le plus en général quand il s’agit de ses conséquences pour la vie privée, consiste à établir l’identité d’une personne à partir d’une photo, en utilisant une base de données contenant des centaines ou des milliers de photos; il peut s’agir d’une base de données de photos signalétiques, ou d’une base de profils de médias sociaux, n’importe quel genre de base de données contenant un grand nombre de photos. Donc la reconnaissance « un à plusieurs » consiste à prendre une photo d’une personne et à consulter une base de données pour déterminer si elle contient une photo correspondante et établir ainsi l’identité de la personne.
On a donc la photo de la personne, qui peut provenir d’une caméra de vidéosurveillance, d’une vidéo, d’une image fixe ou d’Internet. On peut ensuite traiter la photo pour la rendre plus claire si l’éclairage est mauvais, si l’angle est bizarre, si quelque chose dans la photo peut être rendu plus clair pour obtenir une meilleure correspondance. Une fois que la photo est prête à traiter, on la soumet au système de reconnaissance faciale et les algorithmes prennent une empreinte faciale de cette photo et la comparent aux empreintes faciales déjà enregistrées dans la base de données.
Quand on obtient une correspondance, ce n’est pas comme dans les séries policières à la télé, où les enquêteurs se disent voilà, on a trouvé notre homme. On se retrouve plutôt avec une série de photos qui sont des correspondances potentielles ou probables; il peut y en avoir cinq, ou une dizaine. Et le système de reconnaissance faciale, dépendamment de ses fonctionnalités, indique un degré de confiance pour chacune de ces correspondances.
Certaines photos ont un code de couleur, d’autres se voient attribuer un niveau de confiance en pourcentage; certains systèmes classent les photos en ordre de correspondance. C’est alors que l’analyste humain doit choisir les photos qui, à son avis, correspondent le mieux à la photo de référence du suspect, s’il s’agit d’une enquête criminelle. Et ensuite il envoie à l’équipe d’enquêteurs soit la photo qu’il a jugée comme étant la bonne, soit les cinq ou dix photos les plus ressemblantes. Et naturellement, le résultat varie selon le système et le contexte. Mais je pense qu’il s’agit là du contexte le mieux connu, et qui suscite le plus d’inquiétudes pour ce qui est de la reconnaissance faciale.
PK :
Il s’agit là d’une explication vraiment excellente. Comme vous l’avez dit, cette technologie n’est pas infaillible, n’est-ce pas?
CK :
En effet.
PK :
Dans votre explication, vous avez donné un exemple dans le contexte du maintien de l’ordre où on utilise cette technologie pour des enquêtes. Mais avant de nous concentrer sur cet exemple, je voudrais parler des autres utilisateurs de cette technologie. Comment l’utilisent-ils et l’implantent-ils et à quelles fins?
CK :
Il existe plusieurs exemples d’organismes gouvernementaux qui ne sont pas chargés du maintien de l’ordre et qui utilisent la reconnaissance faciale avec plus ou moins de succès ou de controverse. Ces dernières années, aux États-Unis, au palier fédéral, le fisc a mis en place un système de reconnaissance faciale pour la déclaration de revenus de l’année en cours. Mais face au tollé et aux réactions négatives, il a décidé de faire marche arrière. Chez nous, il y a eu une série d’affaires d’immigration dans lesquelles on a allégué que le ministère fédéral de l’Immigration utilisait des technologies de reconnaissance faciale pour révoquer le statut de réfugié de certaines personnes. Les demandeurs avaient vu leur demande acceptée, puis des semaines ou des années plus tard, ils faisaient l’objet d’une enquête et on leur disait : « Nous avons trouvé une photo de vous qui indique que votre identité n’est pas celle que vous nous avez déclarée. Par conséquent, vous ne remplissez pas les critères d’octroi du statut de réfugié et vous devez donc quitter le pays. »
Ces cas sont très intéressants, car on affirme qu’une technologie de reconnaissance faciale a dû être utilisée, car où a-t-on trouvé ces photos? Pourquoi affirme-t-on qu’il y a une correspondance avec ces différentes identités? Et si c’est le cas, est-ce que ce constat est fiable? Quelles étaient les autres photos? Quelles sont les données que l’on a utilisées? Il s’agit là d’un énorme problème d’application régulière de la loi, car si on ne dit même pas que la technologie a été utilisée, comment peut-on faire quelque chose à ce sujet ou corriger les erreurs, surtout si l’on sait à quel point la technologie peut manquer de fiabilité et être biaisée?
PK :
Nous avons évoqué l’utilisation de la technologie de reconnaissance faciale par les forces de l’ordre et par d’autres institutions gouvernementales, notamment les services d’immigration. Mais qu’en est-il du secteur privé? Pourquoi utiliserait-il cette technologie?
CK :
Merci de poser cette question très pertinente, car c’est surtout l’utilisation des technologies de reconnaissance faciale par les forces de l’ordre et les organismes gouvernementaux qui retiennent l’attention, alors qu’elles sont de plus en plus employées dans le secteur privé. On peut citer comme exemple le centre commercial Cadillac Fairview, en Alberta, où l’on a découvert que les indicateurs contenaient des technologies de reconnaissance faciale, ce qui a été considéré comme une violation de la loi provinciale sur la protection de la vie privée.
Récemment, aux États-Unis, le stade Madison Square Gardens a attiré l’attention des médias parce qu’on a découvert que l’entreprise avait dressé une liste d’avocats travaillant dans des cabinets qui représentaient des personnes ayant intenté des poursuites contre ce stade, et qu’elle avait dressé une liste noire de tous ces avocats, même s’ils n’étaient pas impliqués dans l’affaire. Si vous travailliez dans un cabinet, vous vous retrouviez sur la liste noire. Un avocat l’a découvert en essayant de se présenter à un événement, et quelqu’un lui a dit qu’il lui était interdit d’entrer parce qu’il figurait sur cette liste, et que leur système de reconnaissance faciale l’avait reconnu.
Ce qui est remarquable dans ces cas particuliers, c’est de voir à quel point ces entreprises se sont permis des libertés et ont fait preuve d’opacité dans le déploiement de la technologie de reconnaissance faciale. Personne n’était au courant jusqu’à ce qu’on découvre par hasard qu’elles n’avaient pas à demander d’autorisation pour quoi que ce soit. Mais je pense que nous constatons un retour de bâton. Par exemple, Fight for the Future, une organisation à but non lucratif qui défend la liberté d’Internet aux États-Unis, a mené une campagne incroyable en réponse à l’incident du Madison Square Gardens. Elle a obtenu la signature de plus d’une centaine de musiciens et d’artistes qui ont déclaré qu’ils boycotteraient toute salle de concert qui utiliserait la technologie de reconnaissance faciale.
Alors il y a déjà des gens qui commencent à réagir parce que c’est un sujet qui les touche beaucoup, on parle du visage des gens. Quand on perd sa carte de crédit ou son permis de conduire, on peut les faire remplacer, mais on ne peut pas vraiment changer de visage. Je pense donc qu’il s’agit d’une question qui frappe les gens de manière beaucoup plus immédiate que d’autres questions liées à la protection de la vie privée.
PK :
Eh bien, je suis avocate et heureusement que la technologie de reconnaissance faciale n’existait pas lorsque je suis allée voir Billy Joel au Madison Square Gardens, parce que c’était un concert fantastique et j’aurais été bien déçue qu’on m’empêche d’y assister. Mais sérieusement, il est inquiétant que ces technologies soient de plus en plus accessibles, directement accessibles aux gens, qui peuvent utiliser ces logiciels. Nous commençons à observer des utilisations très néfastes de ces technologies, et j’aimerais que vous nous parliez un peu de vos recherches sur certaines des utilisations individuelles des technologies de reconnaissance faciale.
CK :
Tout à fait. Kashmir Hill donne des détails fascinants à ce sujet dans son livre sur le Clearview AI. Avant que Clearview ne devienne un nom connu de tous, lorsque ses fondateurs présentaient leur projet à des investisseurs, ils leur donnaient une des premières versions de leur application pour qu’ils puissent s’en servir à leur guise. Il y a un passage dans ce livre sur des investisseurs qui montraient cette application lors de soirées ou de rendez-vous, aux membres de leur famille, et ces cercles, grâce à leur argent et à leur pouvoir, ont bénéficié secrètement d’un accès précoce à cette application incroyablement envahissante pour la vie privée, dont ils se servaient essentiellement pour épater la galerie.
Autre exemple : il existe de nombreux cas où des personnes ont réussi à bricoler des technologies de reconnaissance faciale en ligne en accédant à des bases de données de codes à source ouverte puis à les utiliser ou à les distribuer à des personnes par le biais de canaux privés, de forums de discussion ou simplement en ligne à tous ceux qui le souhaitaient, et où ces personnes les ont utilisées ensuite à des fins malveillantes.
Par exemple, à un moment donné, des utilisateurs s’en servaient pour découvrir l’identité d’actrices dans des vidéos pornographiques qu’ils regardaient ou pour découvrir l’identité de travailleuses du sexe, pour leur faire honte ou découvrir si une connaissance, une collègue ou une camarade de classe avait des photos osées ou des photos d’elle nue en ligne. Ce niveau de transgression a donc un aspect très sexiste.
Il y a plusieurs années, j’ai co-rédigé un rapport sur les logiciels traqueurs, et les applications de ce type sont des applications mobiles que l’on peut se procurer n’importe où (Google Play, Apple App Store) et que l’on peut installer sur le téléphone d’une personne. Elles permettent de suivre toutes les activités de son téléphone, qu’il s’agisse de ses textos, de ses appels, de l’historique de ses appels, de la suivre à distance et de la surveiller par le biais de son micro ou de sa caméra, de l’accès à ses plateformes de médias sociaux et à ses messages privés sur les médias sociaux, des réseaux Wi-Fi qu’elle utilise, de l’endroit où elle se trouve, de sa géolocalisation.
Donc on a désormais accès à une quantité vraiment massive de données. Ces applications peuvent fonctionner secrètement, de sorte que la personne ne se rend pas compte que l’application est installée sur son téléphone et ne sait pas ce qui se passe. Ou bien souvent, elles sont utilisées ouvertement pour exercer un pouvoir et un contrôle sur la personne. Dans le contexte de la violence conjugale, par exemple, l’agresseur veut que la personne sache qu’il surveille ses moindres faits et gestes.
Il en résulte toute une série de préjudices, financiers, professionnels, émotionnels, physiques, psychologiques, sans parler des atteintes aux droits de la personne, car imaginez les conséquences pour la vie privée et la liberté d’expression d’une personne si elle sait que tout ce qu’elle dit sera surveillé. Il y a donc d’une part ces logiciels traqueurs et d’autre part les personnes qui développent ces technologies de reconnaissance faciale.
Il n’est donc pas difficile d’imaginer que des gens utiliseront ces deux types de technologies à la fois dans différentes situations, par exemple, vous voyez dans la rue ou dans un bar une personne que vous trouvez séduisante. Vous prenez une photo d’elle et tout de suite, vous avez accès à tous ses profils dans les médias sociaux, à son nom, et peut-être même à son lieu de travail ou à son adresse personnelle, selon ce qui se trouve en ligne.
Quand on parle de technologie, on s’attarde parfois à un aspect particulier, puis à un autre, mais il est tout à fait possible que tous ses aspects convergent pour avoir tous à la fois une incidence sur la vie d’une personne. Il ne faut pas l’oublier quand on réfléchit à chacun de ces aspects.
PK :
Vous avez beaucoup parlé des préjudices causés aux particuliers. Qu’en est-il des préjudices causés aux groupes? Quel est l’impact éventuel des technologies de reconnaissance faciale sur les groupes ou les communautés, en particulier les groupes marginalisés ou racialisés?
CK :
De nombreuses études ont été menées sur le fait que les algorithmes de reconnaissance faciale finissent par être biaisés à l’encontre de certains groupes historiquement marginalisés. Par exemple, la Dre Joy Buolamwini est coautrice d’une étude intitulée Gender Shades qui montre que les algorithmes de classification faciale sont plus imprécis pour les femmes à la peau foncée que pour tous les autres groupes démographiques. Si l’on utilise ces algorithmes dans des situations réelles comme le maintien de l’ordre ou l’accès aux services publics, on peut imaginer leur impact disproportionné sur les personnes à l’égard desquelles ils fonctionnent le moins bien.
Dans son livre Unmasking AI, elle a dit une chose qui m’a vraiment frappée : pas plus de 4,4 % des données sur lesquelles se fonde l’un des algorithmes qu’elle a testés portaient sur des femmes de couleur. Elle a donc expliqué qu’il serait possible qu’un algorithme utilisant cet ensemble de données identifie mal toutes les femmes de couleur, mais que s’il réussissait à identifier tous les autres groupes démographiques, cet algorithme serait toujours considéré comme étant précis à 95,6 %, et personne ne saurait qu’il présente toutes ces disparités internes, à moins de creuser derrière l’algorithme et d’examiner ces différents groupes démographiques.
Différents types d’algorithmes de reconnaissance faciale ont fait l’objet d’autres tests montrant qu’ils peuvent être jusqu’à cent fois plus imprécis en ce qui concerne les visages de Noirs, d’Asiatiques ou d’Autochtones que ceux d’hommes de race blanche. Encore une fois, quand on pense aux conséquences de ce phénomène, elles sont énormes pour les groupes démographiques qui sont déjà, comme on le sait, trop surveillés, criminalisés, incarcérés, victimes de brutalité policière et de discrimination.
Une telle technologie ne ferait donc que renforcer tous ces préjugés et ces résultats discriminatoires systémiques. Mais avec une couche supplémentaire d’opacité, de sorte que les gens peuvent prétendre qu’ils utilisent une technologie scientifique et mathématique, qui ne peut donc pas être biaisée. Mais bien sûr, nous avons déjà constaté que c’est tout à fait possible. Il suffit de songer aux arrestations injustifiées qui ont déjà eu lieu aux États-Unis à la suite de l’utilisation d’algorithmes de reconnaissance faciale biaisés.
Nous connaissons notamment le cas de Robert Williams, qui a été arrêté devant ses deux filles alors qu’il avait un alibi pour le crime commis à l’époque. Nous connaissons le cas de Michael Oliver, qui a passé 2 jours et demi en prison, et de Nigel Parks, qui a passé 10 jours en prison, sans avoir été informés de la nature de l’infraction ou avant que ne soient vérifiés les photos ou éléments utilisés aux fins de la reconnaissance faciale.
Je ne serais donc pas surprise que cela se soit produit ou se produise au Canada si nous devions déployer davantage cette technologie, compte tenu du racisme endémique dans l’industrie technologique, si l’on considère les profils démographiques des personnes qui travaillent dans cette industrie et qui créent ces technologies. Je pense donc que les gens doivent faire attention en déployant ces technologies. Même si elles semblent fonctionner très bien pour le public en général, les atteintes à la vie privée ne peuvent pas être considérées uniquement sous l’angle de leur incidence sur le grand public; il faut déterminer quelles parties de la population sont touchées, car certaines d’entre elles seront toujours touchées plus durement et connaîtront des résultats plus défavorables. Et il s’agit toujours des mêmes groupes en raison de la discrimination historique, de la discrimination systémique.
PK :
Je vais vous dire une chose que je ne crois pas, mais que bien des gens disent, et j’aimerais que vous la réfutiez en vos propres mots. C’est le vieux dicton qui dit que si on n’a rien à cacher, où est le problème? Pourquoi s’en faire au sujet des technologies de surveillance comme la reconnaissance faciale quand on est en public? Pourquoi est-ce important, et pourquoi doit-on s’en soucier?
CK :
C’est une excellente question. L’anonymat en public est un droit essentiel en matière de vie privée. La Cour suprême du Canada l’a reconnu et ce droit est donc protégé par la constitution. Bon nombre de nos lois sur la protection de la vie privée ont été élaborées en partant du principe que les gens jouissent généralement de l’anonymat lorsqu’ils circulent en public. Premièrement, quand ce dicton a été formulé, personne ne pouvait prendre une photo de vous en public et connaître tout à votre sujet aussitôt. Et deuxièmement, il faut songer à tout ce qui pourrait arriver si l’on ne pouvait plus être anonyme en public.
Mentionnons quelques exemples. Si on se fonde sur l’exemple de harcèlement que j’ai mentionné tantôt, une personne a échappé à une situation de violence conjugale, et une autre peut la retracer parce qu’elle a été aperçue par hasard dans un café et identifiée, et son assaillant en a eu vent. Aussi, des agents d’infiltration pourraient être identifiés s’ils sont impliqués dans une altercation avec quelqu’un.
Prenons l’exemple d’un cas typique de rage au volant : normalement, l’incident se produit, puis on s’en va et on espère généralement que c’est fini. Mais que se passerait-il si la personne en état de rage au volant pouvait prendre une photo de vous et vous suivre jusque chez vous ou déterminer votre lieu de travail et, si elle était vindicative, vous poursuivre jusque-là? Il n’y a plus de limite à ce qui pourrait arriver, car l’espace physique n’est plus une contrainte.
Lorsqu’il s’agit de libertés civiles, pensons à l’impossibilité de participer à une manifestation sans que la police ou le gouvernement ne puisse savoir tout de suite qui vous êtes ou quel est votre employeur, au fait que des personnes puissent éventuellement user de représailles contre vous parce que vous vous êtes exprimé et que vous avez des convictions. Voilà pourquoi il est important de préserver notre vie privée en public.
En réponse à l’argument voulant qu’on n’ait rien à craindre si on n’a rien à cacher, je dirais deux choses. La première est que ce n’est pas parce qu’on n’a rien à cacher que d’autres personnes n’ont pas des choses à cacher, non pas parce qu’elles ont fait quelque chose de mal, mais parce qu’il y a des gens qui les poursuivent ou parce qu’elles ont été injustement persécutées pour leurs opinions politiques ou leurs actions ou parce qu’elles sont historiquement victimes de discrimination.
Essentiellement, il ne s’agit pas toujours de votre situation personnelle, mais de la protection d’autres personnes. Et ce n’est pas parce que vous n’avez pas besoin de certaines protections qu’il est justifié d’empêcher les personnes qui en ont besoin de les obtenir. Le deuxième point est que vous n’avez rien à cacher pour l’instant, mais que ça peut changer très rapidement. Vous ne savez pas ce qui se passera à l’avenir. Peut-être qu’un gouvernement qui n’est pas d’accord avec la façon dont vous vivez votre vie ou avec un aspect de votre identité sera porté au pouvoir.
Ce n’est donc pas toujours le fait de n’avoir rien à cacher qui est en cause, mais plutôt qui est au pouvoir et comment on pourrait utiliser ce pouvoir contre vous, et voilà pourquoi tout le monde a besoin de ces protections.
PK :
Je pense au nombre de photos sur lesquelles vous et moi, ou n’importe qui, devons figurer par inadvertance après avoir croisé tant de touristes prenant des égoportraits ou des photos de groupe. Nous devons figurer sur des centaines, voire des milliers de ces photos quelque part. Et quand on pense qu’on peut nous reconnaître sur ces photos, et que si on les rassemblait toutes, elles pourraient raconter une véritable histoire, non seulement sur les personnes qui étaient censées se trouver sur la photo, mais aussi sur des gens comme vous et moi qui sont simplement captés parce qu’ils se trouvaient à cet endroit au moment où la photo a été prise.
Il s’agit d’un phénomène très préoccupant qui témoigne d’un empiétement constant sur notre droit à l’anonymat. Je pense que vous avez tout à fait raison de le souligner. Cynthia, vous savez que nous avons récemment publié un document d’orientation à l’intention des services de police de l’Ontario qui utilisent ou ont l’intention d’utiliser la technologie de reconnaissance faciale en lien avec des bases de données de photos signalétiques, et ce document se concentre sur ce cas d’utilisation précis de la technologie de reconnaissance faciale.
Je me demande ce que vous pensez de ce document d’orientation et si vous croyez qu’il sera utile aux forces de l’ordre qui envisagent d’utiliser la technologie de reconnaissance faciale pour faciliter ou accélérer leurs recherches dans les bases de données de photos signalétiques, afin d’identifier d’éventuels suspects.
CK :
Absolument. Je pense qu’il sera incroyablement utile, en partie parce qu’il est très spécifique et concret, ce qui me plaît beaucoup. Souvent, lorsqu’il s’agit de discussions sur la technologie, la société et les droits de la personne, sur la manière de les réglementer ou sur ce qu’il faut faire, il est très facile de s’en tenir à des politiques abstraites ou à ce qui devrait être fait sur le plan conceptuel, ce qui est évidemment un point de départ. Mais en fin de compte, il faut en venir à l’essentiel, c’est-à-dire aux agents de police qui se retrouvent dans une situation où ils se demandent quoi faire. Que dois-je faire en premier? Que dois-je faire ensuite?
Et je pense que ce document d’orientation ramène les choses à ce niveau. Il évoque les considérations précises dont ils doivent tenir compte dans les documents particuliers qu’ils doivent préparer, qu’il s’agisse d’une évaluation de l’incidence sur la vie privée ou de la consignation des modes d’utilisation de la technologie de reconnaissance faciale. Le fait qu’il se limite si explicitement à la technologie de reconnaissance faciale dans le contexte des bases de données de photos signalétiques est également une excellente chose, comme le fait qu’il insiste toujours sur la protection de la vie privée, l’égalité, les libertés civiles et les droits de la personne, en plus de la transparence et de la reddition de comptes.
Le fait qu’il souligne que l’utilisation de ces outils doit être nécessaire et proportionnelle. Et aussi le fait qu’il accorde une attention particulière au rôle des fournisseurs de technologies de reconnaissance faciale. Il s’agit là d’un élément essentiel, car les entreprises privées ne sont pas soumises aux mêmes normes. Elles ne sont pas nécessairement liées par la constitution au même titre que les entités chargées de l’application de la loi. Ainsi, lorsque les forces de l’ordre font appel à des fournisseurs externes du secteur privé, il faut accorder beaucoup d’attention à cette relation, la réglementer et s’assurer que l’on ne se retrouve pas dans une situation où des fournisseurs privés peuvent recueillir toutes ces données, sans aucune garantie constitutionnelle, puis les vendre ou les partager sans mandat avec les forces de l’ordre, qui les utilisent ensuite aux fins de leurs enquêtes criminelles, lesquelles devraient être soumises à des garanties constitutionnelles.
Tout ce système aboutit donc à ce que l’on pourrait considérer comme un contournement de l’article 8 de la Charte, qui protège notre droit à la vie privée. Ainsi, sans s’arrêter à cet aspect particulier, il en résulte une énorme faille qui devrait susciter beaucoup d’inquiétude. Enfin, je pense qu’il faut toujours avoir à l’esprit la possibilité de revenir en arrière, d’annuler ou d’abandonner un système avant même qu’il ne soit déployé, car si cette option n’est pas envisageable, toutes les consultations et les mises en garde ne servent pas à grand-chose.
Donc je crois qu’il ne faut pas oublier de toujours se donner la possibilité de revenir en arrière. Ce n’est pas parce qu’on s’est engagé sur une voie qu’il faut toujours y rester. On peut toujours changer de cap.
PK :
Il est intéressant que vous évoquiez le rôle du fournisseur externe de ces technologies et l’importance d’examiner la source de la technologie, la façon dont elle est élaborée et sa légalité. C’est surtout à la lumière du récent arrêt de la Cour suprême du Canada dans l’affaire R. c. Bykovets, qui, comme vous le savez, s’est vraiment concentrée sur le tiers et l’ajout de ce tiers à notre écosystème constitutionnel, et qui a pris ce qui était une relation horizontale entre le particulier et l’État et l’a transformée en une relation tripartite.
Je pense donc que votre remarque est très importante. Je pense aussi qu’il est très utile de souligner la nature détaillée du document d’orientation comme vous l’avez fait, car c’est exactement ce que les forces de l’ordre avaient demandé : de nous concentrer sur cette seule utilisation pour fournir des conseils plus détaillés et plus concrets afin de les aider alors qu’elles envisagent de mettre en œuvre cette technologie.
Si vous le permettez, j’aimerais vous poser une dernière question avant de vous quitter. Comme vous le savez, notre priorité stratégique qui porte sur la nouvelle génération des forces de l’ordre est d’un grand intérêt pour notre bureau. Notre objectif est de contribuer à renforcer la confiance du public dans les forces de l’ordre en collaborant avec les parties prenantes concernées pour élaborer les balises nécessaires à l’adoption de nouveaux programmes ou de nouvelles technologies qui visent à la fois à protéger la sécurité publique, mais aussi les droits des Ontariens et des Ontariennes en matière de protection de la vie privée et d’accès à l’information.
Quels conseils auriez-vous à nous donner sur nos travaux futurs dans ce domaine prioritaire? Comment faire avancer cette priorité stratégique à votre avis?
CK :
Je pense que la plupart de mes suggestions à ce sujet reprendraient essentiellement des choses dont j’ai parlé tantôt à propos des technologies de reconnaissance faciale, mais qui, à mon avis, s’appliquent à la nouvelle génération des forces de l’ordre dans son ensemble. Ainsi, par exemple, en se concentrant sur la relation entre les technologies de maintien de l’ordre et les fournisseurs commerciaux externes, ce serait formidable si le CIPVP publiait des orientations sur ce que les organismes publics et les entités chargées du maintien de l’ordre devraient faire lorsqu’ils concluent des contrats avec ces entités commerciales privées ou lorsqu’ils envisagent de s’appuyer sur elles, pour garantir la protection de nos droits en matière de vie privée et le respect de certaines normes, par exemple en veillant à ce que des obligations particulières soient incluses dans tous les contrats conclus et en disposant d’un moyen de faire en sorte que ces fournisseurs externes respectent ces contrats.
Une autre chose que je voudrais suggérer pour susciter la confiance du public serait de toujours prévoir, comme je l’ai dit tantôt, un moyen de revenir en arrière et d’annuler des initiatives. Je pense que cet aspect serait très efficace pour favoriser la confiance du public.
PK :
Peut-être qu’un projet n’aurait pas à être annulé en permanence, mais parfois suspendu, par exemple, en attendant que ces balises puissent être posées et que les problèmes soulevés puissent être réglés. Donc il ne s’agirait pas toujours d’un refus permanent, mais peut-être d’une simple pause, alors je pense qu’il s’agit d’une excellente suggestion. Et ce que vous avez dit au sujet d’orientations concernant les accords d’externalisation ou les contrats avec des fournisseurs externes, c’est intéressant, parce que nous sommes sur le point de publier un document d’orientation pour aider les institutions publiques à continuer de respecter leurs obligations en matière de protection de la vie privée et de reddition de comptes dans le cadre de tels contrats, et y incluant des dispositions appropriées. Alors vous pourrez le lire sous peu.
Cynthia, merci beaucoup d’avoir pris le temps de vous joindre à nous aujourd’hui et de nous faire part de votre point de vue sur les technologies de reconnaissance faciale. Vous avez manifestement beaucoup réfléchi, lu et écrit sur le sujet, et ce fut donc un privilège pour nous de passer un peu de temps avec vous aujourd’hui.
CK :
Merci beaucoup de m’avoir invitée. Je suis impatiente de lire ce document d’orientation, et ce fut un plaisir de m’entretenir avec vous.
PK :
Comme nous venons de l’entendre, la reconnaissance faciale est un sujet d’actualité et quelque peu controversé, et Cynthia nous a expliqué de manière simple et directe quelques-unes des principales préoccupations liées à cette technologie. Si vous souhaitez en savoir plus sur la reconnaissance faciale et la nouvelle génération des forces de l’ordre, je vous invite à visiter notre site Web à cipvp.ca. Vous pouvez également lire notre récent document d’orientation sur l’utilisation par la police de la technologie de reconnaissance faciale en lien avec des bases de données de photos signalétiques. Et vous pouvez toujours donner un coup de fil ou envoyer un courriel à notre bureau pour obtenir de l’aide et des renseignements généraux concernant les lois ontariennes sur l’accès à l’information et la protection de la vie privée. Voilà, c’est tout pour aujourd’hui. Merci d’avoir été des nôtres pour cet épisode de L’info, ça compte. À la prochaine.
Ici Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario, et vous avez écouté L’info, ça compte. Si vous avez aimé ce balado, laissez-nous une note ou un commentaire. Si vous souhaitez que nous traitions d’un sujet qui concerne l’accès à l’information ou la protection de la vie privée dans un épisode futur, communiquez avec nous. Envoyez-nous un gazouillis à @cipvp_ontario ou un courriel à @email. Merci d’avoir été des nôtres, et à bientôt pour d’autres conversations sur les gens, la protection de la vie privée et l’accès à l’information. S’il est question d’information, nous en parlerons.