Blogue de la commissaire

Plongez dans les billets de blogues perspicaces de la commissaire Kosseim sur la confidentialité, l’accès, la cybersécurité et au-delà. Restez informé et explorez les dernières informations.

L’intelligence artificielle dans le secteur public : instaurer la confiance aujourd’hui et pour l’avenir

A woman standing in front of a projected image of a globe.

Le 24 janvier 2024, la commissaire à l’information et à la protection de la vie privée (CIPVP) a eu le plaisir de convier les Ontariens à un événement public pour célébrer la Journée de la protection des données. Le thème était Un gouvernement moderne : l’intelligence artificielle dans le secteur public. Si vous n’avez pas pu y assister en personne ou en ligne, la webémission est disponible ici sur notre chaîne YouTube.

Voici quelques points forts et enseignements clés de l’événement.

Les promesses exaltantes de l’intelligence artificielle (IA)

Les technologies de l’IA offrent de formidables possibilités d’améliorer les services publics. Elles peuvent être utilisées pour accélérer le traitement et la distribution des prestations publiques, pour éclairer les décisions des décideurs politiques et pour améliorer la communication avec les citoyens et l’engagement de ces derniers.

Les technologies de l’IA sont également de plus en plus utilisées pour diagnostiquer plus tôt des problèmes de santé complexes, améliorer la sécurité publique et répondre aux urgences mondiales.

Autrement dit, l’IA a le potentiel de transformer le monde tel que nous le connaissons aujourd’hui.

Une enquête réalisée en 2023 par le Global Government Forum a révélé que plus d’un fonctionnaire canadien sur dix déclare avoir utilisé des outils d’intelligence artificielle tels que ChatGPT dans le cadre de son travail. Ce chiffre devrait continuer à augmenter jusqu’en 2024, car ces technologies progressent rapidement et s’intègrent de plus en plus dans le travail quotidien.

Risques associés et dommages potentiels

Bien que les possibilités qu’offre l’IA sont prometteuses, nous savons qu’il y a des risques. L’IA n’est pas infaillible et peut entraîner des erreurs coûteuses et des situations fâcheuses.

Les algorithmes défaillants peuvent perpétuer les préjugés ancrés dans les données utilisées pour les former, et ainsi exacerber les effets négatifs subis par les groupes vulnérables et historiquement désavantagés.

L’IA s’appuie souvent sur de très grands volumes d’informations personnelles ou d’ensembles de données qui peuvent ne pas être correctement protégés et ne pas toujours être collectés légalement à la source. L’IA s’appuie souvent sur de très grands volumes d’informations personnelles ou d’ensembles de données qui peuvent ne pas être correctement protégés et qui n’ont peut-être pas toujours été collectées à la source en toute légalité.

Depuis que certains outils d’IA générative, comme ChatGPT, sont devenus accessibles au grand public et à vaste échelle, on s’inquiète de plus en plus de la façon dont les consommateurs peuvent les utiliser pour créer et diffuser des informations erronées. Parfois, la parodie peut être drôle et tout à fait anodine, mais il arrive que ce ne soit pas le cas. Les cybervoleurs simulent déjà les voix de PDG et les utilisent pour faire croire aux employés qu’ils doivent transférer de l’argent au moyen d’attaques d’hameçonnage de plus en plus sophistiquées. On utilise les hypertrucages pour induire le public en erreur en forgeant de fausses déclarations faites par des dirigeants politiques, ce qui porte atteinte à nos processus démocratiques. Les hypertrucages peuvent également faire des ravages sur les marchés financiers et causer de graves préjudices, en ruinant la réputation de certaines personnes ou en créant de fausses images sexuelles d’elles.

Là où la magie a véritablement opéré

Nous avons eu le privilège de pouvoir discuter des possibilités et des risques avec un groupe d’experts issus de différents domaines d’expertise, notamment la philosophie, l’histoire, les sciences politiques, l’économie, le droit, la psychologie sociale et la technologie. Chacun d’entre eux a offert un point de vue unique en s’appuyant sur ses vastes connaissances et son expérience.

Cependant, la vraie magie a opéré lorsqu’on les a entendus discuter les uns avec les autres! Mises en commun, leurs contributions ont été particulièrement riches, perspicaces et engageantes, et ont permis de faire avancer le dialogue entourant l’utilisation responsable de l’IA dans le secteur public.

Quel nuage de mots l’IA vous inspire-t-elle?

Pour lancer la conversation, nous avons posé la question suivante à chacun des panélistes :

Sachant que chacun d’entre vous, dans le cadre de ses fonctions, passe une grande partie de sa journée à réfléchir et à parler d’IA, si nous pouvions dresser un nuage de mots au-dessus de votre tête, quels seraient les trois mots les plus importants pour vous?

Pour Melissa Kittmer, sous-ministre adjointe, ministère des Services au public et aux entreprises, ces mots étaient : digne de confiance, transparente et responsable. Elle a parlé du cadre pour l’IA digne de confiance du gouvernement de l’Ontario qui est en cours d’élaboration depuis 2021 dans le cadre de la stratégie de l’Ontario en matière de données et de technologies numériques. Ce cadre fondé sur les risques repose sur trois principes : 1) pas d’utilisation d’IA en secret; 2) une utilisation de l’IA en laquelle les résidents de l’Ontario peuvent avoir confiance; et 3) une IA qui sert tous les résidents de l’Ontario.

Melissa a souligné l’importance de repérer et de gérer les risques liés à l’IA. Il peut notamment s’agir du risque de discrimination et de violation des droits de la personne, d’atteintes à la vie privée, d’utilisation abusive de la propriété intellectuelle et de la propagation d’informations erronées. Elle a souligné qu’il incombe aux fonctionnaires d’atténuer ces risques lorsqu’ils s’appuient sur l’IA pour accomplir leur travail.

Les trois mots de Stephen Toope : enthousiasme, inquiétude et complexité. En tant que président et chef de la direction de l’Institut canadien de recherches avancées (CIFAR), Stephen a parlé de la Stratégie pancanadienne en matière d’IA du CIFAR. . La stratégie a été lancée en 2017 dans le but de renforcer les capacités de recherche en matière d’IA au Canada, tout en garantissant la responsabilité, la sécurité, l’équité et l’inclusion. Aujourd’hui, le Canada est devenu une plaque tournante en termes de talents. Nous nous classons au premier rang des pays du G7 pour ce qui est de la croissance des talents en matière d’IA et de leur concentration, et au premier rang mondial pour ce qui est du pourcentage d’augmentation des talents féminins dans ce secteur! Le Canada est également le leader mondial sur le plan des publications en matière d’IA par habitant. Le Canada se classait auparavant au quatrième rang pour ce qui est de l’« état de préparation en matière d’IA », du point de vue de l’investissement, de l’innovation et de la mise en œuvre, mais a chuté au cinquième rang, en partie à cause de notre manque d’accès à une puissance superinformatique. Tandis que d’autres pays sont en train de mettre au point d’importantes plateformes informatiques, le Canada est à la traîne. Ainsi, bien que le Canada soit un exemple de réussite, il s’agit d’une réussite conditionnelle qui nécessite des investissements continus dans les infrastructures et une meilleure capacité à protéger notre propriété intellectuelle.

Stephen a ajouté qu’à mesure que nous approfondissons notre compréhension de l’IA, nous devons également mettre en place des mécanismes de protection appropriés pour lutter contre la discrimination et les autres risques. Bien que certains aient réclamé un pacte mondial sur l’IA, il pense qu’il est peu probable que cela se produise. Nous devrions plutôt nous tourner vers des cadres locaux et nationaux – voire des coalitions réglementaires – pour garantir l’harmonisation de normes élevées et éviter un nivellement vers le bas.

Le chef des politiques technologiques et de l’analyse du Bureau du CIPVP, Christopher Parsons, a opté pour les mots « dynamique », « nuancée » et « bruyante ». Chris a parlé de l’utilisation de l’IA pour renforcer la sécurité nationale et l’application de la loi. Il a souligné la croissance rapide des technologies de surveillance, la chute des coûts de la puissance informatique, l’amélioration de l’accès aux capacités analytiques utilisées pour extraire des informations des données, qui sont tous des éléments aujourd’hui exploités à des fins de sécurité publique. Bien que cela puisse se révéler positif à certains égards, par exemple, sur le plan de la cybersécurité et des systèmes de défense automatisés, il peut également en découler des répercussions considérables sur notre vie privée et nos droits de la personne, et, au final, sur la confiance du public.

Chris a mis l’accent sur les craintes que suscitent ces pratiques obscures, dont beaucoup se déroulent en secret, et la collecte massive d’informations personnelles, parfois à partir de sources illégales. Les conclusions tirées de ces données sont en grande partie invisibles et ne sont pas toujours exactes, mais elles peuvent permettre de prendre des décisions qui ont des conséquences sur la vie des gens. Cela peut se traduire par l’identification et l’accusation injustifiée de personnes qui n’ont pas la possibilité de comprendre comment elles sont entraînées dans le système de justice pénale. Cela pourrait exacerber les préjugés et la discrimination, porter atteinte au droit à l’application régulière de la loi et à un procès impartial, et entraver la liberté d’expression et d’association des citoyens.

Fait intéressant, Colin McKay, anciennement responsable des politiques publiques chez Google, a choisi des mots similaires à ceux de Chris. Colin a jeté un regard historique et contextuel sur les avancées technologiques des 25 dernières années. À l’époque, les entreprises technologiques ne disposaient pas des équipes internes nécessaires pour communiquer clairement au public ou aux organismes de réglementation la manière dont elles collectaient et utilisaient les informations personnelles, ni de cadres de responsabilité à respecter. Cela a instauré un climat de méfiance à l’égard de l’utilisation des technologies, ce qui définit naturellement le contexte dans lequel nous envisageons aujourd’hui les applications de l’IA destinées aux consommateurs.

Colin a souligné la possibilité pour les entreprises, grandes et petites, de tirer parti de leur expérience passée pour le développement technologique au sens large. Il a suggéré qu’elles pourraient le faire en élargissant leurs équipes d’experts spécialisés, notamment en y incluant des technologues, des avocats spécialisés en protection de la vie privée, des spécialistes de la sécurité des données et des éthiciens, afin d’expliquer les complexités de l’IA et de communiquer publiquement à ce sujet d’une manière plus nuancée. Le secteur privé peut jouer un rôle clé en faisant avancer le débat sur la propreté des données et l’optimisation des processus de manière à réduire les préjugés et à améliorer les résultats. Il a également exhorté à l’élaboration de cadres de gouvernance durables pour l’IA, étayés par des investissements clés dans l’ensemble de l’industrie, afin de garantir une utilisation claire, ciblée et responsable de la technologie de l’IA d’un point de vue éthique.

Pour Teresa Scassa, titulaire de la Chaire de recherche du Canada en politiques et droit de l’information de l’Université d’Ottawa, le risque, la réglementation et la gouvernance étaient au premier plan. Elle a fait valoir que les cadres législatifs et politiques pourraient être uniformisés dans tout le pays, dans la lignée de la Loi sur l’intelligence artificielle et les données du gouvernement fédéral. Il n’en reste pas moins que les provinces ont encore des espaces normatifs à occuper compte tenu de la réalité fédérale du Canada. L’un de ces espaces, qui revêt une grande importance, est le secteur public provincial, notamment les soins de santé et l’application de la loi.

Avant de déployer l’IA, l’Ontario doit se poser des questions fondamentales en matière de gouvernance, par exemple : quels types de problèmes essayons-nous de résoudre? L’IA est-elle l’outil approprié pour résoudre ces problèmes? Si oui, quel type d’IA, conçu par qui, quelles données devraient l’alimenter et qui en bénéficiera?

Dans leur rôle réglementaire, les provinces doivent s’efforcer d’aligner leurs lois et leurs politiques sur celles des autres administrations, tant à l’échelle nationale qu’internationale, et tirer parti de leur expérience pratique pour les mettre en œuvre. Teresa a également souligné la nécessité de donner aux organismes de réglementation existants, dont ceux chargés de la protection de la vie privée et des droits de la personne, les moyens de traiter les questions liées à l’IA qui se posent dans leurs domaines de compétence respectifs.

Les trois mots de Jeni Tennison (en anglais), fondatrice et directrice exécutive de Connected by Data, au Royaume-Uni, sont: pouvoir, communauté et vision. Jeni a abordé certains des défis et des perspectives liés à la transparence de l’IA. Elle a parlé de la nécessité pour les programmeurs d’IA d’être transparents à des fins et à des niveaux différents. Cela suppose une transparence à l’égard du public en vue de renforcer sa confiance, à l’égard des acheteurs de systèmes d’IA afin qu’ils puissent faire preuve de la diligence requise, à l’égard des utilisateurs prévus de l’IA afin qu’ils puissent s’acquitter de leurs obligations professionnelles en toute confiance, et enfin à l’égard des organismes de réglementation à des fins d’audit et de responsabilité. Un certain degré de transparence est également nécessaire pour permettre une concurrence loyale sur le marché, ce qui est particulièrement important dans un contexte public, afin d’éviter que le gouvernement ne se trouve coincé dans une relation avec un seul fournisseur.

Jeni a également mis l’accent sur l’importance d’expliquer comment un système basé sur l’IA aboutit à un résultat donné, afin que les personnes concernées et leurs représentants puissent comprendre ce qui se passe derrière les portes closes. Ces connaissances les aideront à s’attaquer aux préjugés, aux inexactitudes et à l’injustice.

Jeni a expliqué pourquoi la transparence est nécessaire non seulement en ce qui concerne les modèles algorithmiques et le processus de développement, mais aussi les résultats des évaluations de l’incidence, ainsi que le nombre et l’issue des plaintes reçues. Ces informations sont importantes pour permettre à la population de comprendre quand et où les choses peuvent mal tourner, ce qui est essentiel pour rééquilibrer les relations de pouvoir et remédier au manque de confiance du public.

Enfin, Jeni a insisté sur la nécessité de renforcer les capacités et la puissance informatiques. Cela est important non seulement pour les innovateurs et les programmeurs, mais aussi pour la société civile, le monde universitaire, les organismes de réglementation et d’autres organisations dont le rôle est de demander aux développeurs de rendre compte de leur utilisation et de leur déploiement de l’IA.

Nécessité d’établir des mécanismes de protection et des limites

Les gouvernements des pays du monde entier sont en train d’élaborer des lois pour traiter ces questions et d’autres questions liées à l’IA.

Le Conseil et le Parlement européens sont parvenus à un accord provisoire après de longues négociations sur la proposition de loi de l’UE en matière d’IA. Cette proposition prévoit une approche fondée sur les risques pour réglementer l’IA et soutenir l’innovation, plus de transparence et de responsabilité, et plusieurs filets de sécurité. Cela comprend l’interdiction de la manipulation cognitivo-comportementale, de l’extraction d’images faciales sur l’Internet et de l’utilisation de la notation sociale et de la catégorisation biométrique pour déduire des données sensibles.

En Californie (en anglais), on a introduit la AI Accountability Act dans le but de créer une feuille de route, des mécanismes de protection et des règlements régissant l’utilisation des technologies de l’IA par les organismes d’État. Cela implique notamment une obligation d’informer le public lorsqu’il interagit avec l’IA.

Au Canada, la Loi sur l’intelligence artificielle et les données, dans le cadre du projet de loi C-27, imposerait la mise en place de mesures pour déceler et atténuer les risques de préjudice ou de résultats biaisés, et pour contrôler la conformité.

Toutefois, cette loi ne couvrirait pas le secteur public en Ontario, c’est pourquoi il est essentiel que nous concevions notre propre cadre ici.

Le gouvernement de l’Ontario a déjà pris des mesures encourageantes en élaborant divers composants d’un cadre pour l’intelligence artificielle digne de confiance. Néanmoins, l’Ontario peut et doit en faire plus.

La suite pour l’IA : les initiatives du CIPVP

Sensibiliser et mettre en lumière le besoin crucial d’une gouvernance solide en matière d’IA a été au premier plan des initiatives du Bureau du CIPVP ces dernières années.

En mai dernier, le CIPVP a publié une déclaration commune avec la Commission ontarienne des droits de la personne. Nous avons exhorté le gouvernement de l’Ontario à établir un ensemble plus solide et plus précis de règles contraignantes régissant l’utilisation de l’IA par le secteur public, qui respecte les droits de la personne, dont la protection de la vie privée, et qui considère la dignité humaine comme une valeur fondamentale.

Mon bureau s’est également joint à ses homologues fédéraux, provinciaux et territoriaux pour publier les Principes pour des technologies de l’intelligence artificielle (IA) générative responsables, dignes de confiance et respectueuses de la vie privée. Ces principes visent à aider les organisations à intégrer la protection de la vie privée dès la conception des outils d’IA générative et pendant leur développement, leur mise à disposition et leur utilisation en aval. Ils visent à atténuer les risques, en particulier pour les groupes vulnérables et historiquement marginalisés, et à garantir que le contenu génératif, qui pourrait avoir des répercussions considérables sur les gens, soit identifié comme étant généré par l’IA générative.

À l’international, le CIPVP a co-parrainé deux résolutions lors de la 45e Assemblée mondiale pour la protection de la vie privée, qui ont été adoptées à l’unanimité par les autorités chargées de la protection des données dans le monde entier. L’un porte sur les systèmes d’intelligence artificielle générative et l’autre sur l’intelligence artificielle et l’emploi. Ces deux thèmes sont étroitement liés et nous rejoignent dans le genre de choses que nous avons dites et réclamées ici.

Le futur de l’IA

Nous devrions être fiers de savoir que le Canada et l’Ontario se distinguent nettement dans le monde entier en matière d’innovation dans le domaine de l’IA. Les systèmes algorithmiques sont de puissants outils de mesure, de gestion et d’optimisation qui peuvent contribuer à stimuler l’économie, à diagnostiquer et à traiter les maladies, à assurer notre sécurité et peut-être même à sauver notre planète.

En fin de compte, l’adoption réussie des outils d’IA par les institutions publiques ne peut se faire que si le public a confiance dans l’efficacité de la gestion de ces outils. Pour gagner cette confiance, nous devons veiller à ce qu’ils soient utilisés en toute sécurité, dans le respect de la vie privée et de l’éthique, et à ce qu’ils produisent des résultats et des avantages équitables pour tous les citoyens.

— Patricia

Contact média

Pour une réponse rapide, veuillez nous envoyer un e-mail ou nous téléphoner avec les détails de votre demande tels que le média, le sujet et la date limite :

E-mail : @email
Téléphone : 416-326-3965

Contactez-nous

Médias Sociaux

Le CIPVP maintient des chaînes sur Twitter, YouTube et Linkedin afin de communiquer avec les Ontariens et les autres personnes intéressées par la vie privée, l'accès et les questions connexes.

Notre politique relative aux médias sociaux

Aidez-nous à améliorer notre site web. Cette page a-t-elle été utile?
Lorsque l'information n'est pas trouvée

Note:

  • Vous ne recevrez pas de réponse directe. Pour toute autre question, veuillez nous contacter à l'adresse suivante : @email
  • N'indiquez aucune information personnelle, telle que votre nom, votre numéro d'assurance sociale (NAS), votre adresse personnelle ou professionnelle, tout numéro de dossier ou d'affaire ou toute information personnelle relative à votre santé.
  • Pour plus d'informations sur cet outil, veuillez consulter notre politique de confidentialité.