Podcast

S4-Épisode 4: L’intelligence artificielle dans les soins de santé : mettre en balance l’innovation et la protection de la vie privée

Info Matters Podcast Awards Cover Graphic FR

L'intelligence artificielle (IA) a le potentiel d'accélérer et d'améliorer de nombreux aspects des soins de santé, du diagnostic au traitement. Cependant, l'utilisation de l'IA dans les soins de santé soulève également des questions importantes concernant la vie privée, la sécurité des patients, l'éthique et la transparence. Le Dr Devin Singh, de l’Hospital for Sick Children de Toronto, parle de l'équilibre entre les avantages et les risques de cette technologie transformatrice.

Remarques

Le Dr Devin Singh est urgentologue et chef du service d’IA clinique et d’apprentissage automatique en urgentologie pédiatrique au Hospital for Sick Children (SickKids). Il est également cofondateur et PDG de Hero AI.

  • Conjuguer médecine et apprentissage automatique [2:21]
  • Le décès d’un patient donne lieu à une réflexion sur la prestation des soins [3:27]
  • Démystifier l’intégration de l’IA dans l’urgentologie pédiatrique [5:03]
  • Applications concrètes de l’IA à SickKids [7:31]
  • Considérations touchant la protection de la vie privée et l’éthique à prendre en compte dans la mise en œuvre de l’IA [9:04] 
  • Atténuer les biais dans les données et s’assurer que les modèles de données sont représentatifs [11:26]
  • Transparence et consentement éclairé des patients [14:05]
  • Surveillance humaine des systèmes d’IA et de leurs prédictions [16:05]
  • Respect de l’autonomie des patients et de leurs décisions [20:10]
  • Protection contre les risques liés à la cybersécurité [23:02]
  • Utilisation de la technologie de scribe IA [25:34]
  • Prédictions concernant l’avenir de l’IA dans les soins de santé [29:16]

Ressources :

L’info, ça compte est un balado sur les gens, la protection de la vie privée et l’accès à l’information animé par Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario. Avec des invités de tous les milieux, nous parlons des questions qui les intéressent le plus sur la protection de la vie privée et l’accès à l’information.

Si vous avez aimé cet épisode, laissez-nous une note ou un commentaire. 

Vous aimeriez en apprendre plus sur un sujet lié à l’accès à l’information ou la protection de la vie privée? Vous aimeriez être invité à une émission? Envoyez-nous un gazouillis à @cipvp_ontario ou un courriel à @email

Transcriptions

Patricia Kosseim : 

Bonjour. Ici Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario, et vous écoutez L’info, ça compte, un balado sur les gens, la protection de la vie privée et l’accès à l’information. Nous discutons avec des gens de tous les milieux des questions concernant l’accès à l’information et la protection de la vie privée qui comptent le plus pour eux.  

Bonjour, chers auditeurs, et bienvenue à un autre épisode de L’info, ça compte. 

L’intelligence artificielle fait beaucoup parler d’elle ces jours-ci, et fait la manchette partout dans le monde. L’IA offre une foule de possibilités dans beaucoup d’aspects de nos vies, et nous constatons ses avantages concrets en temps réel. Pour le système de santé surchargé du Canada, qui se remet encore des effets de la pandémie et des graves pénuries de travailleurs, un peu d’aide de l’IA pourrait avoir un effet vraiment transformateur.  

L’intégration d’outils d’IA dans les soins de santé pourrait contribuer à atténuer le fardeau administratif, et améliorer la gestion des ressources ainsi que l’expérience globale des patients et du personnel. Tout ça semble positif en théorie, mais l’intégration de l’IA dans les soins de santé soulève d’importantes questions concernant la protection de la vie privée, l’éthique et la transparence. Comment savoir si les données sensibles sur la santé seront protégées? 

Les données sont-elles utilisées pour entraîner des algorithmes d’IA biaisés? Pouvons-nous nous fier seulement à la technologie pour poser les bons diagnostics? Notre invité d’aujourd’hui nous aidera à démêler certaines de ces questions complexes. Le Dr Devin Singh est urgentologue et dirige le service d’IA clinique en urgentologie pédiatrique au Hospital for Sick Children de Toronto (SickKids). 

Il est également cofondateur et PDG de Hero AI, une compagnie qui s’emploie à mettre à profit l’IA pour résoudre certains des problèmes les plus pointus dans le secteur de la santé. Dr Singh, soyez le bienvenu. 

Dr Devin Singh : 

Merci, Patricia. J’ai vraiment hâte de parler de bon nombre des sujets que vous venez tout juste d’aborder, alors je suis impatient de commencer. 

PK : 

Absolument, il y a beaucoup de choses à dire. Mais avant d’aborder le cœur du sujet, vous pourriez peut-être nous parler de votre parcours en médecine et en technologie.   

À titre de spécialiste en urgentologie pédiatrique, qu’est-ce qui vous a attiré vers l’IA clinique et l’apprentissage automatique à SickKids? 

DS : 

Je n’avais pas d’antécédents techniques en informatique avant d’arriver à l’école de médecine. J’étais passionné par la technologie, les ordinateurs et les derniers gadgets, mais je n’avais vraiment pas reçu de formation structurée dans ce domaine. En fait, j’ai poursuivi mes études en médecine à l’Université de Sidney, en Australie. 

Et j’ai eu la chance de pouvoir revenir à Toronto et de faire ma résidence en pédiatrie au Hospital for Sick Children à l’Université de Toronto. C’est vraiment pendant ma formation que j’ai commencé à être exposé aux réalités des soins de santé. Quand on étudie en médecine, on admire parfois ces tours d’ivoire et le prestige qui les accompagne. 

Et on ne rend pas compte qu’il y a de dures réalités dans les soins de santé, qui sont invisibles jusqu’à ce qu’on commence à y travailler. Certaines de ces dures réalités comprennent ce que vous avez évoqué dans votre introduction, les temps d’attente pour les patients et l’augmentation subite du nombre de patients. La demande dépasse parfois les ressources dont on dispose, même dans les meilleurs établissements du monde. 

J’ai commencé à me demander comment on pourrait repenser la prestation des soins de santé au niveau du système. Un cas en particulier s’est présenté : un patient qui, malheureusement, est décédé. Un décès qui aurait pu être évité si notre système de santé était conçu différemment. Je me souviens que j’étais un débutant dans l’équipe, j’ai donné la respiration artificielle à cet enfant, et je l’ai littéralement senti partir.   

Quand on voit les conséquences pour ce jeune enfant, on examine le cas et on se dit, « si telle ou telle chose avait été différente, je pense vraiment que cet enfant pourrait être vivant ». Cela a vraiment touché une corde sensible chez moi et m’a amené à penser différemment. Je me suis mis à penser à l’amélioration de la qualité et au flux des patients, et je suis devenu un expert dans ce domaine.  

Je me suis rendu compte que ces choses seraient difficiles à mettre en application à grande échelle. Il fallait autre chose. Je suis tombé par hasard sur l’apprentissage automatique et l’IA, bien entouré de mentors vraiment exceptionnels. Soudainement, un déclic s’est fait et je me suis aperçu que différents aspects du problème lié à ce cas terrible auraient pu être réglés par l’IA.  

Tout ça m’a passionné. J’ai appris à programmer et à écrire du code d’apprentissage automatique, puis j’ai été admis à l’Université de Toronto dans le programme de maîtrise en informatique. On m’a vraiment montré à comprendre sur le plan technique, théorique et pratique les applications de l’apprentissage automatique dans le secteur de la santé. Voilà où j’en suis maintenant. 

PK : 

C’est une histoire tragique, mais aussi un exemple percutant qui montre comment un cas réel peut inspirer une trajectoire professionnelle qui, dans votre cas, transforme réellement les soins de santé à SickKids. 

Maintenant, il serait utile pour bon nombre de nos auditeurs de démystifier quelques aspects de votre travail. À quoi ressemble une journée normale pour vous? Pouvez-vous mentionner quelques cas de base qui justifient l’intégration de l’IA dans l’urgentologie pédiatrique? 

DS : 

Mon travail est très varié dans le sens où je travaille toujours comme médecin urgentiste à l’hôpital. Puis je consacre une partie de mon temps à réfléchir aux applications de l’IA et de l’apprentissage automatique dans les soins de santé. J’examine un problème précis comme celui que j’ai décrit et je me demande comment recourir à l’apprentissage automatique pour le régler. 

Laissez-moi donc vous donner un exemple concret. Dans le cas que j’ai décrit, que serait-il arrivé si nous avions pu utiliser un modèle d’apprentissage automatique pour prévoir quels pourraient être les tests en aval pour les enfants qui se présentent avec des problèmes courants comme une appendicite, une infection urinaire, peut-être une fracture du bras? Si nous pouvions, quand une personne arrive aux urgences, utiliser quelques données pour prévoir qu’il faudra lui faire subir tel ou tel test.  

Donc, serait-il possible d’utiliser un système d’IA qui commande les tests dès l’arrivée du patient? Ce dernier n’a peut-être pas à attendre de six à huit heures pour qu’un médecin lui dise quelque chose d’évident, comme « oui, faisons une échographie », et attendre encore deux heures de plus pour subir le test et obtenir un diagnostic. Si on pouvait entraîner un algorithme d’apprentissage automatique pour qu’il puisse faire cette prévision?  

Donc le test pourrait être commandé automatiquement pour que les patients aient leur diagnostic plus vite, et soient traités plus rapidement. C’est une façon d’utiliser l’IA pour régler des problèmes concrets et améliorer les soins. Quand on parle de démystifier l’intelligence artificielle, je pense qu’il est important pour les gens de savoir que la majorité des modèles d’apprentissage automatique que nous élaborons sont personnalisés à l’interne, et utilisent les données des patients.   

Et faire ensuite des prévisions qui sont sûres, éthiques et responsables, et qui correspondent à ce que les patients nous demandent de faire, de sorte que la conception se fait en collaboration avec les patients. La majeure partie de mon travail consiste exactement en cela, essayer de prendre ce que je vois dans ma pratique clinique pour fournir des soins. Puis tenter de trouver les problèmes et de les résoudre d’une manière qui, je l’espère, correspond à ce que les patients souhaitent.  

PK : 

C’est un bon exemple d’utilisation de l’IA pour accélérer les tests médicaux à faire, afin que le médecin finisse par rencontrer le patient, poser un diagnostic et donner le traitement approprié.  

Avez-vous d’autres exemples qui ont des retombées ou des applications concrètes à SickKids aujourd’hui? 

DS : 

Je pourrais parler par exemple de l’utilisation des données d’imagerie pour accélérer l’imagerie médicale, le diagnostic et le traitement, et fournir ce dernier de façon beaucoup plus précise. Nous avons des cas d’usage qui font intervenir de petites molécules et des marqueurs biomédicaux et génétiques. 

Pouvons-nous élucider les causes moléculaires et génétiques d’une maladie, puis élaborer des thérapies ciblées pour l’éliminer? Dans notre unité de soins intensifs, par exemple, un modèle d’apprentissage automatique est alimenté par des données en temps réel pour prédire les arrêts cardiaques. 

Nous nous demandons si nous pouvons utiliser un modèle d’apprentissage automatique pour prédire si le patient fera un arrêt cardiaque et mobiliser une équipe pour lui, ce qui nous donne une longueur d’avance. Même si c’est juste quelques minutes, cette différence peut sauver la vie de patients. 

PK : 

Ce sont là d’excellents exemples provenant du microcosme de SickKids. Mais quand on imagine leur application à l’ensemble du système de santé, on se demande combien d’autres solutions efficaces pourraient être mises en œuvre afin d’alléger le fardeau du système de santé. 

Tout cela semble très excitant et prometteur, mais comme nous le savons vous et moi, l’utilisation de l’IA présente aussi des risques en aval. Quels facteurs éthiques et liés à la protection de la vie privée rencontrez-vous quand vous mettez en œuvre ces applications prometteuses de l’IA dans le système de santé? 

En particulier, dans un établissement qui traite de jeunes enfants, comment gérez-vous ces enjeux? 

DS : 

Pendant ce parcours, en particulier pendant les cinq dernières années au cours desquelles nous avons mis en œuvre ces technologies, nous avons reconnu qu’il fallait prévoir une gouvernance, de la rigueur et de la réflexion relativement à quelques thèmes particuliers : la protection de la vie privée, le cadre réglementaire et l’éthique. Et nous nous sommes demandé comment composer avec ces aspects à l’interne, à SickKids. 

Mais comment appliquer ces technologies à l’échelle du pays? C’est réellement notre mission, avoir une incidence mondiale sur la transformation des soins pédiatriques. À cette fin, ce n’est pas nécessairement la technologie qui est le plus difficile. C’est la réflexion concernant la protection de la vie privée, l’éthique, la sécurité des patients et la gouvernance. 

Concrètement, nous avons mis environ quatre ans à concevoir ce qu’on appelle le « I Get AI Framework », le cadre « je comprends l’IA », qui fait en sorte que l’élaboration des technologies à l’interne fait l’objet de tous les contrôles nécessaires à chacune des étapes, dès le début. Aucun de ces projets ne voit le jour sans une évaluation réglementaire approfondie, qui aborde des enjeux comme la protection de la vie privée, l’incidence sur la sécurité des patients…  

Et nous évaluons aussi quelles pourraient être les conséquences inattendues de la mise en œuvre de ces technologies pour le système.  

PK : 

Avez-vous des exemples de conséquences inattendues que vous avez cherché à éviter relativement à certaines de ces technologies? 

DS : 

Un très bon exemple est le biais. Nous savons qu’il y a des biais dans les données des systèmes de santé. C’est tout naturel. C’est ce qui est encodé dans les données. Quand nous entraînons les algorithmes d’apprentissage automatique, nous tenons toujours compte des biais. Alors, comment nous convaincre que nous avons fait une évaluation approfondie des biais avant de déployer un algorithme d’apprentissage automatique? 

Si on ne tenait pas compte des biais, on pourrait déployer par inadvertance un outil qui, à grande échelle, causerait des torts à une population particulière. En fait, ce sont nos populations vulnérables qui pourraient être à risque, car elles ne sont pas nécessairement bien représentées dans les données. Il y a des choses à faire pour lutter contre ça. Premièrement, il faut évaluer les biais de façon extrêmement rigoureuse.  

Parce que la chose la plus dangereuse c’est de penser qu’on l’a fait, alors qu’en réalité, on ne l’a pas bien fait. Il y a différentes méthodes. Il peut y avoir une solution technique permettant de faire en sorte que le modèle d’apprentissage automatique interprète les données de façon à atténuer les biais. Mais alors, on peut se demander pourquoi, quand on parle un langage particulier, il y a une légère différence dans le cheminement clinique. 

Et on revient alors à l’espace clinique. En fait, on revient là où les données sont générées et on se demande ce qui s’est passé, pourquoi il y a un biais. En faisant cette évaluation rigoureuse au début du processus, il est possible de modifier l’environnement clinique. Une autre façon de s’y prendre est de regrouper les données. 

Particulièrement en pédiatrie, où on n’a pas nécessairement une quantité massive de données au même endroit, il faut faire appel à des établissements de tout le pays pour régler ces problèmes ensemble, à l’unisson. Pour atténuer les biais, il faut s’assurer que toute la population du Canada est bien représentée dans les données avec lesquelles nous entraînons les modèles.      

Cela nous amène à une question vraiment intéressante : comment protéger la vie privée, les renseignements personnels, dans cette situation? Une personne pourrait-elle prendre des données de différentes provinces et les déplacer physiquement dans une autre province? Peut-être que ce n’est pas une bonne idée. Peut-être que nous devrions penser à des types de techniques d’apprentissage automatique qui permettraient de conserver les données dans les différentes provinces, d’entraîner un ensemble de modèles plus petits puis de les regrouper. 

Comment mettre ces données à profit pour tout le monde, afin que tous soient représentés dans ces modèles et atténuer ce biais? C’est ici que le rendement de la technologie, la protection de la vie privée,  les biais et la sécurité convergent. 

PK : 

Voilà un excellent exemple et une excellente discussion sur la façon de gérer les biais. Y a-t-il d’autres aspects? Par exemple, comment gérez-vous les questions de consentement et de transparence avec vos patients ou leurs parents, qui sont les mandataires spéciaux dans bien des cas? 

DS : 

La transparence signifie différentes choses. Par exemple, cest s’assurer qu’un patient ou une patiente est informé dans les cas où l’intelligence artificielle interviendra dans les décisions concernant ses soins. Je pense que les patients veulent le savoir. Nous sommes très transparents avec les familles et les enfants quant aux technologies que nous utilisons et aux circonstances où nous les employons. C’est aussi très important d’en parler avec les parents ou le mandataire.  

Cependant, ces communications doivent également être adaptées aux enfants, parce qu’ils veulent savoir. Ils participent activement au débat. En fait, nous avons un conseil, l’AI Youth Council, dans le cadre duquel nous élaborons ces projets, nous les concevons activement avec nos jeunes pour les écouter et tenir compte de leur point de vue. Laissez-moi vous dire que ces enfants sont très bien informés. Ils parlent de protection de la vie privée, de cybersécurité. 

Ils ne veulent pas subir accidentellement une prise de sang parce qu’une IA a décidé qu’ils devraient en avoir une alors que ce n’est pas nécessaire. Une autre chose : le consentement. Le consentement éclairé suppose que la personne comprend réellement ce que fait le modèle. Pour obtenir un consentement éclairé, un clinicien doit aussi comprendre ce que la technologie fait pour pouvoir l’expliquer à la famille.   

Il y a beaucoup de documentation sur l’IA en santé pour que les cliniciens qui utilisent les outils comprennent ce que c’est et soient en mesure d’obtenir un consentement éclairé, en veillant à ce que les parents et les enfants aient un choix. Que c’est normal si, dans une situation particulière, une personne refuse que l’intelligence artificielle contribue à ses soins. Ce devrait être accepté. 

PK : 

Très intéressant. Il est vrai que les jeunes d’aujourd’hui comprennent bon nombre de ces enjeux. Nous-mêmes ici au CIPVP avons un Conseil consultatif de la jeunesse, qui nous donne des avis sur la protection de la vie privée et la transparence concernant les enfants et les jeunes, et sur la façon de tenir des débats pertinents sur ces sujets. 

Et comment les adapter en fonction de l’âge d’une manière qui correspond à leur niveau de compréhension, sans jamais les sous-estimer évidemment?  

Une autre question qui me vient à l’esprit, et à laquelle vous avez fait allusion : que faites-vous si le modèle d’IA prévoit un certain résultat clinique et recommande un examen médical? Comment vous assurez-vous que les renseignements sont réellement exacts et précis, pour que l’on n’ait pas à subir un examen médical inutile, en particulier s’il y a des risques? À quel niveau de surveillance humaine sont assujettis ces modèles d’IA? 

DS : 

En fait, cela dépend du modèle et de son utilisation concrète. Laissez-moi vous donner un exemple, parce qu’on a parlé de l’utilisation possible des données de triage aux urgences pour prévoir le test dont une personne qui aurait une appendicite, par exemple, aurait besoin. L’IA serait en mesure de prévoir que le patient aura besoin d’une échographie abdominale, laquelle serait commandée automatiquement. 

Dans ce scénario, nous devons nous assurer que ce modèle fonctionne bien, en déterminant combien de fois il a pris une bonne décision. Nous créons le modèle au moyen de données antérieures. Ensuite, s’il semble bien fonctionner, nous l’intégrons dans un flux opérationnel en temps réel, ce qui signifie qu’en temps réel, à mesure que les patients arrivent aux urgences, le modèle fait une prévision. 

Cependant, nous ne révélons pas encore les résultats, car nous cherchons à savoir si le modèle fonctionne vraiment comme prévu dans un environnement réel. Si les résultats sont bons, la question est de savoir ce qui se passe ensuite si nous activons le modèle et s’il fonctionne bien. Eh bien, c’est simple parce que comme vous l’avez dit, nous voulons accélérer les soins.   

Mais si selon le modèle, vous n’avez pas une appendicite, nous n’allons pas simplement vous renvoyer chez vous. On vous fera passer par le modèle de soins normal, vous verrez un médecin et si un test est nécessaire, on vous appellera au moment voulu comme cela se fait normalement. Nous réduisons ainsi le risque de manquer quelque chose.  

Prenons le même modèle et appliquons-le au domicile d’un patient. Que se passerait-il si nous demandions aux patients d’utiliser le même genre de modèle qui met leurs données dans une appli. L’appli dira : « Oui, vous avez peut-être une appendicite, rendez-vous immédiatement au service d’imagerie diagnostique. » Wow! Vous auriez un diagnostic beaucoup plus vite. Mais qu’arriverait-il si le modèle se trompait et s’il vous disait que vous n’avez rien, alors qu’en fait, vous avez quelque chose?  

Vous êtes chez vous, alors quel est votre filet de sécurité? Quelle surveillance et quel flux opérationnel humain peuvent vous protéger contre ce risque? Je vous donne ces exemples opposés parce que ce qu’ils mettent en lumière, c’est que ce n’est pas tant le modèle et l’apprentissage automatique qui comptent, mais la façon dont vous comptez utiliser ce modèle, en comprenant les risques qui peuvent se manifester si le modèle se trompe.    

Tout ça est conçu en collaboration avec les patients et les familles pour qu’ils comprennent ce à quoi on s’attend. Est-ce le cheminement qu’ils souhaitent? C’est vraiment important, parce qu’en tant que chef de file en IA et en pratique clinique, on peut poser beaucoup d’hypothèses, mais elles sont souvent erronées. Il faut vraiment travailler de concert avec les familles et les patients.   

Il s’agit d’établir ces nouveaux modèles de travail avec eux, main dans la main, pour bien les appliquer. Le dernier élément quant à la surveillance, c’est qu’une fois le modèle déployé, elle n’est pas terminée. Il faut s’assurer que le rendement du modèle se maintient avec le temps. Il faut donc exercer une surveillance humaine et veiller à ce que le modèle reste sécuritaire.  

PK : 

Il y a un autre enjeu qui m’inquiète parfois et dont on parle peu dans ces discussions. Comment tenez-vous compte du droit d’une personne de ne pas connaître certains diagnostics qui peuvent changer sa vie? C’est une chose d’obtenir un diagnostic rapide, pour pouvoir prendre les mesures nécessaires ou avoir le choix de les prendre pour atténuer les risques cliniques.  

Mais qu’arrive-t-il si la situation ou le diagnostic est un résultat clinique pour lequel il n’y a rien à faire? Si les patients ne peuvent réellement rien faire au sujet d’un résultat qui peut changer leur vie, s’il faut leur dire, par exemple, que leur espérance de vie est raccourcie ou qu’ils sont atteints d’une maladie  souffre d’une maladie débilitante et incurable. 

Comment respectez-vous le droit de certaines personnes de ne pas en être informées et de vouloir vivre pleinement la vie qu’il leur reste?  

DS : 

Donc ce dont il s’agit ici est de déterminer comment respecter l’autonomie des patients et leur capacité de prendre des décisions. Pour le faire de façon honnête et authentique, le processus doit être transparent. Par exemple, faire partie d’un cabinet familial qui dispose de dossiers de santé électroniques. 

Et un tel système utilise ensuite toute une série de modèles d’IA différents qui, à partir de vos données, font des prédictions, peut-être quant aux états pathologiques futurs. Une de ces prévisions pourrait être exactement ce que vous avez dit, une maladie invalidante, quelque chose que vous ne voulez pas savoir. 

Je pense que pour assurer et respecter l’autonomie des patients, avant même qu’une telle prédiction ne soit faite, les responsables de la clinique pourraient expliquer au patient le traitement auquel leurs données pourraient être soumises dans ses interactions avec la clinique. Voilà ce que ça signifie d’avoir une prédiction de ce genre et pourquoi elle peut être précieuse.  

Voici les aspects au sujet desquels nous sommes incertains. Voulez-vous en savoir davantage, oui ou non? Nous devrons réfléchir à l’élaboration de ces processus pour permettre à l’intelligence artificielle de réellement transformer les soins de santé, tout en respectant l’autonomie, le contrôle et la vie privée des patients.  

Certaines personnes ne voudront peut-être pas que leurs données soient utilisées dans un cas particulier, mais elles voudront qu’elles soient utilisées pour 10 autres choses. Il sera intéressant de voir comment nous appliquerons ces processus. 

PK : 

Une des choses que vous avez mentionnées dans les cas que vous avez mentionnés concerne les applications qui utilisent des données locales, les modèles locaux d’apprentissage automatique, conçus localement et de concert avec vos patients.  

Quand vous dites « locales », dans quelle mesure ces technologies sont-elles réellement locales? Dans quelle mesure sont-elles sécuritaires pour ce qui est, par exemple, de leur interface avec les fournisseurs commerciaux? Dans quelle mesure sont-elles vulnérables aux acteurs malveillants et aux risques liés à la cybersécurité? 

DS : 

Il y a tellement de réponses possibles à cette question. La première concerne la cybersécurité et la gouvernance des données. Nous réfléchissons vraiment beaucoup aux normes de sécurité les plus élevées à mettre en place pour assurer la protection de la vie privée. Par exemple, lorsque les données sont acheminées d’une base de données à une application ou à un modèle. 

Puis, quand les données sont stockées par la suite, elles sont toujours chiffrées. Nous devons supposer qu’un jour elles pourraient être piratées. Si jamais cela se produisait, toutes les données sont chiffrées de sorte qu’aucune donnée sensible relative aux patients n’est compromise. C’est une norme minimale de base, mais cela ne signifie pas nécessairement que tout le monde fait la même chose.   

Je pense qu’il est normal pour les patients et d’autres praticiens, même des cliniques de médecine familiale qui envisagent d’adopter des technologies et consultent des fournisseurs, de demander si un outil d’intelligence artificielle ou un scribe numérique, par exemple, peut être utilisé en toute sécurité. Je conseille de poser des questions aux fournisseurs, et notamment de leur demander ce qui arriverait si les données étaient piratées. 

Dites-moi tous les éléments qui ne sont pas chiffrés. Pourquoi ne le sont-ils pas? Comment régissez-vous l’accès à mes données? Utilisez-vous les données à d’autres fins que ce qui est prévu dans notre entente et pourquoi? À quelles fins les utilisez-vous? Est-ce que je peux m’opposer au nom de tous mes patients et vous dire que nous ne permettons pas que ces données soient utilisées de cette façon? 

En tant que communauté axée sur la santé, nous nous devons de poser ces questions pour nous assurer que les mesures que nous prenons sont claires et nettes. Nous devons exiger de nos fournisseurs de technologie, voire de nos hôpitaux également, des normes vraiment élevées en matière de cybersécurité, de chiffrement, de confidentialité des données, de gouvernance et d’éthique. 

PK : 

Vous avez parlé de scribe numérique, et le gouvernement de l’Ontario, comme vous le savez, a récemment annoncé un projet pilote de scribe IA visant à aider les médecins à consacrer moins de temps aux formalités administratives et plus de temps à soigner leurs patients. En termes simples, que fait un scribe IA? Qu’est-ce que ça change? Dans quelle mesure les Ontariens peuvent-ils avoir la certitude que des mesures de protection telles que celles dont vous avez parlé sont intégrées dans ce projet pilote au fur et à mesure de sa mise en œuvre? 

DS : 

Qu’est-ce qu’un scribe numérique? Imaginez que vous êtes une patiente et que vous êtes assise dans la salle d’attente et attendez que votre médecin vous appelle. Votre médecin entre, commence à vous parler et vous demande pourquoi vous êtes là, mais il est assis devant son ordinateur en train de taper à la machine. C’est ce qui se passe maintenant. Cela illustre comment la technologie et les dossiers médicaux électroniques ont miné la connexion médecin-patient.  

Un scribe numérique permet de mettre en place un flux de travail différent. Le patient est assis et attend l’arrivée du médecin. Le médecin entre, s’assoit, vous regarde directement et ne touche pas du tout à son ordinateur, car le scribe va entendre cette conversation et la convertir en texte. 

Il va ensuite convertir le texte en note médicale et le rédiger automatiquement pour ce médecin. Le médecin peut donc se concentrer davantage sur la relation avec le patient. Poser un peu plus de questions sur les antécédents, écouter quelques problèmes supplémentaires que vous rencontrez. 

Et avoir une interaction beaucoup plus humaine, solide et de meilleure qualité avec un patient, afin d’améliorer la sécurité et les résultats pour les patients. Cependant, il s’attaque en même temps à la principale source d’épuisement professionnel de nos médecins, à savoir cette charge administrative massive, les médecins consacrant 60 % de leur temps assis devant l’ordinateur à rédiger leurs notes. 

Ce n’est pas ce à quoi ces cliniciens s’attendaient quand ils ont commencé à exercer. Ce qu’ils voulaient faire, c’était vraiment aider les gens. C’est ce que les scribes numériques leur permettent de faire, mais, comme vous l’avez dit, il y a beaucoup de risques à atténuer. Mais il est possible de le faire, et je crois qu’il sera possible de profiter des promesses de cette technologie qui changera la donne. 

Il y a des organismes comme l’OMA, par exemple, qui font ces évaluations, dont une sur l’efficacité des scribes. Mais aussi, sur le fait d’aider les cliniques à comprendre le genre de scribes qu’elles devraient envisager d’utiliser et ceux qui ne leur conviennent pas. Par exemple, si toutes les données stockées dans une transcription sont ensuite vendues à une autre entreprise pour qu’elle exploite vos interactions afin de tirer des bénéfices de la vente d’un autre produit, ce n’est probablement pas ce qu’il vous faut. 

En revanche, vous pouvez disposer d’un scribe numérique qui stocke les données temporairement, pour votre interaction, au Canada, toujours en les chiffrant et en les supprimant après coup quand elles ne sont plus nécessaires. C’est une approche beaucoup plus rigoureuse et sûre pour l’exploitation des données, qui fait en sorte que les données sont employées au profit du patient et non d’autres personnes. Voilà un scribe que vous pourriez utiliser. 

J’ai été très heureux d’apprendre que l’OMA procède à une évaluation rigoureuse et qu’elle rédige un document d’orientation pour aider les médecins de famille à réfléchir à l’utilisation de ce genre de technologie d’une manière très sûre, qui protège la vie privée et est rigoureusement réglementée. 

PK : 

L’été dernier, ou enfin il y a quelque temps, j’ai écrit un blogue intitulé La vie privée et l’humanité à la croisée des chemins, dans lequel j’ai abordé bon nombre de ces technologies de l’IA et je me suis demandé si leur adoption à grande échelle ne risquait pas de nous déshumaniser d’une certaine manière. Ma sœur, qui est médecin, m’a mis au défi et m’a dit : « Parfois, l’IA, en particulier dans le domaine des soins de santé, grâce à des applications comme celles que tu viens de décrire, pourrait en fait contribuer à réhumaniser le système ». En libérant le médecin pour qu’il puisse consacrer plus de temps à ses patients, au lieu de s’occuper de toutes les charges administratives. C’est donc un point très pertinent que, selon moi, nous devons prendre en compte lorsque nous examinons les avantages et les risques de l’IA. Cependant, comme nous l’avons dit, ces applications et ces avantages doivent tenir compte d’éléments tels que les biais, la sécurité, ainsi que le consentement et l’autonomie du patient. Et notamment la transparence et la sécurité des données qui sont utilisées et partagées 

J’aimerais me tourner un peu vers l’avenir et vous demander quels progrès vous prévoyez dans les cinq prochaines années, disons, en matière d’IA et d’apprentissage automatique dans le domaine de la santé. 

DS : 

Ce qui m’enthousiasme vraiment pour les cinq prochaines années, c’est que nous allons assister à une convergence de l’innovation dans une foule de domaines différents, ce qui nous permettra ensuite d’utiliser de manière responsable les technologies d’apprentissage automatique et de l’IA pour améliorer la prestation des soins. Notre capacité à utiliser les données pour élaborer de nouveaux modèles d’apprentissage automatique qui contribuent à résoudre les problèmes réels des patients s’améliore rapidement, ce qui est passionnant. 

Cependant, ce qui m’enthousiasme encore plus, dans une certaine mesure, c’est qu’il y a aussi de l’innovation au niveau des politiques et des sciences sociales. Nous constatons des innovations sur le plan de la réforme de la réglementation concernant la protection de la vie privée et la sécurité des patients, la gouvernance des données et les circonstances où il est permis ou interdit d’utiliser l’IA. D’une manière qui réunit les deux, la technologie et les politiques, afin de pouvoir réfléchir à la manière dont nous déployons les technologies concrètement. 

Pendant longtemps, nous avons fait des choses vraiment géniales qui ne pouvaient pas être utilisées au chevet des patients, parce que nous ne disposions pas des cadres de politiques nécessaires pour les mettre en œuvre en toute sécurité. Maintenant, nous le pouvons. Cette convergence est en cours. Je pense que dans les cinq prochaines années, ces technologies seront réellement mises en œuvre. 

Quand on se présente aux urgences pour une pathologie courante, un algorithme d’apprentissage automatique peut commander automatiquement un test, ce qui permet d’accélérer le processus et d’obtenir un diagnostic bien plus rapidement. Je prévois que cette automatisation de gestes précis, qu’il s’agisse de la commande de tests, de la prédiction, de l’obtention d’un meilleur diagnostic et d’un traitement plus rapide, changeront la donne pour les soins de santé. Et c’est au cours des cinq prochaines années que nous le verrons. 

Dans dix ans, on commencera à voir une convergence de modèles d’IA intégrés dans des appareils, ce qui, à mon avis, donnera lieu à une transformation massive. Nous verrons comment nous assurer que cette transformation préserve les valeurs des patients, leur vie privée et la gouvernance. 

PK : 

Comme vous le savez, l’Ontario a récemment déposé le projet de loi 194 qui porte sur la cybersécurité et l’IA, et propose de poser les balises sur le plan des politiques et de la réglementation dont nous avons besoin. Nous sommes au début de ce débat, et notre bureau fera part de son point de vue. 

J’espère que vous et nos auditeurs vous engagerez également dans ce débat très, très important, afin que les structures de gouvernance, comme vous l’avez dit, évoluent parallèlement à la technologie et assurent le niveau de sécurité dont les patients ont besoin pour faire confiance au système. Je voudrais vous poser une dernière question, si vous le permettez, et c’est une question que je pose à beaucoup de mes invités. 

Cela concerne mon bureau et nos priorités stratégiques. L’une d’entre elles porte sur la confiance dans la santé numérique, dont l’objectif est de promouvoir la confiance dans le système de santé numérique, en aidant les dépositaires de renseignements sur la santé à respecter la vie privée et les droits d’accès. Et aussi, pour favoriser l’utilisation novatrice des renseignements personnels sur la santé à des fins de recherche et d’analytique dans la mesure où elle sert le bien public. 

Quels conseils avez-vous à donner à mon bureau? Comment, à votre avis, pouvons-nous contribuer à favoriser l’utilisation responsable de l’IA dans les soins de santé, tout en garantissant la protection de la vie privée? 

DS : 

Je pense que le conseil que je donnerais à votre bureau est de se rappeler que l’innovation qui se produit au niveau des politiques aura littéralement un impact sur le prochain enfant qui se présentera aux urgences. Parce que si cette politique peut être créée rapidement, avec rigueur et qualité, puis mise en œuvre d’une manière qui permette réellement au pays de s’unir pour tirer parti de l’apprentissage automatique afin d’améliorer les soins aux patients, elle permettra littéralement de sauver des vies. 

Parfois, en tant que responsable des politiques, on peut se sentir très, très déconnecté de ce qui se passe sur le terrain et des impacts réels. Ce que je tiens à dire à votre bureau, c’est que, littéralement, votre travail sauvera des vies. Si vous pouvez le faire d’une manière qui permet à des hôpitaux comme SickKids et de nombreux autres hôpitaux pour enfants de tout le pays de naviguer dans un environnement complexe en matière de protection de la vie privée, de pouvoir rassembler des modèles d’apprentissage automatique, travailler en collaboration et assurer le déploiement à grande échelle. Si votre bureau peut faciliter une partie de tout ça, vous contribuerez à sauver des vies dans l’ensemble du pays, et cela n’a pas de prix. 

PK : 

Wow, voilà un grand défi à relever, Devin. Merci pour les conseils que vous avez donnés à notre bureau, et merci pour cette excellente conversation. Ce fut vraiment un plaisir. 

DS : 

Merci de m’avoir invité. J’ai beaucoup aimé notre discussion, et j’espère que vos auditeurs l’ont appréciée également. 

PK : 

Je suis persuadée que nos auditeurs ont trouvé notre discussion aussi inspirante et instructive que moi. Il est évident que l’IA pourrait permettre de relever les défis les plus pressants du système de santé et de révolutionner les soins aux patients. Il est également important, comme nous l’avons dit, de mettre en place les protections nécessaires, de veiller à ce que cela se fasse dans le respect de la vie privée et des autres droits de la personne, en réduisant les biais et, bien sûr, en améliorant la sécurité. 

Les auditeurs qui souhaitent en savoir plus sur l’IA, la santé numérique et la protection des renseignements personnels sur la santé peuvent visiter notre site Web à cipvp.ca. Vous pouvez toujours appeler notre bureau ou nous envoyer un courriel pour obtenir de l’aide et des renseignements généraux concernant les lois ontariennes sur l’accès à l’information et la protection de la vie privée. Merci d’avoir écouté cet épisode de L’info, ça compte, et à la prochaine.  

Ici Patricia Kosseim, commissaire à l’information et à la protection de la vie privée de l’Ontario, et vous avez écouté L’info, ça compte. Si vous avez aimé ce balado, laissez-nous une note ou un commentaire. Si vous souhaitez que nous traitions d’un sujet qui concerne l’accès à l’information ou la protection de la vie privée dans un épisode futur, communiquez avec nous. Envoyez-nous un gazouillis à @cipvp_ontario ou un courriel à @email. Merci d’avoir été des nôtres, et à bientôt pour d’autres conversations sur les gens, la protection de la vie privée et l’accès à l’information. S’il est question d’information, nous en parlerons. 

Clause de non-responsabilité
Les renseignements, opinions et recommandations que contient ce balado sont présentés à des fins d’information générale uniquement, et ne peuvent pas se substituer à des conseils juridiques. Sauf indication contraire, le CIPVP ne soutient, n’approuve, ne recommande, ni n’atteste aucun renseignement, produit, processus, service ou organisme présenté ou mentionné dans ce balado. En outre, les renseignements que contient ce balado ne doivent pas être utilisés ni reproduits d’une manière qui sous-entend un tel soutien ou une telle approbation. Les renseignements, opinions et recommandations présentés dans ce balado ne lient pas le Tribunal du CIPVP, qui peut être appelé à enquêter et à rendre une décision sur une plainte ou un appel en se fondant sur les circonstances et les faits pertinents.
Topics
Aidez-nous à améliorer notre site web. Cette page a-t-elle été utile?
Lorsque l'information n'est pas trouvée

Note:

  • Vous ne recevrez pas de réponse directe. Pour toute autre question, veuillez nous contacter à l'adresse suivante : @email
  • N'indiquez aucune information personnelle, telle que votre nom, votre numéro d'assurance sociale (NAS), votre adresse personnelle ou professionnelle, tout numéro de dossier ou d'affaire ou toute information personnelle relative à votre santé.
  • Pour plus d'informations sur cet outil, veuillez consulter notre politique de confidentialité.