«Vigilance et esprit critique sont de mise»
Interview
Intelligence artificielle

«Vigilance et esprit critique sont de mise»

Interview
Édition
2024/05
DOI:
https://doi.org/10.4414/bms.2024.1438526746
Bull Med Suisses. 2024;105:1438526746

Publié le 22.05.2024

Au mois de mars dernier, l’UE a adopté la première loi mondiale sur l’intelligence artificielle (IA). La Dre phil. Effy Vayena, professeure à l’EPF de Zurich et bioéthicienne, dépeint les conséquences qu’a cette loi pour la Suisse et les questions éthiques qui découlent de l’introduction croissante d’outils d’IA dans le domaine de la santé.
Effy Vayena, le 13 mars 2024 marque l’adoption de la loi sur l’intelligence artificielle (AI Act) par le Parlement européen. En quoi consiste-t-elle?
La Dre phil. Effy Vayena est professeure de bioéthique à l’EPF de Zurich. En 2017, elle a fondé le Health Ethics and Policy Lab, spécialisé dans l’éthique de la biotechnologie, notamment la génomique et l’analyse des données de santé. Effy Vayena est membre de l'Académie suisse des sciences médicales et a dirigé des groupes de conseil éthique pour le réseau suisse de santé personnalisée. Elle copréside actuellement le groupe de travail de l’OMS sur l’éthique et la gouvernance de l’intelligence artificielle dans le domaine de la santé et a dirigé auparavant le groupe d’experts de l’OMS sur l’éthique de la technologie de traçage numérique.
© Reto Schlatter
Depuis quelques années, la grande performance de l’IA et les risques associés à ce type de technologie sont au cœur des débats. Intervenir pour limiter le danger est devenu une évidence. Ainsi, la loi européenne sur l’IA fait office de conclusion à ces conversations. L’UE entend établir une norme mondiale. Nous convenons tous que le développement d’une technologie responsable est nécessaire pour prévenir d’éventuels dommages. Néanmoins, il faudra voir si l’approche adoptée dans le cadre de l’Union européenne assurera effectivement notre sécurité.
Comment la loi européenne sur l’IA affectera-t-elle la Suisse?
La Suisse est le leader mondial de l’innovation, ce qui inclut les développements en matière d’IA. Elle répondra inévitablement à ce type d’évolutions réglementaires. Toutefois, elle bénéficie aussi du privilège de la flexibilité. La Suisse dispose d’une réglementation existante qui lui permet de développer et de déployer la technologie de l’IA. Par conséquent, nous devons attentivement réfléchir à la pertinence de cette nouvelle réglementation.
Comment cette loi affectera-t-elle le secteur médical?
La médecine est un secteur très réglementé. Bien que la loi européenne sur l’IA apporte une forme de clarté juridique pour certaines questions, elle ajoutera également une nouvelle couche de réglementation à une législation déjà très lourde. Prenons le règlement sur les dispositifs médicaux, ce dernier sera désormais complété par un autre règlement relatif à l’IA, si un élément du dispositif médical y a recours. Ainsi, nous accumulons des lois et des exigences différentes. Il nous faudra un certain temps avant de comprendre ce contexte et de s’y retrouver. Par ailleurs, nous devrons nous demander comment les petits acteurs, tels les start-up ou les petites entreprises technologiques, s’adapteront à cette situation. Nous verrons comment cet espace réglementaire complexe se traduira dans les faits.
Cette loi fixera-t-elle les règles du jeu?
L’Office européen de l’IA, chargé de superviser la mise en œuvre de l’intelligence artificielle, vise à élaborer des normes spécifiques. La question est de savoir en quoi elles consisteront. Comment seront-elles développées et intégrées à notre écosystème? À mon avis, beaucoup de questions en suspens doivent être traitées pour déterminer si cette loi peut réellement atteindre ses objectifs dans un espace où le développement est extrêmement rapide, la technologie étant en constante évolution.
«La médecine est un secteur très conservateur. Ce n’est pas un secteur qui adopte les nouvelles technologies dès qu’elles paraissent.»
© Reto Schlatter
Dans le cadre de l’IA, existe-t-il un conflit entre innovation et réglementation?
Pour moi, le rythme de l’innovation est assez unique dans l’histoire de l’humanité. Je ne pense pas la situation conflictuelle, mais il existe une forme de tension entre le développement technologique rapide et sa réglementation, laquelle requiert plus de temps pour une réflexion aboutie.
Je pense que nos réflexions et approches juridiques nécessitent plus de créativité. Nous devons réagir plus vite. La technologie continuera d’évoluer à ce rythme et nous devons gagner en agilité, y compris du point de vue réglementaire.
Avez-vous été surprise par la rapidité de cette transformation digitale?
Je ne pense pas que ce changement soit soudain. Il se prépare depuis un moment, mais on compte deux tournants majeurs. Le premier a été la pandémie, qui nous a tous fait adopter plus facilement la digitalisation et a fait innover dans ce domaine en raison de l’urgence. Le deuxième a été la mise à disposition des grands modèles de langage (LLM) au public. La médecine est un secteur très conservateur. Ce n’est pas un secteur qui adopte les nouvelles technologies dès qu’elles paraissent, c’est plutôt le contraire et pour de très bonnes raisons. Mais aujourd’hui, la pression est différente.
Comment explique-t-on la difficulté de mettre en pratique la théorie éthique dans le secteur des soins de santé?
Les principes éthiques et les conditions d’introduction de l’intelligence artificielle dans les secteurs de la santé mondiale, de la santé publique et de la recherche ont fait l’objet d’une réflexion théorique poussée. Le défi est désormais leur mise en œuvre.
Admettons que le principe de transparence, dont personne ne niera l’importance, est de mise. Mais que signifie ce principe dans un cas particulier? Quand un patient se rend dans un hôpital recourant à l’IA pour la lecture de clichés radiologiques, doit-il pour autant le savoir? Nous n’en sommes pour l’instant qu’au début et nous essayons encore de répondre à certaines questions pratiques.
Dans un discours prononcé à la conférence Future Health Basel 2024, vous avez conseillé aux médecins de faire preuve de prudence quand ils utilisent de grands modèles de langage à des fins de diagnostic. Pourquoi une telle mise en garde?
Pour au moins trois raisons: premièrement, ces systèmes continuent de donner aléatoirement des réponses erronées. On risque d’obtenir des faits et des résultats erronés. Deuxièmement, la saisie des données du patient dans ces modèles est susceptible d’entraîner une violation de la confidentialité et de la législation sur la protection des données. La troisième raison est que les questions de propriété intellectuelle ne sont toujours pas claires pour les données introduites dans le système et pour celles qu’il utilise déjà. De ce fait, le risque de violation de la propriété intellectuelle demeure.
Pensez-vous que les médecins ne devraient pas utiliser ChatGPT?
Je ne crois pas qu’il soit utile de dire aux médecins de ne pas se servir de ces outils dans la mesure où ils le feront quand même. Ces outils sont à notre disposition et suscitent la curiosité. La question est de savoir comment et à quelles fins les utiliser. Les médecins doivent absolument les tester et les manipuler. Mais je ne m’appuierais pas sur eux pour établir un diagnostic à l’heure actuelle. Je pense que ce serait inapproprié pour diverses raisons. En effet, ces modèles sont génériques, vous pouvez leur poser une question sur l’architecture ou sur une maladie rare. À terme, nous aurons besoin de modèles spécifiques aux soins de santé, alimentés par des données sur la santé et la médecine, et même dans ce cas de figure, il nous faudra redoubler de vigilance.
Comment ces outils influeront-ils sur la relation médecin-patient?
Je ne sais pas comment, mais je pense que nous savons que cela se produira. Il faut espérer que les choses iront en s’améliorant. Protéger la relation entre les prestataires de soins de santé et les patients sera crucial. Je suis d’avis qu’il importe de différencier les contextes, quand on pose ce genre de questions. Dans certains endroits du monde, la population n’a pas accès aux médecins ou aux soins de santé. Le rôle de la technologie dans ce contexte sera différent du nôtre. En ce sens, l’IA est une occasion unique d’améliorer l’accès à la santé. Toutefois, quels que soient le lieu et le contexte de mise en œuvre d’une technologie, ce qui compte, c’est qu’elle soit sûre et efficace, et qu’elle apporte plus de positif que de négatif.
Pour Effy Vayena, l’usage de grands modèles de langage comporte des risques de violation de la propriété intellectuelle.
© Reto Schlatter
Que faire pour rester maître de l’IA?
La technologie fait partie de notre vie et nous y sommes inévitablement confrontés en tant que professionnels et patients. Bien entendu, elle n’est pas parfaite, mais les gens peuvent effectuer des recherches et s’informer. Il est normal de s’attendre à ce que certaines personnes reçoivent de mauvaises informations et s’inquiètent possiblement pour de mauvaises raisons. Mais je ne dirais pas que les patients ne devraient jamais utiliser ces outils.
Il faut veiller à ce que tout le monde, médecins et patients, se familiarise avec les limites de ces outils. Par ailleurs, nous savons que les gens font confiance à leur médecin qui joue le rôle de gardien, en guidant les patients dans l’utilisation de certaines nouveautés technologiques.
Quels sont les plus grands défis actuels des applications de l’IA?
En IA, la gestion des biais est un enjeu important. Quel niveau de biais est acceptable? Autre point à considérer: notre mécompréhension des processus qui permettent à l’outil d’arriver à telle conclusion ou estimation. C’est à la fois toute la beauté et tout le problème de cette technologie, car nous ne savons pas toujours expliquer pourquoi les résultats sont corrects. Voilà un nouveau pouvoir, mais à quel prix?
C’est précisément ce que nous devons gérer et négocier dans nos disciplines. Dans quelle mesure peut-on l’accepter et pour quel bénéfice? Dire que l’on n’utilisera pas un outil parce que l’on n’en comprend pas le fonctionnement me paraît difficile. Nous utilisons parfois des médicaments, dont nous ne connaissons pas le fonctionnement exact, parce que nous les savons efficaces, alors que leurs mécanismes d’action nous sont partiellement inconnus. Sommes-nous en train de définir une norme différente pour l’IA?
En 2017, vous avez fondé le Health Ethics and Policy Lab à l’EPF de Zurich. À quoi sert ce laboratoire?
La médecine personnalisée, la santé numérique et les mégadonnées (big data) sont les sujets sur lesquels nous travaillons. Nous cherchons un moyen de garantir une innovation responsable, étant donné les attentes de toute part. Les cadres réglementaires doivent être conçus de manière à favoriser l’innovation sans l’entraver.
Quel parcours vous a guidée vers la bioéthique?
Les défis que posent la science et la technologie dans notre société m’ont toujours fascinée. On est tous enthousiastes, mais les problèmes finissent toujours par apparaître. Je voulais trouver une autre manière de raisonner à ce sujet ainsi que des principes pour nous guider. Dans une société technologique comme la nôtre, ces sujets seront toujours controversés. Ainsi, aider les gens à trouver un terrain d’entente et à aller de l’avant m’intéresse.
Que nous réserve demain?
Actuellement, nous sommes en phase de transition. Nous devons résoudre de nombreux problèmes relatifs à l’utilisation de ces technologies. À un moment donné, nous serons un peu plus fixés sur la manière de procéder. Quelques échecs majeurs seront à déplorer, suivis de grandes réussites. Il s’agit de technologies complexes dans un système déjà compliqué: un labyrinthe réglementaire dans lequel il faudra être capable de naviguer en tant qu’institution, médecin et patient.
Le plus important est de rester vigilant. La technologie va évoluer, des mesures réglementaires seront prises. Il faut donc se tenir au courant pour se positionner. Il est essentiel de ne pas perdre le fil et de garder l’esprit critique.

Reto Schlatter

Commentaires

Avec la fonction commentaires, nous proposons un espace pour un échange professionnel ouvert et critique. Celui-ci est ouvert à tous les abonné-e-s SHW Beta. Nous publions les commentaires tant qu’ils respectent nos lignes directrices.