Interview: l’impact de l’IA sur le secteur de la santé
Aimeriez-vous savoir que votre diagnostic a été établi par une intelligence artificielle?

Effy Vayena est bioéthicienne et professeure à l’EPF de Zurich. Elle étudie les défis éthiques liés à la santé numérique et à l’IA et voit un grand potentiel dans l’utilisation responsable de ces technologies.
Effy Vayena, lorsque l’on évoque l’intelligence artificielle en médecine avec les spécialistes, tous en soulignent l’énorme potentiel. Et les questionnements éthiques qu’elle pose. De quelles interrogations s’agit-il?
Elles concernent, par exemple, la traçabilité: en médecine, si nous devons évaluer le résultat d’une IA ou en assumer la responsabilité en cas de problème, il faut pouvoir décrypter les bases du raisonnement de l’IA. Ce n’est pas toujours simple. Ce problème est appelé «boîte noire». Pouvons-nous utiliser une IA si nous n’en comprenons pas le fonctionnement? Il n’est pas facile de répondre à cette question dans le contexte médical.
Qu’est-ce qui pourrait mal tourner?
L’un des problèmes liés à l’utilisation de l’intelligence artificielle en général, y compris en médecine, est le biais, le parti pris de la machine. Les modèles d’IA sont entraînés avec des données ne représentant pas l’ensemble de la société. Ils affichent donc des préjugés. Les modèles intègrent ces distorsions dans leurs prédictions. Un modèle pourrait donner des résultats peu fiables pour une personne parce qu’il est basé sur des données inappropriées – même s’il fonctionne bien pour d’autres patients. Dans le domaine médical, un tel biais peut être mortel. Certains groupes sont souvent désavantagés – par exemple en raison de leur sexe, de leur origine ethnique ou de leur statut social. En médecine, nous avons toujours disposé de plus de données sur certains groupes de population.
Pourquoi?
Car certains groupes ont plus souvent recours aux soins médicaux, non pas pour des motifs de santé, mais en raison d’autres facteurs, comme l’assurance, la formation et le statut socio-économique. Les données de santé dont nous disposons proviennent souvent de ces groupes privilégiés, tandis que d’autres restent sous-représentés. Un modèle entraîné sur cette base ne fournira pas de prédictions fiables pour les groupes moins représentés. C’est prouvé. L’IA renforce ces inégalités; c’est l’une de ses particularités. Elle amplifie et automatise certains biais lourds de conséquences. Un exemple: un modèle d’IA entraîné avec les données d’un hôpital situé à Lausanne y fonctionnera très bien. Si on l’utilise dans des régions rurales ou dans d’autres pays, il sera moins performant. Il faut entraîner les modèles en fonction de leur utilisation et les tester afin d’éviter «toute discrimination».
L’IA pose-t-elle d’autres questions?
La question des ressources est fondamentale. De nombreuses applications d’IA nécessitent d’énormes capacités de calcul, ce qui se traduit par une grande consommation d’énergie et d’eau. D’une part, nous espérons que l’IA nous permettra de répondre au changement climatique. D’autre part, cette même technologie contribue de manière significative à ce problème.
Passons aux questions de déontologie. Qu’est-ce qui est éthique et qu’est-ce qui ne l’est pas?
De nombreux principes fondamentaux nous aident à concevoir des systèmes d’IA pour le bien de la société. Cela concerne non seulement le développement de la technologie, mais aussi son utilisation: qui utilise l’IA? À quelles conditions? Quel est son impact sur la chaîne de création de valeur? Nous savons par exemple que l’autonomie est un critère important: je veux parler de la liberté de choix de tout individu qui doit être préservée même lorsque l’on a recours à des systèmes d’IA. Personne ne devrait être contraint d’accomplir des actes contraires à sa volonté sur la seule base d’un résultat automatisé. Le respect de la sphère privée constitue un autre point important. Il faut une quantité impressionnante de données pour entraîner l’IA. Ces données sont-elles sécurisées? Le problème n’est pas nouveau et nous disposons désormais de bons modèles de protection des données. La question reste de savoir quel niveau de risque nous pouvons accepter lorsque les bénéfices sont importants.
Quelle est l’influence de l’IA sur les relations interpersonnelles?
Si nous développons un système d’IA dans un hôpital, par exemple, nous partons du principe que rien ne coincera – tant que l’IA travaille bien. Mais nous n’avons pas suffisamment de recul: qu’implique l’introduction de l’IA dans les interactions entre le corps médical et les patients? Comment change-t-elle les relations entre médecins?
Et que nous réserve l’avenir? L’IA remplacera-t-elle le corps médical?
Il s’agit d’un faux débat. La véritable question est la suivante:
Hier gehts weiter
La Suisse et l’Europe manquent cruellement de médecins et cette pénurie va s’aggraver. Les changements démographiques accentuent ce problème, car nous vivons de plus en plus vieux et avons besoin de davantage de soins. Les machines ne remplaceront pas ces personnes. La question est plutôt de savoir comment l’intelligence artificielle peut aider les médecins à travailler plus efficacement, en les déchargeant par exemple des tâches administratives pour qu’ils puissent mieux se concentrer sur leur mission première. Une évolution en ce sens pourrait s’avérer très positive pour notre système de santé. J’accorde une grande importance à ce point.
Quel point?
Il ne faut pas considérer cette technologie comme une rivale, mais comme une chose que nous avons créée et que nous pouvons façonner pour qu’elle nous aide à résoudre certains problèmes. Nous en fixons les règles. Les discussions portant sur mon domaine ne remettent pas en question son développement. Ces questions éthiques sont des garde-fous et veillent à ce que la technologie soit utilisée à bon escient, qu’elle aide les gens et qu’elle ne leur cause pas de tort. Il ne s’agit pas de stopper le développement de l’IA, mais de la façonner de manière réfléchie et prospective.
Qu’entendez-vous par façonner la technologie? Pouvez-vous citer un exemple?
Je n’aime pas que les gens disent: «L’IA fera ci, fera ça.» L’IA ne fera rien du tout. NOUS la développons. Et NOUS décidons de l’orientation que nous voulons lui donner. Les médias jettent malheureusement de l’huile sur le feu. Ils entretiennent une certaine peur en faisant croire que nous sommes complètement livrés à la technologie. Résultat: nous la rejetons au lieu de réfléchir à la manière dont nous pourrions la rendre avantageuse pour l’être humain. Nous avons besoin d’une narration plus positive qui montre que c’est nous qui avons le contrôle. Le système de santé fait face à des problèmes manifestes auxquels nous devons nous attaquer. Nous devons essayer d’orienter la technologie de sorte qu’elle puisse nous aider à résoudre ces problèmes, avec un cadre réglementaire bien dosé.
Je comprends parfaitement la crainte des gens: l’IA est un sujet complexe qui évolue très rapidement.
La formation et l’éducation sont le meilleur remède contre la peur. Non pas que nous deviendrons tous des informaticiens, mais il faut rendre le sujet plus facile à appréhender et mieux faire comprendre les risques et les avantages. En Suisse, il est vrai que nous prenons des décisions collectives. Mais cela nécessite d’informer la population. C’est la seule façon de prendre des décisions qui, d’une part, nous permettent de faire preuve de la circonspection qui s’impose et, d’autre part, nous permettent de tirer profit de ces technologies. Nous avons besoin d’un débat public et de nuancer le discours. L’IA a un pouvoir transformateur. C’est une technologie extrêmement puissante et bien trop importante pour la laisser aux seules mains de la politique et de l’informatique.
Une narration moins anxiogène et davantage de règles éthiques, c’est bien ça?
Les règles éthiques dont nous disposons déjà constituent une base solide. La question est la suivante: comment appliquer concrètement certains principes tels que l’équité, l’intelligibilité, l’impartialité, l’autonomie et la vie privée? C’est tout le défi – appliquer des lignes directrices éthiques dans le quotidien.
Pouvez-vous citer un exemple?
Imaginez que vous alliez à l’hôpital et qu’on vous fasse une radio. Voudriez-vous savoir que c’est l’intelligence artificielle qui a posé le diagnostic?
Je pense que oui.
Sachant cela, est-ce que vous vous sentiriez mieux ou moins bien?
Moins bien. Ou mieux? Je ne suis pas sûre.
Je pense qu’il n’y a pas de réponse claire à cette question. Certaines personnes veulent le savoir, car elles ont un regard critique sur l’IA. D’autres, comme moi, espèrent que l’IA sera utilisée uniquement si l’on pense qu’elle est vraiment fiable. Je sais qu’un médecin a suivi une formation standardisée. En est-il de même pour l’IA? Je l’ignore.
C’est précisément pour cette raison que nous devons veiller à ce que les applications d’IA fassent l’objet d’une évaluation approfondie avant d’être déployées. Lorsque je passe une IRM, je ne me demande pas si l’appareil dans lequel je me trouve va exploser. Il doit en être de même avec l’IA. On fait appel à elle, car c’est un outil important. Mais uniquement si elle a été testée méticuleusement. Il faut ensuite surveiller son application dans la pratique: les médecins suivent-ils les recommandations de l’IA ou les ignorent-ils? L’utilisent-ils uniquement comme un moyen auxiliaire? Il n’est pas seulement question de la précision des prévisions, mais aussi de la manière dont le déroulement du travail est influencé. Notre objectif est de veiller à ce que l’IA fonctionne de manière fiable et ait un impact global positif sur les patients, les hôpitaux et l’ensemble du système de santé.
Vous avez évoqué à plusieurs reprises la réglementation. Comment régulons-nous l’IA dans le domaine de la santé?
Nous devons faire attention à ne pas freiner cette technologie et son potentiel. L’éthique nous dicte d’interdire l’utilisation d’appareils défectueux. Mais permettre aux gens de bénéficier d’une meilleure technologie s’inscrit également dans un principe éthique. Si nous pouvons mettre au point un médicament qui sauvera des vies ou établir plus rapidement des diagnostics plus précis, nous avons la responsabilité, éthiquement parlant, éthique de le faire. Si 15% de ces diagnostics sont erronés, nous devons réduire ce pourcentage. Lorsqu’une technologie est interdite, beaucoup de gens approuvent cette décision et pensent être protégés. Mais il se peut aussi que nous laissions passer une opportunité. Cette protection nous procure-t-elle un avantage ou sommes-nous perdants parce que nous n’avons pas accès à la technologie? Nous n’avons pas un système de santé parfait à protéger. Nous disposons d’un système imparfait que nous devons améliorer.
Comment trouver le juste équilibre entre innovation et réglementation?
Ce n’est pas facile, notamment parce que l’innovation se développe très rapidement dans le domaine de l’IA. Il existe plusieurs approches, mais pas de formule parfaite. Une approche consiste à ne pas introduire immédiatement des réglementations agressives et strictes. Car stopper le développement d’une technologie revient à en signer le coup d’arrêt. Une autre approche consiste à autoriser les expériences contrôlées, qu’on appelle aussi «sandboxes» dans le jargon.
Pouvez-vous nous expliquer ce terme?
Les «sandboxes» permettent de tester les nouvelles technologies dans un cadre limité et surveillé afin d’en évaluer les risques et les avantages. Les tests se font dans le monde réel, avec l’approbation des personnes concernées. Les entreprises peuvent tester leurs produits dans un cadre délimité sans craindre de sanctions immédiates. Cette approche permet de tester les innovations de manière progressive et ciblée. La troisième approche concerne la collaboration avec les développeurs de technologies. Bien souvent, les entreprises font progresser l’innovation tandis que la technique échappe aux autorités de régulation, qui sont maintenues à l’écart des processus de développement. Il faut renforcer la coopération entre ceux qui développent la technologie et ceux qui veulent nous protéger, et impliquer les médecins, les patients et d’autres groupes d’intérêt.
On ne peut pas parler d’IA ou d’éthique sans évoquer à un moment donné les géants de la tech.
Il est inquiétant de constater qu’une poignée de grandes entreprises contrôle les normes et le développement des technologies IA. Les réglementations à venir devraient également encourager les sociétés de plus petite taille. Les petites start-up ont du mal à s’établir en raison des grandes contraintes qui sont imposées. Les grandes entreprises, en revanche, avec leur armada d’avocats et leurs équipes de compliance, peuvent se permettre de payer des amendes élevées. Une réglementation trop stricte pourrait aussi renforcer notre dépendance envers les grandes entreprises.
Abordons maintenant le sujet de la médecine personnalisée: comment évaluez-vous le potentiel de l’IA dans ce domaine?
La médecine personnalisée cherche à adapter les traitements aux besoins spécifiques d’un individu. On parle plus exactement de médecine de précision. Si je donne le même médicament à deux personnes du même âge et souffrant de la même maladie, le traitement n’est pas précis. L’une d’elles est peut-être plus petite, a d’autres gènes ou réagit différemment. Maintenant, nous sommes capables de proposer des traitements plus précis, en fonction du génotype, de la posologie et d’un moment.
L’IA joue ici un rôle important en analysant d’énormes volumes de données et en identifiant des schémas. Nous comptons sur l’IA pour accélérer considérablement la médecine de précision afin que chaque personne obtienne exactement ce dont elle a besoin.
À l’avenir, les assureurs maladie pourraient-ils dire: «Si tu fais partie de ce programme basé sur l’IA, tu bénéficieras d’avantages. Sinon, tu n’en auras pas»?
C’est précisément sur ce point, à mon avis, que le fonctionnement de la réglementation est important. On parle ici de l’usage qui est autorisé pour cette technologie. Une entreprise peut-elle l’exploiter pour offrir des avantages ou nuire à certaines personnes? Peut-elle pousser les gens dans une certaine direction? L’interdiction de devoir établir des profils génétiques à l’intention de l’assurance maladie montre que nous pouvons réglementer l’utilisation de la technologie sans freiner cette dernière. La société, qui forme un collectif, a convenu que nous n’étions pas responsables de nos gènes. On a le droit d’être assuré quelle que soit la maladie dont on souffre. Ce sont donc les conditions sociales que nous devons réguler, et non la technologie.
Qu’est-ce que l’AI en médecine?
La plupart du temps, l’intelligence artificielle est utilisée pour effectuer des prédictions. On l’entraîne avec d’énormes quantités de données pour qu’elle apprenne à identifier des schémas. Si l’IA est ensuite utilisée dans une nouvelle situation, elle est capable de faire des prévisions en un clin d’œil en se basant sur ces schémas. La médecine utilise l’IA, par exemple, pour détecter des tumeurs sur des radiographies, pour sélectionner des médicaments ou pour optimiser les processus de travail dans les cliniques.

Effy Vayena est professeure de bioéthique à l’EPF de Zurich où elle dirige le Health Ethics and Policy Lab. Ses recherches, qui portent sur les liens entre éthique, technologie et politique de la santé, façonnent le discours sur la santé numérique, l’intelligence artificielle et la médecine personnalisée.