centredidactiquebiotech
centredidactiquebiotech

L’intelligence artificielle en médecine et pharmacie: utiliser l’IA pour aboutir à de nouveaux médicaments

On utilise d’ores et déjà ChatGPT et autres en toutes circonstances: que ce soit pour rédiger un exposé, écrire une lettre d’amour ou surveiller les épidémies. On pense aussi que l’intelligence artificielle (IA) renferme un grand potentiel pour le développement de nouveaux médicaments. Cet engouement est-il justifié?

4. Pas de révolution sans obstacles

Aussi grand le potentiel de l’IA en médecine soit-il, les défis ne sont pas moindres. Pour pouvoir entraîner un outil d’IA et obtenir de «bons» résultats, il faut avoir énormément de données de haute qualité. Or, il n’est pas toujours facile de les obtenir, par exemple:

  • parce que les données des patient-e-s sont, à juste titre, protégées;
  • parce qu’il n’y a pas beaucoup de données sur certaines questions (maladies rares);
  • parce que les données ne sont ni saisies de manière standardisée, ni sauvegardées en un lieu centralisé.

Comme des données fiables ne sont pas disponibles partout, on emploie aussi parfois des données synthétiques. Cela veut dire qu’une IA produit des données pour une autre IA.

«Même un système apprenant comme l’intelligence artificielle doit disposer de bonnes données pour fournir de bons résultats. Or, ces données n’existent justement pas encore comme nous le souhaitons en tant que scientifiques. Il n’est donc pas possible d’exploiter entièrement le potentiel de cette technologie.»

Sylvia Thun, médecin et ingénieure en génie biomédical,
Université de Basse-Rhénanie et Institut berlinois de recherche sur la santé (BIH)

Évaluation des résultats de l’IA et validation des modèles

Les outils d’IA comme ChatGPT fournissent des résultats rapidement, mais c’est toujours l’être humain qui doit évaluer la qualité de ces résultats et leur utilisation éventuelle. Donc même avec l’IA, les chercheuses et chercheurs ne vont certainement pas manquer de travail. Un point délicat est le fait que nous ne pouvons pratiquement pas comprendre comment une IA aboutit à son résultat. Ce qui se passe dans un modèle est une boîte noire. Mais pourquoi est-il problématique que nous ne puissions pas comprendre comment un outil d’IA aboutit à son résultat?

1. Si nous ne pouvons pas suivre le processus de «réflexion» de l’IA, nous ne pouvons pas bien «réparer» le système s’il fournit des résultats erronés, car nous ne savons pas où le système a pris la mauvaise piste.

2. La boîte noire signifie aussi que nous ne savons pas dans quelle mesure notre IA est robuste: est-elle capable de gérer toute situation possible et imaginable?

3. Si nous ne savons pas exactement ce que fait l’IA, nous avons aussi du mal à voir si son optique est biaisée (cf. paragraphe suivant). La boîte noire crée donc aussi une problématique éthique. Nous ne pouvons jamais savoir si elle travaille de manière vraiment «équitable».

Le biais des systèmes d’IA

Ce problème naît de la combinaison entre le phénomène de boîte noire et le manque de bonnes données: un biais, c’est-à-dire une distorsion des résultats, est en fait toujours présent, dit Sylvia Thun, experte en interopérabilité et standardisation des TI. L’important est de reconnaître ce biais et d’ajuster le résultat en conséquence. Ce qui pose problème, c’est que les systèmes auto-apprenants ne peuvent pas reconnaître de telles distorsions.

Par exemple, si les données d’un essai clinique proviennent en majeure partie de participants hommes, l’IA déduit des résultats qui seront valables uniquement pour les hommes, mais pas pour les femmes. Au pire, du fait de différences biologiques entre hommes et femmes, les résultats de l’IA pourraient même être dangereux pour les femmes (cf. chapitre «Médecine et genre»).

Ressources nécessaires

Nous ne pouvons actuellement pas chiffrer les besoins en énergie de l’IA, mais nous savons que ces systèmes en consomment beaucoup et de plus en plus. L’entreprise de conseil Gartner estime que d’ici la fin de cette décennie, les systèmes d’IA consommeront 3,5% de l’électricité du monde entier.

Protection des données

Où l’IA puise-t-elle ses données, où sont-elles rassemblées, sauvegardées et analysées? Autant de questions importantes et souvent sans réponse définitive. Il faut règlementer qui a le droit de collecter quelles données pour en faire quoi et comment.