5. Aspects éthiques et juridiques de l’utilisation de l’IA
Travailler avec l’IA implique donc non seulement des défis techniques, mais soulève aussi des questions éthiques, juridiques et de société. Et ce n’est pas ChatGPT qui va pouvoir nous fournir les réponses à ces questions.
- Que va-t-il se passer si l’IA se trompe de diagnostic, par exemple ne reconnaît pas une tumeur, ou propose un traitement qui aggrave la maladie, voire entraîne la mort? Qui est responsable?
- Dans quelle mesure voulons-nous faire confiance aux résultats d’une IA si nous ne savons pas exactement comment elle y aboutit (problème de la boîte noire)?
- Qu’en est-il si nous devons divulguer beaucoup de données personnelles pour pouvoir bénéficier de systèmes d’IA? Et qui contrôle nos données? Dans quels buts sont-elles vraiment utilisées?
- Dans quelles conditions des médicaments et traitements basés sur des systèmes d’IA peuvent-ils être autorisés?
- Les personnes ont-elles suffisamment confiance en un traitement qui se base fortement sur l’IA?