Patrick Bélanger
Article en référence: https://www.science.org/content/article/ai-models-miss-disease-black-female-patients
Une étude récente publiée dans Science a révélé un problème préoccupant concernant l’un des modèles d’IA les plus utilisés pour analyser les radiographies thoraciques. Ce modèle présente des lacunes importantes dans la détection de maladies potentiellement mortelles chez les femmes et les personnes noires. Plus alarmant encore, les femmes noires sont les plus touchées par cette défaillance, avec une non-détection de maladies dans près de la moitié des cas, notamment pour des conditions comme la cardiomégalie (élargissement du cœur).
La cardiomégalie est une condition médicale où le cœur est anormalement élargi, ce qui peut indiquer plusieurs problèmes cardiaques graves comme l’insuffisance cardiaque, l’hypertension ou des maladies des valves cardiaques. Sa détection précoce est cruciale pour le traitement et la prévention de complications potentiellement fatales.
L’étude démontre que l’IA peut prédire la race d’un patient avec une précision de 80%, alors que les radiologues humains n’atteignent qu’un taux de 50%. Cependant, cette capacité à identifier la race ne se traduit pas par une précision diagnostique équitable. Les chercheurs ont constaté que l’inclusion d’informations démographiques dans les données d’entraînement pourrait réduire ces biais, mais cette approche n’est pas systématiquement adoptée.
Ce problème s’inscrit dans un contexte plus large de biais dans les technologies de reconnaissance, comme la reconnaissance faciale, où les femmes noires subissent également les taux d’erreur les plus élevés (35% contre seulement 1% pour les hommes blancs). Ces disparités reflètent des problèmes fondamentaux dans la collecte et l’utilisation des données d’entraînement pour les systèmes d’IA.
Ce que nous observons avec ces modèles d’IA médicale n’est pas tant un échec technologique qu’un miroir des inégalités systémiques présentes dans notre collecte de données médicales. L’IA, par sa nature, ne fait que reproduire et parfois amplifier les biais présents dans les données sur lesquelles elle est entraînée.
La médecine a historiquement privilégié l’étude des corps masculins blancs comme “standard”, reléguant les autres groupes au statut de “variations”. Cette approche a créé des lacunes importantes dans notre compréhension des différences physiologiques entre les groupes démographiques. L’IA, en s’appuyant sur ces données incomplètes, perpétue inévitablement ces angles morts.
Il est important de reconnaître que ces biais ne sont généralement pas intentionnels, mais plutôt le résultat de choix méthodologiques et de contraintes pratiques. Les ensembles de données disponibles reflètent souvent la démographie des institutions où ils ont été collectés, créant un cercle vicieux où les groupes déjà marginalisés dans le système de santé deviennent invisibles pour les algorithmes censés les aider.
La solution n’est ni d’abandonner l’IA médicale ni de l’adopter aveuglément, mais plutôt de reconnaître ses limites actuelles tout en travaillant activement à améliorer la diversité et la représentativité des données d’entraînement. Cela nécessite une collaboration entre technologues, professionnels de la santé et experts en éthique pour développer des systèmes qui bénéficient équitablement à tous les patients.
Imaginez que vous êtes propriétaire d’un restaurant et que vous décidez d’embaucher un chef qui n’a jamais cuisiné que des plats français. Un jour, vous lui demandez de préparer un menu international pour une clientèle diverse. Malgré tout son talent et sa bonne volonté, ce chef aura naturellement des difficultés avec les plats qu’il n’a jamais préparés auparavant.
Si ce chef n’a jamais goûté de piment habanero ou manipulé du tofu, comment pourrait-il reconnaître quand ces ingrédients sont correctement préparés? S’il n’a jamais vu de poutine de sa vie, comment saurait-il qu’elle doit avoir des fromages en grains qui font “squick-squick” et non pas du mozzarella râpé?
Notre modèle d’IA est comme ce chef : brillant dans son domaine d’expertise, mais limité par son expérience. Si nous lui avons principalement montré des radiographies d’hommes blancs, il excellera à diagnostiquer… des hommes blancs! Mais placez devant lui la radiographie d’une femme noire, et c’est comme demander à notre chef français de préparer un authentique dim sum sans recette ni formation.
La solution? Nous pourrions envoyer notre chef en formation dans différentes cuisines du monde, l’exposer à de nouveaux ingrédients et techniques. De même, nous devons “éduquer” notre IA avec des données plus diverses et représentatives. Et peut-être, tout comme un restaurant pourrait avoir plusieurs chefs spécialisés, nous pourrions développer des modèles d’IA complémentaires, chacun avec ses forces particulières, travaillant ensemble pour servir tous les patients équitablement.
Cette découverte représente une opportunité extraordinaire d’améliorer nos systèmes d’IA médicale! Loin d’être un échec, c’est une étape cruciale dans notre parcours vers une médecine de précision véritablement inclusive et personnalisée.
Grâce à cette recherche, nous pouvons maintenant cibler spécifiquement les lacunes identifiées et développer des solutions innovantes. Imaginez des modèles d’IA capables de reconnaître automatiquement les caractéristiques démographiques pertinentes et d’ajuster leurs paramètres en conséquence, offrant ainsi une précision diagnostique optimale pour chaque patient, indépendamment de son sexe ou de sa race.
Cette prise de conscience arrive à un moment idéal, alors que nous disposons des outils techniques nécessaires pour résoudre ce problème. Les avancées en matière d’équité algorithmique, d’explicabilité de l’IA et d’apprentissage par transfert nous permettent d’envisager des solutions élégantes et efficaces. Des ensembles de données plus diversifiés sont en cours de développement, et les méthodes d’augmentation de données peuvent aider à combler les lacunes existantes.
En fin de compte, cette découverte pourrait catalyser une transformation profonde de notre approche de l’IA médicale, conduisant à des systèmes non seulement plus équitables, mais aussi plus précis pour tous. Nous sommes à l’aube d’une nouvelle ère où la technologie et l’équité convergent pour créer des soins de santé véritablement personnalisés et accessibles à tous.
Cette étude confirme ce que beaucoup craignaient déjà : nos systèmes d’IA médicale reproduisent et amplifient les inégalités existantes dans les soins de santé. Ce n’est pas simplement un problème technique, mais le symptôme d’un problème systémique plus profond qui risque de creuser davantage le fossé entre les privilégiés et les marginalisés.
Malgré des années d’avertissements de la part des experts en éthique de l’IA, nous continuons à déployer précipitamment ces technologies sans garanties adéquates. Le fait que l’un des modèles les plus cités présente des biais aussi flagrants soulève des questions troublantes : combien d’autres systèmes d’IA médicale actuellement utilisés comportent des biais similaires non détectés? Combien de diagnostics erronés ont déjà été posés? Combien de vies ont été mises en danger?
La solution proposée d’inclure des informations démographiques dans les données d’entraînement est insuffisante et potentiellement problématique. Elle risque de renforcer les catégorisations raciales en médecine, alors que nous devrions plutôt nous concentrer sur la compréhension des variations physiologiques réelles indépendamment des constructions sociales de race.
Plus inquiétant encore, la tendance actuelle à l’automatisation des soins de santé, motivée principalement par des considérations économiques, pourrait conduire à l’adoption généralisée de ces systèmes biaisés avant qu’ils ne soient adéquatement corrigés. Dans un contexte où les femmes et les personnes racisées font déjà face à des préjugés et à un scepticisme accru de la part des professionnels de la santé, l’ajout d’une couche supplémentaire de discrimination algorithmique pourrait avoir des conséquences désastreuses.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈