Objectif
Le rôle pivot de l'imagerie dans la recherche clinique ne peut être remis en question au vu de son intégration dans plus de 71% des études en cours. Au-delà de son utilité diagnostique, l'imagerie joue un rôle crucial pour une quantification plus robuste et un suivi efficace des patients. Le suivi des implants de membres inférieurs en est un bon exemple puisqu’il s'effectue couramment par l'analyse d'images radiographiques afin d'évaluer à la fois les caractéristiques de la prothèse implantée et l'alignement des membres.Cependant, l'intégration de l'imagerie dans les études cliniques présente une myriade de défis tels qu’une collecte fiable des données, une déidentification méticuleuse, un contrôle qualité efficace, une structuration rigoureuse et une interprétation précise et standardisée des images médicales. Pour relever ces défis, nous avons développé une plateforme capable d’automatiser chacune de ces étapes permettant:(1)un contrôle de qualité des radiographies pour s'assurer de leurs caractéristiques, (2)une collecte et une structuration automatiques,(3)la mesure du positionnement de la prothèse sur les radiographies du genou et de la hanche pour identifier les anomalies potentielles de la prothèse et (4) la mesure des angles d'alignement du membre inférieur sur les pangonogrammes. Dans ce travail, nous présentons la création et l’interprétation automatisées d’une cohorte de radiographies pour le suivi des arthroplasties des membres inférieurs pour la chirurgie orthopédique.
Patients et Méthodes
Nous avons entraîné plusieurs réseaux de neurones en utilisant la librairie Pytorch pour l’implémentation et un ResNet50 pré-entraîné ppur l'architecture. Pour augmenter les performances, nous avons utilisé des fonctions d'augmentation des données (rotation, zoom, changement de contraste, etc..). Enfin chaque base de données a été décomposée en trois parties : jeu d’entraînement (60%), jeu de validation (20%) et jeu de test (20%).
Les cohortes de chirurgie orthopédique ont été extraites d’une base de données de 103.360 radiologies, issues d’un centre orthopédique et suivant la RGPD. 6 professionnels de santé ont labellisé les caractéristiques d’environ 28.000 images collectées automatiquement : partie du corps présente dans la radio, présence d’une prothèse, qualité de l’image, vue frontale ou latérale, etc.
Ensuite, nous avons entraîné différents réseaux neuronaux pour mesurer le positionnement de la prothèse, l'alignement du membre inférieur et pour détecter les anomalies dans le complexe os-ciment-prothèse pour le genou. Chaque étape a été réalisée en entraînant des réseaux neuronaux spécifiques à l'aide d'annotations réalisées par des experts médicaux.
Enfin, nous avons comparé nos algorithmes à la performance moyenne d'un groupe de chirurgiens.
Résultats
Pour la collecte, l’évaluation, la structure et la caractérisation du contrôle des images de la cohorte, chaque modèle algorithmique a été évalué en calculant la précision, la spécificité, sensibilité et aire sous la courbe ROC (AuROC). Tous les modèles ont obtenu des scores supérieurs à 95%.
Pour les radiographies des genoux, les algorithmes ont obtenu une erreur moyenne de 1,71° (std 1,53°), similaire à la différence moyenne de 1,69° (std 1,52°) des chirurgiens sur un sous-ensemble de comparaison. Notre pipeline a atteint une erreur d'angle moyenne de 2,59° (std 3,94°) pour les pangonogrammes et de 4,09° (std 3,21) pour les radiographies des hanches.
Sur la prothèse de genou, notre algorithme a détecté les anomalies d'interface avec une AUC de 0,95 et 0,93 respectivement sur les vues frontales et latérales. Il a surpassé les scores moyens des chirurgiens en ce qui concerne la précision avec 0,87 contre 0,79 et la sensibilité avec 0,78 contre 0,64. Nous avons mesuré une concordance inter-annotateurs de 0,66 (kappa de Fleiss).
Conclusion
Ces travaux démontrent que l’impact positif de l'IA dans la gestion de l'imagerie dépasse la simple automatisation, favorisant un changement de paradigme vers des pratiques de recherche clinique plus rapides, robustes et fiables.