Michael Phillips de l'université d'Australie de l'Ouest à Perth et ses collègues ont comparé l'algorithme Deep Ensemble for Recognition of Malignancy développé par Skin Analytics Limited, qui a financé l'étude, à des spécialistes sur leurs capacités à diagnostiquer de manière fiable et spécifique des mélanomes sur 1.550 images de lésions cutanées suspectes provenant de 514 patients, majoritairement blancs.
Les images avaient toutes été prises avec trois appareils photo différents: celui de l'iPhone 6s (Apple), celui du Galaxy S6 (Samsung) et un reflex D5500 (Nikon).
Déjà entraîné sur des images dermoscopiques, l'algorithme a eu deux cycles d'apprentissage supplémentaires avec des images extraites de l'étude.
Parmi les 1.550 images de lésions utilisées, 551 ont fait l'objet d'une biopsie, établissant définitivement le diagnostic. Sur ces biopsies, 22,7% ont été identifiées comme étant des mélanomes par histopathologie, 26,8% comme étant des naevi dysplasiques et 50,5% ont reçu un autre diagnostic.
Après un troisième entraînement, l'aire sous la courbe de la fonction d'efficacité du receveur (AUROC) (q
Pour modifier les paramètres de vos cookies, cliquer ici.
Vos réactions