L’actualité numérique des industries de santé

    L’actualité numérique des industries de santé

    

    Politique

    L'éthique des algorithmes en santé, futur casse-tête du régulateur ?

    PARIS (TICpharma) - Certification des algorithmes, garantie humaine de l'intelligence artificielle (IA), explicabilité des outils d'aide à la décision: à l'aube d'une révision des lois de bioéthique, l'encadrement du recours aux technologies d'IA dans le secteur de la santé fait l'objet de nombreux débats et constitue un nouveau défi pour le régulateur et les pouvoirs publics.

    Nées avec l'informatique et les travaux d'Alan Turing dans les années 1950, les technologies d'intelligence artificielle n'ont jamais semblé si proches de transformer le quotidien des êtres humains, suscitant à la fois des craintes et de grands espoirs de progrès.

    En témoigne la forte présence de la thématique IA dans le débat public depuis plusieurs mois. En parallèle au rapport du député Cédric Villani (LREM, Essonne) sur le sujet, et de l'annonce en mars d'un "Plan pour l'intelligence artificielle" faisant la part belle au secteur de la santé (voir dépêche du 30 mars 2018), les technologies d'IA ont été inscrites au calendrier des états généraux de la bioéthique qui se sont tenus entre janvier et mai 2018.

    Dans l'aide au diagnostic, les choix thérapeutiques ou la prédiction de l'évolution des maladies, le recours à ces outils auto-apprenants, pour certains qualifiés de "boîtes noires", pose des questions éthiques fondamentales, notamment lorsqu'il s'agit d'analyser les données génétiques d'un individu.

    "Les tests génomiques et les séquençages du génome vont aider à appréhender un traitement et la façon d'y réagir, mais ces tests soulèvent des questions éthiques: quelle qualité des données? Quelle confidentialité et sécurité pour ces données? Comment les utiliser?", a interrogé Christine Balagué, professeure et titulaire de la chaire "réseaux sociaux et objets connectés" de l'Institut Mines-Télécom Paris, intervenant lors de la 12e édition de l'Université d'été de l'e-santé en juillet à Castres (Tarn).

    "L'opacité des algorithmes prédictifs en santé pose problème. Il y a le risque que l'humain devienne une probabilité", a-t-elle pointé. "Un patient va-t-il accepter d'être diagnostiqué directement par une machine, et quelle place pour les professionnels de santé à côté de ces systèmes d'aide à la décision?", a-t-elle ajouté.

    D'autant que les technologies d'IA sont aujourd'hui arrivées à un stade de maturité qui leur permet de se confronter au secteur bien réglementé des produits de santé.

    Outre-Atlantique, la Food and Drug Administration (FDA) a donné en avril son feu vert à la mise sur le marché du premier dispositif médical utilisant l'IA. Il s'agit d'un logiciel de la société américaine IDx, permettant de dépister, à partir d'une photo d'un œil, une rétinopathie diabétique, déficience visuelle causée par le diabète (voir dépêche du 17 avril 2018).

    Le signal est suffisamment fort pour que les autorités de régulation européennes et françaises se penchent plus précisément sur ces produits de santé d'un nouveau genre.

    La HAS et le Conseil d'Etat prennent position

    L'une des premières difficultés à relever est celle de l'évaluation de ces outils et de leurs bénéfices pour le système de santé et les patients. Comment évaluer des produits qui ne cessent d'être actualisés sous la forme de nouvelles versions logicielles? Sur quels standards ou normes internationales se reposer? Comment juger de la pertinence d'une recommandation faite par une intelligence artificielle lorsque l'outil en question manque de transparence pour expliquer sa décision?

    Autant de questions auxquelles les autorités françaises ont tenté de répondre dans leurs contributions aux états généraux de bioéthique. La Haute autorité de santé (HAS) s'est montrée favorable à l'adoption de "bonnes pratiques de développement" des outils d'IA, voire à la création d'un "cadre normatif" (voir dépêche du 22 mai 2018).

    Elle cite plusieurs "points cruciaux" à garantir lors du développement d'algorithmes construits sur la base de l'expérience et de l'accumulation d'observations: la qualité et la quantité des données entrantes (lors du développement et de l'usage) afin d'éviter toute forme de biais, l'apprentissage de l'IA et la fiabilité des codes utilisés.

    Une mission a été lancée au sein de l'autorité administrative indépendante pour formuler, d'ici fin 2018, des propositions afin d'adapter l'évaluation des dispositifs médicaux à l'intelligence artificielle (voir dépêche du 4 juin 2018).

    Le Conseil d'Etat s'est également prononcé lors des états généraux de bioéthique en faveur d'un "mécanisme de certification propre à ceux des applications et objets connectés en santé qui ne relèvent pas déjà du régime des dispositifs médicaux".

    S'il souligne les "perspectives prometteuses ouvertes" par le recours à l'IA en santé, il pressent également que l'IA pourrait "favoriser une forme de dépossession du savoir médical, au profit des patients, qui deviendraient experts de leur maladie, voire des algorithmes qui réaliseraient seuls les actes de diagnostic et de prescription".

    Critères et organismes d'évaluation

    Intervenant le 2 juillet lors d'un colloque au Sénat sur la régulation de l'IA en santé, organisé par le think tank Ethik-IA, la chaire santé de Sciences Po Paris, l'Institut Droit et Santé et l'université Paris-Descartes, le directeur général de General Electric France, Jérôme Chevillote, a estimé que l'évaluation des outils d'IA doit répondre à "deux principes fondamentaux".

    Il a cité "l'anticipation des défaillances" qui doit permettre de comprendre comment un logiciel peut dévier de son objet initial, et "la justification en cas d'erreur", confrontée aujourd'hui au manque de transparence sur les modes de raisonnement de l'IA.

    Tout en pointant la nécessité de ne pas brider l'innovation par une régulation trop stricte, il a énuméré cinq critères à prendre en compte pour l'évaluation des produits d'IA: leur faculté à être audités, la traçabilité de leurs raisonnements, la justification de leurs résultats, la garantie de fonctionnement de l'outil et la standardisation des formats de données.

    Dès lors que de tels critères sont identifiés, quel acteur pourrait être assigné à la régulation de ces outils? La HAS, plus habituée à l'évaluation des produits de santé traditionnels, semble manquer de compétences pour décortiquer les algorithmes d'IA.

    Lors d'une audition par la commission des affaires sociales de l'Assemblée nationale le 25 juillet, le Pr Jean-François Delfraissy, président du Comité consultatif national d'éthique (CCNE) a été interrogé sur l'opportunité, pour le comité, de devenir une instance de régulation de l'IA.

    "La réponse est non", a-t-il tranché. Il s'est en revanche montré ouvert à l'accompagnement par le CCNE de la création d'une future agence de régulation, déjà évoquée dans le rapport Villani. Il a indiqué qu'un "groupe de travail flash" avait été mis en place au niveau du comité avec des "membres de la communauté de l'intelligence artificielle", afin de produire un rapport sur le numérique en santé qui sera repris dans l'avis général du comité afin de donnée une "vision d'éclairage et une clarification des enjeux qui se posent".

    Quelle responsabilité des professionnels de santé?

    Au-delà de l'évaluation et de l'accès au marché, la question de la responsabilité des professionnels de santé en cas d'erreur des outils d'IA revient fréquemment dans les débats sur l'éthique et l'usage des algorithmes dans la sphère médicale.

    Pour le Pr Lydia Morlet, maître de conférences en droit privé à l'Institut Droit Santé Paris-Descartes, le droit français est aujourd'hui suffisant pour traiter le sujet. Elle a cité deux régimes de responsabilité: la responsabilité du fait des choses et la responsabilité du fait des produits défectueux.

    "Soit l'IA cause un dommage du fait d'un défaut de fabrication, et c'est la loi de 1998 sur la responsabilité du fait des produits défectueux qui s'applique, soit le dommage intervient en dehors de tout défaut, et on raisonne sur la logique classique de la responsabilité pour faute sur le fondement de la loi Kouchner", a-t-elle détaillé.

    Pour rappel, la loi Kouchner de 2002 subordonne la responsabilité du médecin à la démonstration d'une faute à son encontre, notamment pour un retard de diagnostic, une faute technique opératoire ou un manquement au devoir d'information.

    Lorsque c'est l'outil d'IA qui est à l'origine du dommage, Lydia Morlet a incité à réfléchir à un mécanisme qui permette au patient d'avoir une "première action" contre l'établissement ou le professionnel de santé utilisateur de l'outil. "A charge ensuite à l'établissement de recourir contre le fabricant sur la base de la responsabilité finale de ce dernier", a-t-elle noté.

    Des pistes de "régulation positive"

    "Le droit actuel permet de répondre à l'essentiel des questions liées à l'IA", a confirmé David Gruson, membre de la chaire santé de Sciences Po Paris et ex-délégué général de la Fédération hospitalière de France (FHF) à la tête du think tank Ethik-IA.

    Entendu par la commission des affaires sociales du Sénat en juillet lors d'une table ronde sur "les nouveaux enjeux de l'intelligence artificielle en santé", il s'est dit personnellement en faveur d'une régulation assurée par la HAS "à condition qu'elle laisse la marge de manœuvre au déploiement de solutions de certification adaptées et conçues avec les acteurs de terrain".

    Lors de la consultation publique menée dans le cadre de la mission Villani, le think tank Ethik-IA a proposé "cinq clés pour une régulation positive du déploiement de l'IA et de la robotisation en santé".

    La première d'entre elles est l'information et le recueil de consentement du patient pour le recours à l'IA dans son parcours de prise en charge. Vient ensuite la "garantie humaine de l'IA" qui doit être assurée par "des procédés de vérification régulière -ciblée et aléatoire- des options de prise en charge proposées par le dispositif d'IA" et "l'aménagement d'une capacité d'exercice d'un deuxième regard médical humain à la demande d'un patient ou d'un professionnel de santé".

    Le think tank Ethik-IA cite ensuite la "graduation de la régulation en fonction du niveau de sensibilité des données de santé", "l'accompagnement de l'adaptation des métiers" et l"intervention d'une supervision externe indépendante" pour veiller au respect des principes précédents.

    Il a également élaboré, à partir d'une expérience menée par l'institut hospitalo-universitaire (IHU) Imagine sur la mise en place d'un outil de stockage et de traitement des données par des technologies de machine learning (apprentissage automatique), un projet de norme relative à l'application de l'intelligence artificielle aux données génétiques et à leur traitement.

    Ces travaux pourraient continuer à alimenter les discussions en vue sur la révision des lois de bioéthique. Le ministère des solidarités et de la santé entend présenter un projet de loi à l'automne, en vue d'un examen début 2019 au Parlement.

    La Rédaction
    redaction@ticpharma.com

    À suivre

    La réalité virtuelle, un moyen potentiellement efficace pour traiter le vertige

    Solutions

    "La DSI a besoin d'être plus visible au sein des industries de santé" (association Cedhys)

    PARIS (TICpharma) - Pierre-Yves Colin, président du Centre d'études dans les domaines de l'hygiène et de la santé (Cedhys), qui rassemble des directeurs informatiques du secteur de la santé, détaille dans un entretien à TICpharma le programme de travail de l'association pour 2018 et livre son analyse de l'évolution des métiers IT dans la filière industrielle.

    0 256

    Politique

    La France doit structurer et amplifier son patrimoine de données de vie réelle (rapport)

    PARIS (TICpharma) - Un rapport sur le suivi en vie réelle des médicaments publié le 19 décembre pointe les forces et les faiblesses de la France en termes de sources et d'outils de traitement des données en vie réelle, et formule plusieurs recommandations pour profiter des apports du numérique dans la réalisation d'études observationnelles.

    0 237

    Vos réactions

    • Q

      QdS

      "la Food and Drug Administration (FDA) a donné en avril son feu vert à la mise sur le marché du premier dispositif médical utilisant l'IA. Il s'agit d'un logiciel de la société américaine IDx". Cette phrase est incorrecte. Artesys (dirigée par un français) a été homologué par la FDA dès 2016, et Cardiologs (pépite française!) dès 2017. En revanche, IDX est la première à revendiquer un diagnostic qui n'a pas besoin d'être revu par un médecin, au vu de ses performances. Comme les tests de grossesses, les dispositifs de dépistage du VIH vendus en pharmacie en France, etc...

      03/08/2018 à 10:31

      Signaler un abus au modérateur

    Anti-spam : Veuillez saisir le résultat de ce calcul S.V.P
    1 + 5 =