LE GUIDE

INTERVIEW

 

 

JéRôME BERANGER

Économiste et gestionnaire de santé, senior manager,

chercheur associé (PhD)

KEOSYS

 

Ses recherches portent sur l'éthique et la sociologie des systèmes d'information destinés à l’e-santé, aux m-health et aux Big Data.

 

Parcours

Jérôme Béranger est titulaire d’un Master2 d’économie et gestion des services de santé obtenu à l’université Paris 9 - Dauphine. Il a dans un premier temps effectué un stage en conseil auprès de la direction des hôpitaux. Il a travaillé pendant un an sur le projet COMPAQH (Coordination pour la Mesure de la Performance et l’Amélioration de la Qualité Hospitalière), a étudié les Balanced Scorecard (tableaux de gestion) au sein des hôpitaux et a dressé un état des lieux des outils existants à l’étranger pour l’appliquer sur le territoire français. Il a retenu de ces expériences la grande sensibilité et l’importance des systèmes d’information dans le domaine de la santé.

 

Il a ensuite rejoint des cabinets de consulting, respectivement Sanesco puis Jalma, où pendant 3 ans il a fait du conseil en stratégie et management hospitalo-médico-social et en assurance santé. C’est là qu’il s’est aperçu de points communs de dysfonctionnements entre différents secteurs de la santé, principalement dus à l’inexistence d’un langage commun et d’un problème de communication. La difficulté de compréhension entre diverses entités représentait un frein important à un service optimal pour la prise en charge de l’usager de santé. Il a alors eu envie d’imaginer un outil universel leur permettant d’interagir entre tous les acteurs de la santé. Ensuite, Jérôme a rédigé sa thèse doctorale en éthique médicale au sein de l’université de médecine d’Aix-Marseille sur le : « Modèle d’analyse éthique des systèmes d’information en santé appliqué à la cancérologie », financé par la société Keosys (Leader IT en Imagerie Médicale appliquée à la Recherche Clinique et au Diagnostic Médical). Ses recherches sont centrées sur l'approche à la fois éthique, sociologique, organisationnelle et technologique de la conception et l'usage des systèmes d'information en santé, la communication médecin-patient, la télémédecine, la e-santé, la m-health et les Big data médicaux. Il a publié pour la société Keosys une quarantaine d’articles scientifiques dans des revues reconnues, et d’un livre intitulé : « Les systèmes d’information en santé et l’éthique ».

Cliquez ici.

 

Enfin, fort de son expertise dans ce domaine, Jérôme Béranger propose des prestations de gestion de projet, d’audit et de formation (via KEOSYS Consulting) sur la qualité et l’éthique médicale appliquées aux Nouvelles technologies de l’information et la communication (NTIC).

 

Éthique et Big Data : une association inédite

 

Associer l’éthique et la technologie peut paraître inhabituel, et pourtant cela devient une nécessité ! Les NTIC vont généralement plus vite que les textes de loi qui les régissent, et lorsque les lois apparaissent elles ont souvent un périmètre d’action déjà obsolète. La modélisation, elle, est en perpétuelle mouvance dans le temps et en constante évolution. D’où l’idée d’associer éthique, modélisation et technologie qui s’impose à nous.

 

Premier constat : l’éthique est un sujet qui permet de faire converger les opinions- par définition un groupe d’éthique est composé de profils variés, pluridisciplinaires, qui se basent sur la science pour chercher à donner du sens à des actions.

 

L’éthique s’appuie sur 4 principes fondamentaux : le principe d’autonomie (le libre-arbitre sans influence extérieure), le principe de bienfaisance (le bien-fondé d’une action), celui de non-malfaisance (ne pas nuire à une personne) et le principe de justice (égalité et équité). L’autonomie et la bienfaisance se mesurent à un instant

-t. Le principe de malfaisance doit pour sa part intégrer une notion de temps et les répercussions sur la durée. Alors que le principe de justice a une valeur plus associé à l’aspect sociétal.

 

À l’instar des échelles de qualité de vie, Jérôme Béranger a souhaité développer une échelle de valeur de la donnée numérique pour mieux encadrer et maitriser la donnée numérique tout le long de son cycle de vie. Le problème n’est pas la donnée en tant que telle mais son usage par le biais des algorithmes qui l’exploitent.

 

C’est alors apparait la notion que Jérôme a appelé « l’éthique algorithmique ». L’idée est d’encadrer l’outil qui fait le traitement, de hiérarchiser la donnée, depuis la donnée brute non structurée jusqu’à la donnée traitée afin de tendre vers une « info-éthique ». Il permet de suivre tout le cheminement de la donnée, depuis sa création jusqu’à son interprétation et son utilisation, afin de réduire autant que possible les nuisances et les déviances possibles. Cette nouvelle approche a pour finalité d’intégrer des valeurs et principes éthiques de la conception, la mise en œuvre, à l’usage des Big Data notamment dans le domaine de la médecine.

Cette « éthique algorithmique » doit s’imposer dans les années à venir comme étant la pierre angulaire de la relation de confiance à  construire avec le marché. Cette valorisation éthique des données deviendra certainement un des maillons de la  responsabilité légale et des futures réglementations entourant le traitement des Big Data. Un tel contexte contribue à rendre plus vigilant les utilisateurs et les instances publiques sur l’exploitation de ces « données massives » et se demander jusqu’où peut-on échanger sa vie privée pour une meilleure commodité ?

 

L’outil : un système de scoring et d’évaluation éthique

 

Jérôme Béranger a développé un outil permettant de prendre en compte les 4 principes éthiques : d’autonomie, de bienfaisance, de non-malfaisance et de justice, et y a intégré des paramètres environnementaux du réel afin de les rendre plus applicables dans le secteur des NTIC. Ces paramètres sont : la stratégie et méthodologie suivies, l’organisation et les aspects règlementaires, la structure et la technologie, la relation et la culture, le pilotage, la mise en forme, le cycle de développement et les opérations effectuées. (Voir Figure ci-dessous) Chaque paramètre est décomposé en sous-thématique, le tout formant un questionnaire général administré aux diverses parties prenantes dans le traitement de la donnée.

 

 

Cible éthique des données de santé à caractère personnel

 

 

L’objectif final est d’identifier et caractériser les enjeux liés à ces Big Data, afin de pouvoir mieux sensibiliser l’ensemble des acteurs sur leur implication, l’appropriation des données et la responsabilisation.

Le questionnaire a dans un premier temps permis de définir les bonnes pratiques pour préparer un projet Big Data en santé. En général, la question de départ consiste à déterminer les informations nécessaires à l’innovation et au bon avancement du projet. En découlent d’autres questions qui fixent un scoring global pour le projet. Lorsque ce score est inférieur à 60/100, il est considéré comme sous la limite acceptable si on souhaite respecter une charte éthique correcte.

La démarche de Jérôme Béranger veut aller plus loin en observant les risques potentiels, déclinés en enjeux éthiques et en actions technologiques. Chaque item éthique est converti en 1 ou 2 items technologiques. Les questions portent sur les actions technologiques menées et les attentes éthiques de chaque partie prenante. Il a administré son questionnaire en milieu médical et a observé que plus l’interrogé était proche du patient, moins il avait une vision éthique du système d’informations. A l’inverse, plus la personne est loin du « terrain » - les éditeurs du système d’information, les directeur d’hôpitaux, …- plus elle a une vision idéalisante du système d’information. C’est un résultat qui n’avait pas été anticipé et a révélé de fortes disparités au sein des équipes. En théorie, le système d’information doit être vu comme une aide à la décision, il doit répondre aux attentes des patients et aux exigences du professionnel de santé, quel que soit leur implication et position hiérarchique.

 

Quelques enseignements utiles

 

Dans une deuxième phase de son questionnaire, il a mesuré l’adéquation entre les attentes et le système mis en place. Les résultats ont révélé que les scores éthiques des attentes étaient significativement plus hauts que le réel.

Jérôme a finalement croisé ces résultats avec un autre questionnaire prenant en compte les moyens éthiques mis en place : sans grande surprise, plus les moyens sont élevés, plus le réel tend vers les attentes éthiques.

 

S’appuyant sur la théorie de Shannon – une équation qui permet calculer que plus l’information est grande, plus il y a d’entropie (degré de désordre) – Jérôme a créé une équation calculant le degré de désordre d’un système d’information en santé. Pourquoi est-ce utile ? Car éthiquement, le désordre n’est pas acceptable ! C’est donc une notion qui permet objectivement de déterminer le caractère éthique. Il a ainsi modestement tenté de « numériser » l’éthique, de la chiffrer, ce qui pour beaucoup est inconcevable. Etant de conception pythagoricienne, il reste convaincu que tout est numérisable et que donc on peut tout modéliser et  automatiser.

 

Fort de ce principe, Jérôme a décidé d’établir la même approche éthique sur les données de santé en tant que telles, et notamment sur les Big Data en santé. Ces premières réflexions sur le sujet ont aboutis à la publication de 4-5 articles ainsi que la rédaction d’un prochain livre, co-écrit par Jérôme Fortineau, qui sortira au début de l’année 2016 dans le cadre de ses recherches pour Keosys.

 

Cette technique permet alors de dresser une sorte de SWOT (Strengths, Weaknesses, Opportunites, Threats)  des Big Data en entreprise. Les Big Data, une notion dont il revoit d’ailleurs la définition, en la considérant par 6V- pour volume, variété, vitesse, véracité, valeur et visualisation – le dernier paramètre apportant un outil pragmatique à la définition des Big Data.

Voici ce tableau SWOT des enjeux des Big Data en santé pour une entreprise :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Au-delà de l’évaluation :

 

Évaluer n’étant pas une finalité en soi, cette démarche a depuis le départ intégré un objectif concret et opérationnel visant à apporter des recommandations pratiques, en partant des attentes et grâce aux différents items définis.

Pour déterminer les items essentiels, il a tout d’abord fallu en proposer, 20 au total, représentant plus de 40 points, dont 33 ont fait consensus. Ce sont ces 33 points qui ont ensuite été repris pour sa charte éthique et ont permis de construire le référentiel, le tout validé à l’aide de recherche dans la littérature et d’entretiens multiples avec les  acteurs du secteur. La robustesse de l’outil s’est affinée en l’appliquant sur le terrain, à l’usage.

Voici la démarche de questionnements et actions pour préparer un projet Big Data, construite par Jérôme Béranger :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Avancement du projet :

 

Lier l’éthique et les Big Data est donc une idée nouvelle, et être pionnier dans un tel domaine demande beaucoup d’énergie ! Pour construire la légitimité de cette méthode, il aura fallu au moins 43 publications scientifiques à ce jour, et 1 livre qui est sorti en Mars 2015. Depuis sa soutenance de thèse en juillet 2012, la HAS (Haute Autorité de Santé) puis le Ministère des affaires sociales, de la santé et des droits des femmes, ont  invité Jérôme à présenter ses travaux de recherche. Le cabinet d’Axelle Lemaire (Secrétaire d'État chargée du Numérique) s’intéresse désormais à cette approche pour travailler sur l’éthique des Big Data.

 

A titre personnel, son objectif est de pouvoir apporter une notion d’éthique dans le traitement de la donnée, de faire de

« l’ethical data mining ». Pour ce faire, il faut créer des synergies qui n’avaient pas été envisagées auparavant, afin de créer une norme qualité universelle, une charte éthique pour donner des outils aux industriels. En France, on pourrait créer un consortium avec tous les acteurs publics et privés afin d’établir un code de bonnes pratiques.

 

Enfin, toutes les réflexions et évaluations éthiques que Jérôme Béranger a développé, ont été appliquées lors du projet VICToria (medical imaging big data & Virtual Imaging Clinical Trials) de Keosys pour la conception, la mise en place, et l’usage des Big Data médicales. L’objectif de ce projet VICToria  est de constituer une base de données d’imagerie médicale caractérisée par fusion de données DICOM (Digital Imaging and Communications in Medicine)  et de caractérisation, d’exploiter cette « database » pour concevoir des algorithmes de modélisation des résultats d’imagerie et développer une plateforme virtuelle permettant de prédire les résultats d’imagerie dans le cadre des essais cliniques de phase III. En complément, la constitution de la base de données d’imagerie médicale caractérisée peut laisser entrevoir des outils génériques utilisables pour d’autres applications en routine clinique (médecine personnalisée) et exploration des données (data mining).

 

Big Data et éthique en santé…et ailleurs ?

 

Actuellement Jérôme travaille avec l’entreprise d’imagerie médicale Keosys, ce qui explique que ses recherches soient ciblées sur le secteur de la santé. Il est spécialiste de ce domaine et tient à y être reconnu en premier lieu.

De plus, les données de santé sont dites particulièrement sensibles : elles touchent à l’intimité et l’être lui-même.

Les données ont généralement une valeur intrinsèque (de conception), une valeur de gestion (de mise en place) et une valeur d’exploitation (d’usage). La valeur intrinsèque des données médicales est plus forte que pour toutes les autres données.

Avec l’apparition de la médecine 3.0, pour laquelle se développent des applications de bien-être prenant en compte des données de santé comme le niveau de stress, la respiration, ou même le rythme cardiaque la question éthique est appelée à se généraliser.

Cependant, les outils peuvent être extrapolés à d’autres domaines Big Data qui utilisent des données personnelles : transport, sport, banque, assurance…

De nombreux secteurs pourraient s’en inspirer pour mesurer le caractère éthique de leur traitement de données.

Google a récemment créé des lentilles, qui grâce à une micro antenne, mesurent le taux glycémie d’un diabétique. Un signal est directement envoyé au smartphone en cas d’alerte et de besoin d’une dose d’insuline. Imaginer ce type de données revendues à un assureur est extrêmement inquiétant. C’est pourquoi elles réclament des traitements spécifiques, à ce jour non-généralisés.

Établir un cadre universel pour la conception, l’usage et le contrôle des données numériques personnelles quel que soit le secteur est tout

à fait envisageable, et largement souhaitable.

Il permettrait de déterminer si les traitements - dès l’acquisition et le stockage de la donnée- sont adaptés, éthiquement acceptables, et ce pour chaque utilisation qui en est faite. Idéalement, dans les rêves les plus fous de Jérôme, la question serait de déclarer le consommateur propriétaire de sa donnée, de lui donner le pouvoir de décision et les outils nécessaire à une prise de décision éclairée et consciente. Des rêves fous ?

 

Pas nécessairement. Aux États-Unis, certaines entreprises proposent déjà de rémunérer un individu pour récupérer ses données personnelles. L’outil développé par Jérôme permettrait même de valoriser et donc de monnayer chaque donnée de l’individu. A l’image d’une bourse financière, les données personnelles auraient une valeur marchande claire, reversée à leur propriétaire.

 

Un problème demeure, celui du sourcing de la donnée. En effet, à ce jour il est encore parfois difficile de déterminer la provenance d’une donnée. Il faudrait systématiquement déterminer la finalité, l’usage, de chaque donnée, en amont, et ne pas en changer.  Sans cette rigueur, l’analyse éthique n’est plus valable.

Le Big Data - contrairement aux approches statistiques- efface la notion de causalité- et ne s’attache qu’à la corrélation. L’outil développé ici réinstaure une notion de causalité, qui représente une forme de confort éthiquement parlant.

Si on observe les 4 principes universels de l’éthique, on s’aperçoit que leur importance a évolué à travers le temps et les changements de modes de vie. Initialement, le principe de bienfaisance, le bienfondé d’une action, primait. Avec la numérisation, c’est désormais l’autonomie qui est mis en avant. Exercer son libre arbitre et son consentement éclairé est devenu essentiel. Aux Etats-Unis, on observe que c’est déjà le principe de non-malfaisance qui a pris le dessus. Ils sont dans une démarche d’anticipation, de prévention – de risque de procès par exemple, ou de coûts indirects. Ce sera peut-être bientôt le cas en Europe. Récemment un hacker américain a réussi à récupérer les données d’une des plus grandes sociétés d’assurance en santé : les répercussions pour lui, les clients mais surtout pour l’assureur ont été colossales.

 

Pour conclure, une citation de Socrate peut apporter une œil nouveau sur l’approche développée par Jérôme : « il n’y a pas une vérité mais des vérités ». En ce qui concerne notre sujet, cela traduit bien que l’outil est voué à évoluer continuellement- et le principe éthique dominant changera avec le temps, les contextes et la société. La modélisation éthique de Jérôme Béranger sur les Big Data en santé est justement construite sur cette approche et ce principe d’évolution et d’adaptation des NTIC.

Forces

 

Développement d'outils analytiques efficients au service de la santé

 

Emergence de nouveaux services pour la prise en charge des soins

 

Renforcement de la compétitivité entre les industriels de la santé

 

Analyse prédictive via les algorithmes de traitement

 

Elaboration d’environnements analytiques

 

Création d’une version unique et réutilisable de la réalité

 

Compréhension et anticipation de comportements et de parcours de l'usager de santé

 

Personnalisation de la médecine (segmentation et ciblage plus fins)

 

Médecine à la fois participative, préventive et prédictive (Médecine 3.0)

 

Automatisation des processus de prise en charge de la santé

 

Faiblesses

 

Lente conduite du changement organisationnel

 

Pénurie de compétences pour gérer

les NTIC

 

Equilibre instable entre intérêt collectif

et protection des personnes

 

Fiabilité et intégrité des données exploitées

 

 

Maitrise et traçabilité des données massives

 

Obtention du consentement libre et éclairé du propriétaire de la donnée

 

Conservation limitée des données

 

Contrôle de l’accès des données

 

Sensibilisation et formation à une "culture

de la donnée"

 

Changement du paradigme médical

 

 

Questionnements

 

 

De quelles informations avons-nous besoin pour innover et être compétitif?

 

 

 

 

 

 

Quelle est la nature des données?

 

 

 

 

 

 

 

 

Comment sécuriser les données qui contiennent des informations personnelles?

 

 

 

 

 

Comment intégrer les Big Data aux flux de données existantes et à des référentiels?

 

 

 

 

 

Quelles sont les données sous- et inexploitées à notre disposition?

 

 

 

Quelle cadre juridique encadre l'exploration des Big Data?

 

 

 

 

 

 

 

Quelles sont les données majeures à gérer?

 

 

 

 

 

 

Sommes-nous prêts à "extraire" l'information utile de nos données?

 

 

 

 

 

Quel est le dispositif de validation des données appliqué en interne?

 

 

 

 

 

 

Comment obtenir une traçabilité des données?

 

 

Actions à mener

 

Identifier les opportunités de business offertes par les grands volumes de données

 

S'inspirer des initiatives innovantes du secteur

 

 

Répertorier la fonction première des données (catégoriser, calculer, collecter, mesurer, recueillir, etc.)

 

Décrire la nature épistémologique via leur support et mode de fourniture (nombres, codes, tableaux, textes, bases de données, etc.)

 

Mettre en place des moyens permettant de garantir que la transformation est compatible avec le consentement libre et éclairé et l'anonymisation du propriétaire de la donnée

 

S’assurer de la pertinence technique et du bien-fondé humain de l'outil, en réduisant les risques inutiles ou mal calculés

 

Repérer et lister les secteurs communs entre les Big Data et les données existantes

 

Etablir une finalité unique dans laquelle les Big Data complètent et s'articulent les données existantes

 

Connaître les sources de données à la disposition de l'entreprise

 

Savoir interpréter les données brutes

 

Réaliser un inventaire des réglementations relatives au traitement des «données massives »

 

Etablir en interne un guide de bonnes pratiques, code de déontologie, ou charte éthique autour de cette exploitation

 

Décrire les qualités intrinsèque des données (applicabilité, ordonnées, fiables, pertinentes, universelles, fédératrices, etc.) ?

 

Rechercher les sources légitimes et référentes des données

 

Disposer des compétences pour analyser les données (notamment les «Data Scientists »

et les « Data Analysts »)

 

Cadrer les transformations organisationnelles, éthiques, réglementaires associées

 

 

Construire en interne un processus de validation des données (critères et métriques de validation)

 

Définir le profil du validateur, la nature des outils (si la validation est automatique) et la fréquence du dispositif

 

Construire un tableau de bord de visualisation qui permet de suivre tout le cycle de vie des données (cartographie)

 

Lister les différentes transformations effectuées et identifier les données intermédiaires produites

 

<<< Retour à la rubrique "Articles"