Viewing posts categorised under: %s
27Sep
Que retenir de la meta-analyse publiée dans le Lancet qui oppose AI et Humain ?
Big Data

mais surtout est-ce la bonne question ?

https://www.thelancet.com/journals/landig/article/PIIS2589-7500(19)30123-2/fulltext?fbclid=IwAR1p9L0t2R0KQCKoQf1UpGnJXz5k8ZHKoyLpAjnhbm_klW8WuMshG3VY-og#%20

Le  1er Octobre 2019, The Lancet Digital Health propose cet article sur (réellement 69 avec suffisamment de data sur 82 études de 147 cohortes) plus de 31 500 études des 7 dernières années veut évaluer la précision des algorithmes de deep-learning et la pertinence diagnostic des professionnels de santé (probablement donc des spécialistes experts, ce qui peut être déjà un biais dans la vie réelle à l’échelle de l’accès aux soins sur la planète).

AI versus Human ? Est-ce la bonne question ?

En fait la méthodologie montre que la comparaison complète a été réalisée sur 14 études : un entonnoir géant qui a filtré les 31 587 études…

Sans remettre en cause cet excellent et massif travail, très bien documenté, avec des sommités et des gros outils statistiques performants, il est a retenir que l’approche part encore de méthodes anciennes de comparaisons, nécessaires à la publication dans les revues internationales et au peer-review, sans pour autant se confronter à la vie réelle.

Par ailleurs le deep-learning n’est qu’une partie de l’IA, cela ne fait pas tout d’où l’intérêt aussi de parler la même langue…

Je ne permettrais pas de juger donc la position « contre » l’intelligence artificielle versus l’humain dans ce sujet de diagnostic d’imagerie médicale (les analyses sont bonnes) car je pense qu’il ne faut pas les opposer, mais les associer de façon synergique : encore faut –il que l’AI soit bien faite…

C’est là tout l’intérêt de l’article : revenons aux discussions cependant pertinentes et sur les conclusions très intéressantes qui montrent les lacunes de l’ensemble des projets décrits et analysés…

  1. beaucoup de mauvaises définitions des données (structurées ou non)
  2. biais importants (sur de la sélection de données retrospectives, fausses hypothèses, méthodes statistiques…)
  3. corrélations fausses, mauvais testing, validations arbitraires, mauvaise terminologie
  4. pas de discussion entre les analystes/développeurs et les cliniciens
  5. sans parler des mauvaises méthodes et hyperparamétrages de machine-learning, des architectures technologiques utilisées, du partage des données qui ne sont pas dans les gold standards It ou des études cliniques

bref, évoquer de l’IA dans un projet, n’est pas tout….

Ce papier a le mérite de décrire tout ce qu’il ne faut pas faire… et –merci / ouf ! – fait partie intégrante (d’une partie seulement…) de mes recommandations dans l’ouvrage publié cette semaine et disponible en souscription…

La prochaine fois avant d’investir dans un projet, prenez les bons experts !!

https://www.remedium.co/indexai

Read More
09Sep
Web-émission Fondation des Maladies Rares : AI et parcours diagnostique
Big Data

Suivez en direct mon intervention à la table ronde sur « les potentialités et les défis à relever pour concrétiser les projets d’Intelligence Artificielle et leur intégration dans le parcours diagnostique des maladies rares, la 1ère Web-émission de la Fondation des maladies rares en direct du studio TF1, avec le soutien de la #fondationgroupama, Mercredi 11 septembre 14h-14h30

la « social Room » de TF1 – merci à David Fuhrer

le replay https://www.youtube.com/watch?v=6vIK9-hYA3A&feature=youtu.be

https://evenements-fondation-maladiesrares.org/event/live-web-emission-ia-et-maladies-rares/

Je serai aux côté de: Agnès Bloch-Zupan @unistra et Hervé Servy @SanoiaFR

Programme Animé par Anne-Sophie Yribarren @fdmaladiesrares 

à suivre sur la chaine Youtube de la Fondation

https://www.youtube.com/channel/UCeHaTRJRqyKEd8x1YgSqmzw/featured?disable_polymer=1

https://www.linkedin.com/posts/drvincentvarlet_live-web-emission-ia-et-maladies-rares-activity-6576910767369535489-LzBS

https://www.youtube.com/channel/UCeHaTRJRqyKEd8x1YgSqmzw/featured?disable_polymer=1
Read More
20Août
Intelligence Artificielle et santé : Recommandations
Big Data

Recommendations for Artificial Intelligence projects in Healthcare

https://www.remedium.co/indexai

Target Audience:

Patients groups; Academics; HealthCare Professionals; hospitals; R&D, HC Industry (Pharma, Medical Device, BioTech, CROs, …), HC Insurers (private/public), Assisters, Authorities (Health Agencies, evaluators, governments…), Start-up, IT/digital operators

KEYWORDS:

#Artificial Intelligence #Big Data #Machine Learning #Deep Learning #Block Chain  #e-Health #Bioinformatics #Biostatistics #XAI #Algorithms #Neural Network #Analytics #Privacy by design #Anonymization #re-identification #Medico-economy #10Vs’ data #Open Data #Open Auto-ML #IoT #Wearable #Medical Device #Drug Delivery #Monitoring #Compliance #Bias #Hacking #User Experience #Education #Acceptance #Intellectual Property #Agile Methodology #IT Architecture #FDA #HMA #EMA #GDPR #EU

SUMMARY

1. Introduction

2. Healthcare context

            2.1 Patient objectives 1st for an acceptance of AI

2.2 At the origin of the AI: the medical needs for the patient benefit

3. Definition

            3.1 Artificial intelligence, Machine learning, Deep learning, Blockchain, Big data

            3.2 The 10Vs’ of data and Open data

4. The data road map & checklist

            4.1 Data management in 16 steps

            4.2 Roles and Responsibilities of 6 expertise

            4.3 Collecting and protecting End Value in 5 categories

4.4 IT and tools

4.4.1 Machine learning with 6 methods,

4.4.2 ML process,

4.4.3 Statistics and Bias limitation,

4.4.4 IT infrastructure: the 7 trends

4.4.5 Auto-Machine-learning: 8 auto-ML tools

4.5 Explainable Artificial Intelligence (XAI) concept

5. Recommendations

5.1 The 7 Recommendations for data Standardization, interoperability & analysis

5.2 The 5 Recommendations for data quality, validation, regulatory acceptability

5.3 The 8 Recommendations for Privacy Impact Assessment and confidence in a patient benefit balance

5.4 Algorithm and Regulation (use cases)

 6. Conclusion

ABSTRACT:

Artificial Intelligence (AI) is a science of making tools do things that would require human intelligence and only do what it is designed to do. It’s a promising transformation for the world and a little bit scary, only due to the fact Human decide the objective, helping people, creating new ways to service, prevent, cure…. or not!

Healthcare couldn’t escape regarding this new Eldorado promise trillion productivity or business value (Aug.2019 Gartner report), but last summer we are witnessing an outcry against major health intelligence initiatives because of the unreliability of their results. European Commission should set a world-standard to protect individuals about “sensitive data, human and ethics implications of AI “ said Ursula von der Leyen, incoming President of the Commission.

The objective of this white paper is to clarify capabilities after definition and starting recommendations for the future usage of healthcare data, compiled in the word “Artificial Intelligence”.

The conclusion of this work is to describe the best road-map, team and methodology for real deliverables and added value

ABOUT THE AUTHOR: A PIONEER IN DIGITAL MEDICINE

Vincent VARLET earned his medical degree in Paris. He received also his MBA degree from P&M Curie Paris University in 1992 and a Global Certification at INSEAD in 2015.

Dr. Varlet  is the president of the Digital Healthcare think-tank  «LeLab eSanté» who regroup patient groups, HealthCare professional, pharma  industries, Institutional, start-ups,  IOT,  developers and influencers.

He spent more than 20 years in Big pharma companies, first on Marketing & Sales, then, at the end of the 90’s,  he developed new skills, using a Digital business oriented in communication. He managed diversified teams as executive, seeking resources and structures optimization, business transformation, integrating innovation in concrete valuable operations.

Mentor & Coach for EIT-Health (body of EU), Dr. Varlet is now focused on business agility and flexibility, managing start-up with the experience of processes and business orientation, helping as well Big Healthcare Companies to revamp their digital mutation.

More information on www.varlet.paris

ORDER NOW YOUR PRIVATE ELECTRONIC COPY WITH A SUBSCRIPTION OF THE LAST REPORT*

* Subscribe now and get your private electronic copy for your organization (available in Sept.19) – see copyright notice –

Private Company:  1 900€

Foundation, Public Institution, University :  950€

Patient Groups/NGO/Association: 475€

AIMed@patient
Order your private copy for your organization

(+VAT 23% for Ireland customers, 0% in the rest of EU)

remedium.technology@remedium.co

or use the contact form to ask how to proceed and to send us a Purchase order.

https://www.linkedin.com/pulse/how-set-up-best-artificial-intelligence-project-dr-vincent-varlet-/

Read More
19Jan
Big data : cela veut dire quoi ?
Big Data

big-data-varlet

Alors que nous achetons des dispositifs de stockage à des prix incroyablement bas (je viens d’acheter une clef USB de 2To en porte-clef pour moins de 20€), il est difficile de se rendre compte de la volumétrie que peuvent prendre nos données.

Ainsi il est plus facile de compte en « nombre » de photos ou d’album de musique quand chaque décennie passons du Ko au Mo puis To comme « unité » de référence.

Qu’en est-il pour l’individu face à son stockage des données de santé ?

Si vous n’êtes pas malade, ou si vous n’avez jamais eu le loisir de vous rendre aux urgences pour un traumatisme, vous n’avez pas grand chose en stockage dans les « systèmes » des établissements ou bien de l’assurance maladie. Ainsi, vos données représentent de quelques Ko (quelques milliers d’octets tout de même) à quelques Mo puis au Giga Octet dès que l’imagerie intervient car bien que digitale, elle n’est pas numérique et consomme beaucoup de ressources (de façon exponentielle de la radio conventionnelle, à l’anatomopathologie en passant par l’IRM). L’analyse du génome ou d’autres données « omiques » fait passer le curseur au stade Tera.

Finalement ce n’est rien puisque chaque individu pourrait donc tout stocker sur un porte clef USB ?

 

Un volume qui double chaque année

La progression de la consommation du stockage a progressé 50 fois plus que la croissance de la population les 8 dernières années et nous DOUBLONS ce volume chaque année.

Au delà du stockage (et donc demain de la sauvegarde), il faut donc parler de la capacité de l’analyse et du traitement de la donnée (standardisée) pour un usage bénéfique. C’est donc un autre sujet, surtout si nous évoquons la dimension de la population.

 

une corrélation pour mieux comprendre.

Si un octet représentait une tête d’épingle et 1Ko une boite de 1000 épingles, vous allez comprendre ce que veut dire X1000 (10 puissance 3) chaque fois par cette représentation. Ainsi un petit Giga correspond à 3 containers d’épingles et 1To deux portes containers. Nous sommes à l’échelle de l’individu.

le passage à une population de 1000 personnes (un petit village), ferait qu’une partie de l’Ile de France serait couverte d’épingle…. les données épinglées d’un million de personne couvriraient une partie de l’Europe.

Sur une population française qui dispose d’une répartition gaussienne de quantité de données, la meilleur estimation porte à 25 HexaOctets aujourd’hui mais nus arriverons vite au « Zeta » en 2020, soit la taille du Pacifique en épingles….

 

Un seul acteur ne peut traiter seul ces infos

Ainsi nous comprenons qu’un seul acteur (hors GAFAMS) ne peut TRAITER correctement la santé digitale de demain et que seul l’association de compétences permettra de conserver une souveraineté numérique.

 

vincent@s492153600.onlinehome.fr/

 

 

Read More