top of page

Brève incursion dans l’IA en santé… en 2024

Le monde de la santé n’échappe pas à la règle commune, qui voit l’information s’appuyer sur des masses de données de plus en plus phénoménales. À l'ère des entrepôts de données de santé, des méga-cohortes, des études cliniques hybrides, des dispositifs (médicaux) connectés, de l’accès au SNDS, les sources d’information se multiplient, et les données affluent, toujours plus abondantes, toujours plus diverses.


Dans ce contexte qu’on désigne souvent par le néologisme “infobésité”,  comment trier, hiérarchiser, interpréter ces énormes quantités de données ? L’Intelligence Artificielle (“IA”) est désormais un outil majeur pour répondre à ces questions. 


Nous vous proposons aujourd’hui une brève incursion dans l’IA et dans ce qu’elle représente réellement en 2024. Vous nous suivez ?


Un peu d’histoire : l’IA, nouvelle technologie ou antiquité ?

Avant de plonger dans les détails et les définitions de l'IA contemporaine, faisons un bref retour en arrière pour découvrir les dates clés de cette technologie au fil du temps.

Chronologie de l’évolution contemporaine de l’intelligence artificielle


Bien que le terme ne soit apparu qu’en 1956, on peut considérer que cette notion est née avec une publication scientifique d’Alan Turing en 1950. Elle posait les bases permettant de distinguer un humain d’une machine cherchant à l’imiter (Test de Turing).

Dès les années 1960, la recherche en IA a pris différentes directions : développement “d’assistants virtuels” ou de “chatbots” à l’origine d’interactions inédites entre un utilisateur et une machine, création de systèmes experts qui facilitent l’application des procédures diagnostiques pour des infections bactériennes -  oui, on s’est intéressé très tôt aux usages de  l’IA en santé !


Mais c'est seulement récemment, grâce à une explosion de la quantité de données produites et de la puissance de calcul des machines, que nous avons assisté à l'essor fulgurant de ces technologies, qui occupent aujourd’hui tous les esprits ! Et l’IA telle qu’on l’entend désormais doit avant tout être comprise comme une combinaison de plusieurs évolutions technologiques récentes…


Lorsque la technologie pousse à l’intelligence ! 



NB : 1 Zetta-octets = 1000 milliards de Giga-octets


Observons d’abord quelques indicateurs de volume et de capacité.


Le volume de données créées augmente exponentiellement en passant – au niveau mondial – de 2 zettaoctets (Zo) en 2010 à 18 Zo en 2016, pour atteindre 64 Zo en 2020. Selon les prévisions,  près de 181 zettaoctets seront générés en 2025.

Bien que seulement 2 % des données générées chaque année soient conservées l'année suivante (Rapport de l’Assemblée Nationale), cela demeure une quantité considérable d’informations à gérer !


Plus nombreuses, les données sont aussi plus accessibles que jamais ; avec le cloud, les informations stockées ne sont plus limitées à une connexion directe à des serveurs physiques, mais sont désormais accessibles de partout, à tout moment. À l’heure où un « syndrome de Diogène numérique » semble se dessiner - chaque personne devenant créatrice d’une quantité de données de plus en plus importante -, quelle est la provenance de toutes ces informations ?

Chacun a maintenant son “digitosome”


Dans cette figure, nous voyons un portrait du monde moderne où tout ce qui concerne notre santé peut être suivi et analysé grâce à la technologie. Chaque action, des repas que nous mangeons jusqu'à nos promenades au parc, laisse une petite trace numérique. Comme un journal intime électronique, réunir ces traces construit une image complète de notre santé. Cela inclut non seulement les informations de base comme l'âge et le poids, mais aussi des détails plus personnels recueillis par nos smartphones ou montres intelligentes. Tout cela contribue à mieux comprendre et traiter les maladies, comme le diabète, en prenant en compte non seulement nos symptômes, mais aussi notre style de vie.

Alors, où et comment l’IA vient-elle jouer un rôle dans cet écosystème ? La réponse est simple : à toutes les étapes ! Depuis la collecte des données jusqu’à leur analyse et leur interprétation, L'IA tient un rôle clé…


Les gigantesques quantités de données générées par nos interactions avec la technologie transforment les hommes et leur environnement en écosystème  numérisé… Vous l’avez compris : le Big Data fait dorénavant partie intégrante de notre société. 

En parallèle, les capacités purement humaines pour traiter et classer les données ne peuvent pas suivre un tel rythme. C’est donc à ce moment qu’entre en jeu le second changement technologique majeur de ces dernières années : la puissance de calcul !




La puce M1 Ultra (2022) embarque 114 milliards de transistors versus 16 milliards pour la M1


L’explosion des données va main dans la main avec l'évolution de la puissance technologique, qui, elle aussi, a franchi des étapes monumentales : la puce M1 d'Apple en 2020 était déjà 4000 fois plus performante qu'un Pentium de 1993 !

Cette multiplication des informations, principalement non structurées, défie nos méthodes traditionnelles de stockage et d'analyse, surtout dans des domaines aussi critiques que la santé, où la masse de données non structurées exige une nouvelle approche de gestion et d'exploitation de l'information (source : Forbes).



Face à cette situation absolument inédite, comment nous y prendre pour revoir notre façon de penser les données ? Comment, en somme, innover dans notre façon de les traiter ?

L’IA est le pivot de cette révolution, fournissant les outils nécessaires pour structurer, comprendre et exploiter les océans de données, en particulier dans le domaine sensible de la santé. Elle n'est pas seulement un complément à nos capacités existantes, mais une force d'analyse !


Ceux qui font de l’IA de nos jours…  


Dans cette course vers l'innovation, Amazon mène le peloton des géants de la “tech”, avec un investissement colossal de 75 milliards de dollars en R&D en 2022 -  à mettre en regard des 42,7 milliards dépensés en 2020. Ces chiffres, en révélant l'engagement de la plateforme dans une innovation débridée, soulignent bien  l'importance stratégique de la recherche et du développement dans le secteur technologique.


Ces montants sont colossaux face à ceux qu’investit le secteur de la santé,  alors même que la  finalité des investissements dans ce domaine devrait conduire ses acteurs à accélérer… Le budget R&D le plus important dans l’industrie pharmaceutique n’est en effet à ce jour “que” de 17 milliards de dollars - même si en 2023, 10,5% du budget R&D des industries pharmaceutiques est consacré à l’IA, en très forte croissance depuis depuis les 5,7% de 2022 (source Morgan Stanley).


Pour autant, au regard des ressources mobilisées pour la recherche en IA dans tous les secteurs de la recherche et de l’économie, il n’est pas étonnant que le rythme de l’innovation se soit emballé et donne lieu quasi quotidiennement au développement de nouvelles techniques et  d’outils innovants (source : Accelerate AI-Powered Drug Discovery With NVIDIA BioNeMo).


Mais, tel le bateau de Thésée, avec tant de changements et de modifications, l'entité que nous appelons aujourd'hui "intelligence artificielle" est-elle encore celle envisagée lors de la rencontre fondatrice de Dartmouth ? Que signifie réellement l'IA de nos jours ? Comment réconcilier la diversité des techniques et des applications ? Et en quoi est-ce légitime ?

Il est temps d'examiner de plus près ce que recouvre désormais cette fameuse “intelligence artificielle”. Explorons donc les différentes approches qui en sont proposées !


Définition de l’IA ou modestes tentatives…

Il est toujours plus simple de parler d’un sujet lorsqu’on sait de quoi on parle. Commençons donc par examiner les définitions qu’on peut donner à l’IA. Et en tout premier lieu, ce qu’en disent des experts du sujet :

“Un ensemble de techniques permettant à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux” 

- Yann LeCun (Meta | Collège de France)


Tiens, tiens… on pense souvent intelligence = humain mais Y. LeCun nous oblige à penser que certains animaux ont eux aussi des comportements “intelligents”... 

Examinons alors notre définition préférée : 

“Tout problème pour lequel aucune solution algorithmique n’est connue relève a priori de l’IA” 

- Jean-Louis Laurière (Université Pierre et Marie Curie). 


La nuance est subtile mais fondamentale : un algorithme est l'artefact d'une réflexion humaine, une distillation de la réalité en une série d'instructions logiques, tandis qu'un modèle, bien que façonné par ces mêmes algorithmes, se dessine et s'affine au gré des données qui le nourrissent. Il est l'empreinte numérique laissée par le passage des informations à travers le filtre de l'algorithme.


Enfin, Stéphane Mallat nous rappelle que l'IA est un subtil mélange de plusieurs disciplines scientifiques :

“La science des données est une discipline émergente qui a évolué d’une approche essentiellement statistique,dans les années 2010, à un domaine mélangeant différentes branches des mathématiques et de l’informatique, dont l’IA.”

- Stéphane Mallat (Collège de France) 


Trois experts présentent trois visions différentes mais complémentaires de l’IA. Face à cette diversité, des institutions en proposeraient-elles une définition collégiale ? En bon Européen, regardons du côté de l’Union européenne, qui décrit dans le cadre de l’IA-ACT  :

“A software that is developed with one or more of the techniques and  approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with”


Pour le Parlement européen, une IA est donc tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Plus précisément, la Commission européenne considère que l’IA regroupe :

  • les approches d’apprentissage automatique ;

  • les approches fondées sur la logique et les connaissances ; et

  • les approches statistiques, l’estimation bayésienne, et les méthodes de recherche et d’optimisation.


Que pouvons-nous en retenir ? 

  1. Il n'existe pas de définition unique et universelle (nette et précise) de l’IA. Et on perçoit que ce qui est IA aujourd’hui pourrait ne plus l’être demain avec le progrès de l'algorithmique.

  2. L’IA est une discipline à la croisée des mathématiques, des statistiques et de l'informatique. L’apprentissage, caractéristique fondamentale de l’intelligence, est partie prenante de la plupart des systèmes d’IA, permettant d’optimiser leurs performances.


Le Machine Learning ou apprentissage automatique…

Disons le clairement : le ”Machine Learning”, c’est 90% (voire plus diront certains…) de l’IA en 2024. 


Le Machine Learning (ML) est une branche de l'IA dont l’objectif est de développer les capacités d'un système à se configurer à partir de données. C'est-à-dire d'améliorer ses performances à résoudre des tâches sans être explicitement programmé pour chacune d’entre elles. 

Plus vulgairement, on dit que le modèle apprend à partir de données déjà connues, qu’on lui fournit et qui le nourrissent. 


Lors de la phase d'entraînement, des algorithmes complexes vont détecter des relations entre les données de la base et exploiter les motifs et régularités présents pour déduire des règles descriptives. Ces relations sont sauvegardées sous la forme d’un modèle.

Lors de la phase d’exploitation du modèle, le programme va calculer une réponse à partir de données qu’il ne connaît pas.

Les algorithmes d'apprentissage peuvent se catégoriser selon le mode d'apprentissage qu'ils emploient.


L'apprentissage supervisé 


Commençons par l'apprentissage supervisé : imaginez un professeur qui corrige un examen en utilisant le corrigé. 


L'apprentissage supervisé est une méthode d'apprentissage automatique où un modèle est entraîné à partir d'un ensemble de données contenant des entrées (ou caractéristiques) déjà associées à des sorties (ou étiquettes) correspondantes. Durant le processus d'entraînement, le modèle fait des prédictions basées sur les entrées et ajuste ses paramètres internes de manière répétée pour minimiser la différence entre ses prédictions et les sorties réelles connues. Une fois entraîné, le modèle peut alors être utilisé pour prédire les sorties de nouvelles entrées jamais vues auparavant, en se basant sur les patterns et les relations qu'il a appris durant l'entraînement. 


Cet outil puissant est déjà utilisé dans notre quotidien pour prévoir le temps, détecter les fraudes bancaires ou aux aides sociales, ou encore, dans le domaine de la santé, prédire les crises de maladies inflammatoires. 

Ce mode d’apprentissage nécessite, comme il a été dit, de grandes quantités d’exemples, “étiquetés” avec la bonne réponse associée, ce qui est coûteux et pas forcément disponible. Une solution alternative repose alors sur l’'apprentissage non supervisé, qui permet découvrir des connexions inattendues dans un ensemble de données.


L'apprentissage non supervisé 


Imaginez donner à un ordinateur un gros tas de photos sans aucune légende et lui demander de les trier. Sans savoir ce que sont les images, l'ordinateur commence à les organiser par similitudes, comme grouper ensemble des photos qui ont beaucoup de bleu (peut-être des photos de la mer) ou celles avec de nombreux cercles (peut-être des photos de ballons). C'est l'apprentissage non supervisé : l'ordinateur cherche tout seul des motifs et des liens dans les données sans que nous lui ayons dit quoi chercher spécifiquement.

C’est le mécanisme d’apprentissage lui-même qui propose des catégories pour regrouper les réponses possibles.


L'apprentissage par renforcement 


L'apprentissage par renforcement, c'est un peu comme dresser un animal avec des friandises : un programme informatique (l'agent) apprend à faire des tâches en recevant des "friandises virtuelles"  quand il fait bien, ou un "non" symbolique quand il se trompe. Lorsqu'il exécute correctement une tâche, il reçoit une récompense virtuelle, et en cas d'erreur, une sanction symbolique lui est attribuée. La version numérique du conditionnement pavlovien, en quelque sorte…


Une "action correcte", c’est quoi exactement ? Dans le cas de l’apprentissage d’une IA, il s'agit d’une décision prise par l'agent qui le rapproche de son objectif final. Cette action est dite "correcte" non pas dans un sens moral ou éthique, mais plutôt en termes d'efficacité, pour atteindre un but spécifique fixé au préalable. 


La récompense est donc attribuée pour encourager l'agent à reproduire des comportements bénéfiques pour atteindre ses objectifs, tandis que la pénalité dissuade les actions qui s'en éloignent. Le système de récompenses et de pénalités est essentiel pour guider l'apprentissage de l'agent et affiner ses stratégies au fil du temps.

L'objectif de l'agent est d'accumuler autant de récompenses que possible, ce qui traduit son amélioration et son adaptation progressive. A la manière d’un étudiant veut maximiser ses notes, par exemple.


C'est par exemple grâce à cette méthode que des robots ont appris à rester stables sur leurs "pattes", ou que le programme Alpha GO de Google s’est entraîné pour détrôner le champion du monde du jeu de Go.


Le Deep Learning 


Le Deep Learning, ou apprentissage profond, est une branche avancée du Machine Learning qui s'inspire de la complexité du cerveau humain. À travers des réseaux de neurones artificiels, ces modèles informatiques s'attaquent à des problèmes délicats tels que le diagnostic médical via l'imagerie, la traduction automatique, ou encore la reconnaissance faciale.


Le schéma ci-dessus illustre de manière simplifiée le principe d’un tel réseau. Imaginez une cascade de filtres analytiques : la première couche repère une silhouette, les suivantes affinent l'observation jusqu'à distinguer des traits féminins, et la dernière couche, tel un dénouement, reconnaît que la silhouette est celle de Thérèse, une connaissance. Cette capacité à identifier et analyser avec une telle finesse s'inspire de notre propre réseau neuronal cérébral, bien que les similitudes entre les deux s'arrêtent là. Signalons tout de même une légère entorse à la vérité de notre illustration : en réalité, on n’arrive presque jamais à expliquer en termes humains le rôle de chacune des nombreuses couches individuelles d’un réseau de neurones. Il n’y a que dans des cas très particuliers que l’on arrive à attribuer une fonction tangible à certaines de ces couches…


Ces techniques révolutionnaires ont boosté les performances des systèmes d'apprentissage automatique et ont permis des avancées significatives, ouvrant la voie à des innovations telles que les chatbots intelligents – des assistants virtuels qui peuvent dialoguer et apprendre de manière autonome, comme le quasi-incontournable ChatGPT d'OpenAI ou encore Mistral IA, une création française.


En somme, les progrès technologiques se multiplient, les quantités de données s'accumulent et les méthodes d’analyse de plus en plus poussées ouvrent à l’IA tous les champs des possibles. Toutefois, encore faut-il avoir à accès à ces précieuses données ! Dans un élan résonnant avec l'esprit des Lumières et l'humanisme, une nouvelle frontière de l'altruisme s’inscrit avec le partage de nos données personnelles, pouvant même devenir un pilier éthique de notre époque. Un engagement vers l'édification d'une société où la technologie et l'humanité avancent main dans la main pour le mieux-être de tous.


Partager ses données

Partager ses données, un geste qui devient essentiel et nécessaire dans l'ère de l'IA. Comme le souligne Gérard Raymond, président de France Asso Santé, “Donner son sang, c’est aider son prochain ; il en est de même du partage de ses données de santé. Les partager à son équipe soignante, c'est être mieux soigné ; les partager pour tous, c'est permettre que l'ensemble de nos concitoyens le soient aussi.”

On pourrait donc sauver des vies grâce à nos données ? 


En partageant nos informations médicales avec notre équipe soignante, nous nous offrons la possibilité d'une meilleure prise en charge. Mais allons plus loin, à l'image des mots tirés de L’Éthique de Baruch Spinoza, "À l'homme rien de plus utile que l'homme." En partageant nos données pour la recherche et le développement de l'IA, nous contribuons à l'amélioration d’outils qui peuvent bénéficier à l'ensemble de la société.


“Chacun de nous met en commun sa personne et toute sa puissance sous la suprême direction de la volonté générale; et nous recevons encore chaque membre comme partie indivisible du tout.”

- Jean-Jacques Rousseau, Du Contrat Social,


De manière similaire, dans le domaine de la santé, chaque individu peut mettre en commun ses données pour contribuer à une recherche plus puissante, agissant pour le bénéfice de tous - y compris soi-même. Concrètement, pour le sujet qui nous intéresse ici, plus de données pertinentes permet de développer des outils d’IA plus performants, dont tous pourront bénéficier.

Ces concepts philosophiques illustrent bien l'idée que le partage de données est un acte altruiste qui peut avoir un impact positif sur la santé individuelle et la société dans son ensemble… 


Entre espoirs et craintes : faisons équipe (Man-Machine-Teaming)

Attardons-nous enfin sur l’intégration de l’IA dans nos pratiques, et sur la manière de nous en servir efficacement. Car c’est bien de cela qu’il s’agit : un ensemble d’outils ou de techniques, qu’il faut apprendre à utiliser. 


Bien que parfois très ressemblante, notamment lorsqu’on s’intéresse aux IA génératives les plus avancées (comme ChatGPT ou Mistral AI), il faut demeurer vigilant à ne pas tomber dans le travers de l'anthropomorphisme pour décrire les IA. L’anthropomorphisation, c’est le fait d’attribuer des caractéristiques  humaines à une entité non-humaine, créant ainsi des biais d’analyse de son comportement. En humanisant l'IA, on s’expose à accorder une confiance excessive aux décisions prises par l'IA, et à en négliger les conséquences éthiques, sociales et juridiques, en oubliant qu’il s’agit… d’un programme informatique ! Il est donc primordial d’instaurer des règles claires pour guider l’utilisation des systèmes d’IA, afin notamment de préserver le rôle de décideur de l’humain.


La véritable innovation dans l'alliance homme-machine réside en effet dans son humanité : elle s'entrelace avec notre savoir-faire pour amplifier notre compréhension du monde. Les modèles d'apprentissage automatique sont de formidables outils, capables de distiller des résultats précis à partir de montagnes de données. Reconnaître ce en quoi la machine excelle et lui permettre de prendre le relais de l’humain est crucial, tout comme reconnaître les domaines où notre intervention humaine reste indispensable, que ce soit pour des raisons éthiques ou de pertinence. L'intégration réussie passe donc par une auto-analyse honnête de nos forces et faiblesses. 


De plus, pour éviter la perte de compétences essentielles, il est crucial de suivre l'exemple des pilotes de chasse qui s'obligent à se poser  régulièrement sans assistance, même lorsque les systèmes d'aide à l'approche sont opérationnels, afin de maintenir leurs compétences aiguisées pour les situations d'urgence.


Dans les sciences et en médecine, l'intelligence artificielle n'est pas un remplaçant (surtout pas !) mais un partenaire, laissant aux chercheurs et aux cliniciens la place de guides éclairés. L’intégration des outils d’IA dans la pratique ne cherche pas à prendre la place du praticien, mais aspire à lui proposer le meilleur des adjoints, un outil qui, avec une précision et une rapidité inégalées, analyse et synthétise l'information pour enrichir les décisions humaines. 

C'est dans cette collaboration que réside la promesse d'un futur où la technologie et l'humanité avanceront de concert vers une compréhension plus profonde du patient, et une prise en charge plus efficace.


bottom of page