ACL

Connexion

Association des Centraliens de Lyon

   Liste des articles
CC0 Creative Commons
Vue 549 fois
10 janvier 2019

L’IA au service de la découverte de nouveaux médicaments

Publié par | Société

Tirant profit de l’effet de mode autour de l’Intelligence Artificielle, de nombreuses start-ups de l’industrie pharmaceutique prétendent en exploiter ses bénéfices. Mais quels gains réels peuvent être attendus de l’application de l’Intelligence Artificielle et quelles applications pourraient faciliter la recherche de nouveaux médicaments? 

Cet article est extrait du dossier inter-Centrale "L'ingénieur au service de la santé" accessible aux adhérents de l'ACL (plus d'infos pour devenir membre)


Les coûts associés à la recherche et au développement dans l’industrie pharmaceutique ne cessent d’augmenter. Les travaux menés sur le long terme par l’économiste Joseph DiMasi (directeur du Tufts Center for the Study of Drug Development) mettent en évidence la multiplication par 6, entre 1991 et 2013, du coût moyen nécessaire pour amener une nouvelle molécule sur le marché (~450M€ en 1991 versus ~2 560M€ en 2013).

Dit autrement, il faut toujours plus d’argent pour financer la recherche d’un seul candidat médicament et les essais cliniques qui permettront de valider son efficacité et sa sûreté avant d’être commercialisé sur un marché. Dit autrement encore, la R&D de l’industrie pharmaceutique connaît une longue et continue perte d’efficacité, une observation qualifiée d’«Eroom’s law» par les anglo-saxons.

D’après le rapport annuel de Deloitte «Measuring the return from pharmaceutical innovation», le retour sur investissement des grandes entreprises pharmaceutiques est en décroissance rapide (3.2% en 2017 versus 10% en 2010), tant et si bien qu’il pourrait devenir négatif au début de la décennie 2020. Le modèle de la R&D pharmaceutique est donc en crise et il devient urgent de l’adapter.


Un processus long et coûteux…

La recherche de nouveaux médicaments, en particulier de petites molécules (par opposition aux biologiques, molécules plus grosses, plus complexes et moins stables), peut être vue comme une succession d’étapes d’identification et de filtration de molécules. On la segmente habituellement en quatre étapes.

D’abord, l’étude physiopathologique de la maladie permet d’identifier une cible thérapeutique (un virus, une enzyme, une hormone, etc.). Ensuite, le hit generation dresse une première liste de molécules sélectionnées pour leur activité sur la cible. Le lead identification permet d’isoler les hits qui répondent le mieux à un ensemble encore restreint de critères biophysiques, chimiques et industriels: spécificité à la cible, efficacité lors de tests cellulaires, reproductibilité et synthéthisabilité, brevetabilité, etc. Puis vient le lead optimization.

A cette étape, beaucoup de molécules sous-optimales sont encore considérées; le chimiste médicinal aborde un problème d’optimisation multiparamétrique: les structures chimiques des meilleurs leads sont modélisées afin de concevoir de potentiels dérivés ou isomères qui maximisent un grand nombre de critères.

Le lead optimization est souvent un casse-tête pour les chimistes, rappelant celui du Rubik’s cube: maximisez un paramètre, vous en dégradez un autre. Cette étape concentre à elle seule environ 50% des coûts de la recherche, qui elle-même représente généralement 40% des dépenses de R&D.

La suite est généralement plus connue du grand public : en phase de recherche préclinique les meilleures molécules sont testées in vivo dans des systèmes non-humains afin de les qualifier sur le plan de la toxicité, de la pharmacologie et de la pharmacocinétique. Enfin, le (ou les) candidat médicament entre en phase d’essais cliniques chez l’homme. C’est la partie développement du médicament, elle représente généralement 60% des dépenses totales de R&D.


Les causes du déclin…

Les raisons du déclin de l’efficacité de la R&D pharmaceutique sont nombreuses et abondamment discutées (cf. l’article de J. W. Scannell et al. parut dans Nature en mars 2012 «Diagnosing the decline in pharmaceutical R&D efficiency»). Deux d’entre elles, peut-être les plus importantes, retiennent notre attention.

Première raison, la recherche pharmaceutique adresse des pathologies aux physiologies toujours plus complexes qui nécessitent des thérapeutiques aux mécanismes d’actions toujours plus ingénieux. Autrement dit, les maladies faciles à guérir ont déjà leurs traitements, et ont laissé la place aux cancers, maladies génétiques et autres pathologies complexes dont l’étude et la recherche de traitement requièrent des connaissances très poussées et mobilisent des ressources colossales.

Une autre raison repose sur un biais technologique : les progrès scientifiques et techniques des années 80 et 90 ont permis l’industrialisation de certaines étapes de recherche (par exemple le High Throughput Screening), gonflant artificiellement le nombre de leads générés en augmentant la capacité des étapes de filtration pourtant sans en augmenter la qualité. Ainsi davantage de molécules se sont retrouvées plus avancées dans la chaîne de valeur - en ayant consommé des ressources pour y arriver - sans pour autant être de meilleurs leads. En somme, beaucoup d’argent est dépensé dans de mauvaises molécules du fait d’une industrialisation hétérogène des processus de la chaîne de valeur.


Prédire, représenter, explorer, générer…

La clef de l’efficacité de la R&D pharmaceutique tient en partie de ce défi: trouver une molécule (i.e. mieux identifier) qui maximise un grand nombre de critères, de natures très diverses et qui seront testés de façon échelonnée dans le temps (i.e. mieux filtrer).

L’Intelligence Artificielle (IA) permet justement de bâtir des modèles holistiques de conception de nouveaux médicaments où ces problématiques sont abordées simultanément et d’emblée dans toute leur complexité.

L’utilisation d’algorithmes de deep learning pour la recherche de nouveaux médicaments se généralise en 2012, après que Georges Dalh ait remporté le Merck Molecular Activity Challenge en démontrant l’efficacité de réseaux de neurones profonds -peu entrainés- pour prédire l’activité d’une molécule à partir de sa structure, automatisant ainsi à l’extrême une discipline bien connue des chimistes : le QSAR (Quantitative Structure-Activity Relationship).


En 2016, dans un article intitulé «Automatic chemical design using a data-driven continuous representation of molecules», Gomez-Bombarelli et al. décrivent une méthode de représentation continue et multidimensionnelle de l’espace chimique mettant en œuvre des réseaux de neurones profonds.

L’application de ce principe permet une exploration plus simple, plus rapide et plus exhaustive de l’espace chimique (estimé à 1060 molécules potentiellement utilisables comme médicament), et in fine, la génération de molécules virtuelles jusqu’alors inaccessibles même via les plus grandes bases de données (contenant de l’ordre de 106 molécules).


Un cas pratique…

Nous vous proposons d’illustrer avec un cas réel, rencontré chez l’un de nos clients, l’application de ces technologies. IKTOS, start-up française fondée en 2016, a développé une technologie d’IA capable de générer des molécules sous la contrainte de prédicteurs physico-chimiques. Dit plus simplement, à partir du cahier des charges d’une molécule imaginaire idéale, la start-up identifie les molécules synthétisables qui s’en approchent le plus.

Grossièrement, la technologie d’IKTOS repose sur l’imbrication de deux algorithmes. Le premier est un modèle génératif; entraîné sur des bases de données contenant plusieurs millions de composés chimiques, il est capable de «construire» des molécules virtuelles situées n’importe où dans l’espace chimique (mettant en œuvre un principe proche de celui proposé par Gomez-Bombarelli et al.).

Le second est un algorithme prédictif; entraîné sur une base de données du client qui contient des molécules (déjà synthétisées et testées) et leurs mesures sur chacun des critères du cahier des charges, il est capable de prédire les propriétés physico-chimiques d’une molécule seulement à partir de sa structure chimique.

Cette technologie a fait la démonstration de son efficacité au travers d’une collaboration avec un important laboratoire pharmaceutique. Ce dernier mène depuis bientôt 20 ans un projet de recherche dans le domaine cardio-vasculaire, sans succès. Un cahier des charges de douze critères est à maximiser et trois équipes de chimistes se sont succédées pendant 10 ans de travail effectif. Environ 500 leads ont été identifiés (synthétisés et testés), mais aucun ne maximise les douze critères (condition pour lancer des essais précliniques): seulement 4 en maximisent 10 ou 11 tout au plus.

En quelques jours, la technologie d’IKTOS a permis de générer virtuellement 100 molécules dont les probabilités de maximiser les douze critères étaient très hautes. Pour des contraintes de temps, 11 molécules, sélectionnées sur des critères de synthéthisabilité, ont été retenues puis testées. Résultat: sept molécules maximisent 10 critères, trois en maximisent 11, et une en maximise 12. Il aura suffi de quelques jours à l’IA pour valoriser 20 années de recherche jusqu’alors infructueuses.

 

Un intérêt grandissant…

L’intelligence artificielle se vend bien et s’appréhende assez mal ; et les entrepreneurs l’ont bien compris. Nous avons identifié plus d’une centaine d’entreprises (principalement des start-ups) gravitant sur l’orbite conjointe de la R&D pharmaceutique et de l’IA. Les jeunes pousses se réclamant d’une proposition de valeur similaire ou comparable à celle d’IKTOS sont nombreuses. Celles qui sont effectivement capables de l’offrir le sont déjà moins.

En outre, le nombre encore restreint de success stories ainsi que la confidentialité qui les enveloppe participent aussi à entretenir un flou parmi les chimistes médicinaux autour des applications de l’IA dans leur métier. Si bien que beaucoup de laboratoires tâtonnent: les partenariats de recherche se multiplient, chacun cherchant à comprendre les applications possibles de l’IA, évaluer les technologies existantes et les acteurs en présence. A l’image de GSK qui réalise actuellement des PoC (Proof of Concept) avec Cloud Pharmaceuticals et In Silico Medicine, et qui a confié en Juillet 2017 un projet de recherche entier à Exscientia.


Ces nombreux partenariats (Sanofi avec Exscientia et Recursion, Merck avec Atomwise, etc. pour en citer d’autres) ne sont pas les seuls à manifester l’intérêt grandissant pour le sujet. L’intensification des publications scientifiques au cours des dernières années reflète l’engouement de la communauté scientifique.

En outre, les investissements privés s’accélèrent (~30M$ investis en 2012 versus ~500M$ et ~800M$ en 2014 et 2016 respectivement). L’enthousiasme des investisseurs se fait d’autant plus grand lorsque certaines start-ups, initialement prestataires de service de R&D pour l’industrie pharmaceutique, développent leur propre pipeline de molécules et concurrence ainsi frontalement les laboratoires pharmaceutiques traditionnels.

A titre d’illustration, la start-up Benevolent AI, dont les premiers essais cliniques sur la maladie de Parkinson ont commencé en 2018 et détenant 20 molécules en phase préclinique, a récemment levé 115M$ pour poursuivre le développement de ses activités ; elle est aujourd’hui évaluée à 2Md$.

Vers un changement des méthodes...

Nous ne faisons pas partie des rares utopistes qui croient à l’automatisation totale de la R&D pharmaceutique. Néanmoins l’IA participera certainement à la création d’une nouvelle identité de la recherche pharmaceutique. Grignotant progressivement les budgets de la recherche sur paillasse et de la chimie computationnelle, les investissements des laboratoires dans l’IA prennent une part de plus en plus importante, que ce soit pour développer les connaissances en interne ou pour faire appel en externe à un savoir-faire encore aujourd’hui faiblement maîtrisé par les grands noms de l’industrie.


Valentin Fleury (ECL 13 et EM Business School 17, Master in Management, finance et strategie) a été auditeur finance et IT chez PwC et est consultant chez CEPTON Strategies depuis 2018.

Maxime Huerre (ECL13 et Cambridge Judge Business School 17, Master in Technology Policy) est consultant chez CEPTON Strategies depuis 2017.


CEPTON Strategies est une société de conseil en stratégie se consacrant principalement au secteur de la santé. Parmi ses clients, des laboratoires pharmaceutiques, biotechs, medtechs et fonds d’investissements.

 

Découvrez le dossier complet sur l'ingénieur au service de la santé

Articles liés


Ajoutez un message personnel