Big data : Pourquoi l’industrie pharmaceutique va devoir changer

Big data : Pourquoi l’industrie pharmaceutique va devoir changer

Publié le 05 juillet 2017

S'appuyant sur la masse extraordinaire de données issue des objets connectés de santé, des réseaux sociaux et du séquençage génomique, le big data appliqué à la santé apparaît comme le nouvel eldorado des laboratoires pharmaceutiques. Optimiser les essais cliniques, personnaliser les traitements et accompagner les patients, réduire les coûts de la R&D... ce nouveau marché s'annonce aussi prometteur médicalement qu'économiquement. Mais les big pharma ne le conquerront pas sans les géants du web et les start-up biotech.

La e-santé, ce marché estimé entre 2,2 et 3 milliards d’euros par an entre 2014 et 2017, s'appuie grandement sur le big data. L'analyse massive des données de santé vient peu à peu bouleverser l’industrie médicale et le secteur pharmaceutique. Optimiser les essais cliniques, éviter les scandales de type Médiator ou pilule de troisième génération, suivre des patients… les industriels de la pharma ne comptent pas passer à côté des opportunités offertes par les méga données.

Depuis quelques année, ils multiplient les partenariats avec les acteurs du numérique. Fin août 2015, le laboratoire Sanofi s’est associé avec la division Sciences de Google, – l’entité derrière la lentille qui mesure le taux de glucose -, pour améliorer la prise en charge et les résultats cliniques de personnes atteintes de diabètes de type 1 et 2. Au CES 2016, le laboratoire suisse Novartis a quant à lui annoncé un partenariat avec Qualcomm. L’objectif ? Concevoir des inhalateurs connectés pour accompagner le traitement des patients souffrant de BPCO, une maladie pulmonaire. Ces nouveaux objets vont peu à peu entrer dans la vie des patients et générer une masse de données qui va devenir la nouvelle matière première des big pharma.

LES STRATÉGIES DES INDUSTRIELS

Multipliant acquisitions et partenariats, le géant pharmaceutique Roche fait figure de prou dans l’adoption des technologies d'analytics. En novembre dernier, l’industriel a financé à hauteur de 200 000 euros le programme Epidemium, porté par le laboratoire de biohacking La Paillasse. Des équipes pluridisciplinaires tavailleront sur ce projet participatif : statisticiens, épidémiologistes, mathématiciens, économistes, bioinformaticiens, biologistes, médecins, experts en data mining, en machine learning, en data visualisation... Ensemble ils tenteront de mieux comprendre le cancer à travers 21 000 jeux de données rendues accessibles sur une plate-forme dédiée.

Pour Jean-François Thébaut, cardiologue et membre du collège de l’HAS (haute autorité de santé) :"L’abondance de données va permettre de nouvelles études épidémiologique pour définir de nouvelles normes [de nouveaux symptomes qui permettent d’améliorer le diagnostic, ndlr], mais la capacité d’analyse des algorithmes doit encore s’affiner, pour éviter l’écueil dans lequel est tombé Google en 2014 avec son outil de prévision d’épidémie de grippe. "Google s’est planté car son algorithme a été pollué par un championnat de hockey au Canada, qui faisait émerger des mots polysémiques, sur les réseaux sociaux, on parlait de la fièvre du match", reprend le chercheur. Comme tout outil lorsqu'il est utilisé dans le domaine médical, le big data doit l'être avec prudence...

EXTRAIRE DES INFORMATIONS PERTINENTES

Si la force de l'analyse de données est bien de compiler et comprendre de grosses quantités de data hétérogènes (météo, démographie, forum de discussions de patients, symptômes…), il faut des algorithmes intelligents qui s'appuient sur les technologies de machine learning et de calcul cognitif, pour la rendre pertinente.

Avec son projet Watson, IBM travaille justement à analyser ces données non structurées et le langage naturel, un vivier d’information pour l’industrie pharmaceutique. "Watson sait lire des millions de publications scientifiques, des résultats d’études cliniques, des brevets... Il sait trouver des relations cachées entre des 'objets' discutés dans ces contenus variés et les propose comme autant d’hypothèses de travail au chercheur", détaille Pascal Sempé, responsable Santé Watson pour IBM France. En septembre dernier, Big Blue a d'ailleurs signé un partenariat avec Teva Pharmaceuticals. Le laboratoire compte exploiter la plate-forme Cloud Watson pour mener des recherches sur les maladies chroniques, comme les migraines, l'asthme et les maladies dégénératives.

RÉDUIRE LES COÛTS DE R&D

A toutes les informations présentes sur la toile s’ajoutent désormais les données que remontent les objets connectés et les applis mobiles. Une mine d’or pour la recherche pharmaceutique. Selon le Leem (syndicat des entreprises du médicament), dans le secteur, la R&D engloutit 10,2% du chiffre d’affaires des laboratoires. "De 10 000 molécules criblées à 10 qui feront l’objet d’un dépôt de brevet et une qui parviendra à passer toutes les étapes de tests et d’essais cliniques pour devenir un médicament, le chemin de l’innovation au malade est long (douze ans en moyenne), complexe et coûteux. La mise au point d’une nouvelle molécule représente un investissement d’environ 1 milliard d’euros", explique le syndicat sur son site. Le big data promet de réduire les coûts de la R&D pharmaceutique, comme le rapporte une étude de McKinsey Global Institute. L’institut estime que l’analyse de méga données pourrait générer un gain de 100 millions de dollars au sein du système de santé américain, en optimisant l’efficacité des recherches et des essais cliniques.

LA CHIMÈRE DU RISQUE ZÉRO ?

Au-delà de son coût réel, l’essai clinique, l'une des dernières étapes avant la mise sur le marché d’un médicament, peut être dévastateur pour l'image d'un laboratoire quand il tourne mal. Rares, ces drames marquent l’opinion publique au fer rouge, comme l'a fait le décès d’un volontaire en janvier 2016 dans le cadre d’un essai clinique réalisé par Biotrial. Le big data permettra-t-il de les éviter ? "Les contrôles de sécurité passent désormais par des procédés plus perfectionnés", souligne le rapport McKinsey. S'il ne se substitue pas aux essais cliniques, le big data autorise la détection précoce, voire en temps réel, d'effets indésirables.

Il s'appuie sur cela sur des commentaires laissés par les patients sur les forums dédiés, les récurrences de requêtes dans les moteurs de recherche, les dossiers médicaux, et de plus en plus les données remontées par les objets connectés lorsque les malades sont suivis en continue. "Le big data va permettre d’identifier des signaux faibles. En cherchant des corrélations et des récurrences sur les réseaux sociaux, les laboratoires peuvent identifier des effets secondaires", abonde Jean-François Thébaut. Ils pourront aussi détecter de la manière la plus fine possible quels caractères génétiques répondent à quel traitement. Google va même plus loin en promettant de prédire les maladies futures en décodant l’ADN.

LE BUSINESS DE LA GÉNOMIQUE

Après "mieux vaut prévenir que guérir", entrons nous dans l'ère "mieux vaut prédire que prévenir" ? La génomique est le domaine où les promesses du big data sont les plus grandes. Dans le viseur : une médecine totalement personnalisée où les traitements sont adaptées au patient. C'est pourquoi les industriels historiques du secteur se positionnent sur le séquençage de l’ADN. Pfizer s’est par exemple associé à Google début 2015 pour accéder aux données génétiques récoltées par 23andMe, société californienne de biotechnologie et filiale du géant du web.

Le séquençage du génome a fait d’énormes progrès ces dernières années : aujourd'hui il est possible de faire décoder son génome en quelques minutes et pour moins de 100 dollars. Mais pour en faire un réel levier de transformation de l'industrie pharmaceutique, des défis restent à relever. Le génome de chaque individu représente 3 milliards de bases (qui forment nos gènes) réparties sur 23 chromosomes. "C'est du big data en soi. Cette somme d'information prend un espace monstrueux, le stocker et le transmettre pose des problèmes industriels et écologiques", alerte Jean-François Thébaut. Sur ce marché qui pourrait atteindre un milliard de dollars d'ici 2018, Google et Amazon s’affrontent. Les acteurs américains jouent des coudes pour que le stockage de ces séquences d'ADN soient réalisé sur leurs services cloud. Derrière, Microsoft et IBM sont en embuscade.

UNE MYRIADE DE PETITS ACTEURS

Mais là non plus, les industriels de la pharma ne veulent pas rester sur la touche. Quelques mois après avoir investi dans la start-up Stratos Genomics, le laboratoire Roche a acheté fin 2014 Bina Technologies, une société californienne spécialisée dans le stockage et l’analyse de gènes. Intégrée au sein de l’entité séquençage du laboratoire, l'équipe de Bina Technologies tente désormais d'améliorer la vitesse et les coûts de l’analyse génomique du géant suisse.

Comme ces deux pépites, une myriade de start-up de biotechnologies s'est créée sur ce créneau. En France, la start-up Quinten met pa exemple à disposition des laboratoires un algorithme pour améliorer l'analyse des essais cliniques. Elle collabore actuellement avec Roche, ServierSanofi... Depuis 2011, Lixoft s';intéresse de son côté à l'amélioration du développement de nouveaux médicaments. Son logiciel Monolix permet de traiter des masses de données issues de tests de molécules sur l'homme et les animaux, mais aussi d’étudier des phénomènes complexes comme la pharmacocinétique d’un médicament (son devenir dans le corps), la dynamique d’un virus ou encore l’effet d’un traitement.Sur le marché du séquençage de l'ADN, les start-up foisonnent également. Créée en 2008, GenoSplicea développé une technologie capable de détecter des mutations génétiques. De son côté, Sophia Genetics analyse les données génétiques générées par les hôpitaux du monde entier et fait déjà mieux que Foundation Medecine au même âge, société américaine dont Roche possède 57% du capital.

Parmi ces start-up fermente peut-être le prochain Big Pharma ? A moins que les grands laboratoires ne parviennent à racheter les pépites au fur et à mesure...

 

Source : Big data : Pourquoi l'industrie pharmaceutique va devoir changer

Cet article Big data : Pourquoi l'industrie pharmaceutique va devoir changer est apparu en premier sur Pole NSL.

Partagez sur :