Back
Une nouvelle méthode de « deep learning »
L’analyse visuelle d’images de coupes histologiques et leur annotation par des anatomopathologistes, afin de délimiter des régions d’intérêt pour des analyses ultérieures, requièrent un investissement en temps très important. Le « Center for Microscopy and Molecular Imaging » (CMMI) a développé une méthode pour automatiser une partie de ce processus.
Il y a peu, les chercheurs devaient délimiter manuellement des centaines, voire des milliers de régions d’intérêt dans des images pour en extraire des informations pertinentes. Aujourd’hui, les algorithmes d’apprentissage, en particulier ceux de « deep learning », permettent à un ordinateur d’apprendre à reconnaitre des objets, des structures ou des formes à partir d’exemples. « Il s’agit de programmes informatiques qui apprennent par eux-mêmes les caractéristiques spécifiques de ces objets », explique Yves-Rémi Van Eycke, chercheur informaticien dans le pôle de Pathologie digitale (DIAPath) du CMMI. « Ils peuvent ainsi en automatiser la détection dans des images. »
Des milliers d’exemples autogénérés
Yves-Rémi Van Eycke a travaillé sur l’épithélium glandulaire du tissu colorectal. Son objectif : faire en sorte que le programme apprenne à reconnaître efficacement les glandes dans une coupe histologique. Après avoir demandé à un expert d’entourer ces structures sur une centaine d’images, l’informaticien a également créé un algorithme qui, sur base de ces exemples réels, permet de générer automatiquement les centaines de milliers d’exemples virtuels nécessaires à l’apprentissage.
« Cette génération automatique d’exemples diminue considérablement l’investissement humain nécessaire », explique Yves-Rémi Van Eycke.
« Ce qui prenait des mois peut désormais être fait en moins d’une journée. » (1)
Faire (presque) fi des variations de colorations et de formes
« Notre méthode est aussi plus précise et plus robuste vis-à-vis des variations de coloration et de forme, qui peuvent perturber la reconnaissance par ordinateur. » Pour rappel, des techniques de coloration sont utilisées pour différencier des protéines et/ou des composants cellulaires (noyaux, cytoplasme, etc.). Les protéines ainsi mises en évidence et leur répartition varient d’une coupe histologique à l’autre.
« Différentes machines, techniques et manipulations peuvent aussi induire des variations de colorations », ajoute Yves-Rémi Van Eycke.
« De plus, dans du tissu colorectal sain, les glandes sont bien régulières et formées d’un chapelet de cellules plutôt homogènes. En revanche, dans du tissu cancéreux, l’épithélium glandulaire peut être très déformé. Dans une certaine mesure, notre méthode permet de passer outre ces variations. »
Et pour d’autres types de glandes ?
Cette nouvelle méthode de « deep learning » intéresse au premier plan les chercheurs en cancérologie et les anatomopathologistes. Et pas seulement ceux qui travaillent sur le tissu colorectal.
« Nous avons désormais un nouvel outil adaptable pour détecter des structures glandulaires », se réjouit Yves-Rémi Van Eycke.
« Nous l’avons notamment testé pour la reconnaissance de glandes prostatiques. L’ajout d’exemples spécifiques permettrait d’améliorer ses performances, mais le programme a “appris” le concept de base. » Notes :
(1) Van Eycke YR et al.,
Segmentation of glandular epithelium in colorectal tumours to automatically compartmentalise IHC biomarker quantification: A deep learning approach in « Medical Image Analysis », juillet 2018.