Actualité 14 novembre 2014

Big Data : après le Machine Learning, ne ratons pas le coche du Deep Learning

AUTEURS

  • Mehdi Chouiten, PhD, Senior Data Scientist chez Parkeon, membre de Renaissance Numérique et Charles Ollion, PhD, Spécialiste Machine Learning chez Heuritech

  • Charles Ollion, PhD, Spécialiste Machine Learning chez Heuritech

La révolution industrielle a rendu possible l’exploitation de quantités monumentales de ressources naturelles qui apparaissaient jusque là comme lourdes à extraire et à transformer étant donné les procédés traditionnels impliquant la force manuelle (animale et humaine).

Aujourd’hui, nous sommes à un point de rupture comparable. 90 % des données dans le monde ont été générées au cours des deux dernières années (Source IBM) !  Cette matière première ne demande qu’à être exploitée, si possible de façon automatisée et “industrielle” afin d’en extraire la plus grande valeur.

Alors que les acteurs économiques et le grand public découvrent à peine les technologies de Big Data et, au cœur de celles-ci, le Machine Learning (méthode d’apprentissage automatique : il permet à un algorithme de se modifier de façon autonome à partir de l’analyse de bases de données), un progrès spectaculaire vient d’être franchi en termes d’intelligence artificielle : le Deep Learning. Les travaux basés sur le Deep Learning remportent nombre de compétitions de Machine Learning et démontrent régulièrement leur supériorité.

Le Deep Learning : une nouvelle avancée dans l’intelligence artificielle

Le Deep Learning a été comparé par des neuroscientifiques à l’apprentissage humain, comme un modèle permettant d’apprendre à partir d’une information brute en grande quantité. En effet, cette technologie  montre des capacités comparables à celles du cerveau humain : des tâches initialement ciblées par les réseaux de neurones originaux et qui semblaient inatteignables dans le monde réel et ses nombreuses contraintes deviennent désormais une réalité objectivement envisagée, comme la reconnaissance intelligente de la parole quelque soit la langue et en tenant compte du contexte, la reconnaissance et la classification d’objets 3D, etc.

Deep Learning : la nouvelle révolution pour le Big Data

Le Deep Learning n’est pas qu’un Buzzword. Derrière cet engouement déclenché par les nombreuses possiblités d’applications, il y a de réelles avancées scientifiques. D’abord du point de vue conceptuel, contrairement au Machine Learning classique, le Deep Learning regroupe des algorithmes génériques mimant le fonctionnement biologique d’un cerveau sans être destiné à une tâche précise. Partant du constat qu’une zone du cerveau peut aussi bien servir à traiter des images que des sons, l’idée est d’avoir des algorithmes génériques indépendants de l’application.

Un réseau profond (deep) est constitué de différentes couches (par exemple de neurones artificiels) organisées de façon hiérarchiques. Lorsque le réseau est entrainé, les couches inférieures (reliés aux entrées du réseau) apprennent à représenter au mieux la structure des données. L’entraînement des couches inférieures est appelé le pré-apprentissage (pre-training) et nécessite un grand nombre de données brutes (images, texte, extraits sonores…).

L’avantage de ce pré-apprentissage est double : il permet de booster significativement les performances du modèle, et d’être beaucoup plus général que les algorithmes classiques de Machine Learning. Ainsi il sera possible de réutiliser le même modèle pré-entrainé sur des tâches différentes.

Par exemple, sur un projet de reconnaissance faciale, il est avantageux  d’entraîner les  couches inférieures à décrire les éléments fondamentaux constituant un visage (bouche, yeux, nez…). Au niveau suivant, ces parties seront organisées en descripteurs de plus haut niveau (paire d’yeux avec une distance variable entre les deux, alignement entre le nez et la bouche…). Le réseau aura alors appris de lui même (on parle alors d’apprentissage non-supervisé) les meilleures briques de bases pour pouvoir reconnaitre efficacement des visages.

Avoir un réseau de neurones classique entrainé directement sur les données brutes ne permet pas cette hiérarchisation dès le départ. Pour cette raison, le temps de traitement devient alors extrêmement long (plus que ce qu’on ne peut accorder à un système de cette nature pour pouvoir prendre une décision). De plus, les couches du réseau classique sont beaucoup plus spécifiques à un problème précis que celles obtenues par Deep Learning.

Cela permet donc une généricité plus importante ainsi que des applications plus nombreuses et plus performantes.

Une technologie en plein boom

En quelques années, le Deep Learning a permis une meilleure performance sur de nombreux problèmes de recherche (traitement des images, du son, du texte, etc.), dépassant des dizaines d’années de recherche spécifique dans chacun des domaines. Du fait de ce bond de performance, cette technologie connaît une intégration rapide dans des systèmes réels. Déjà, la reconnaissance vocale sur les téléphones Android ou iOS (Siri) utilise le Deep Learning, ce qui a significativement amélioré le service.

À long terme : quels horizons pour le deep learning ?

C’est dans le domaine du traitement de l’image que le Deep Learning a le plus montré sa puissance révolutionnaire : certains modèles deep obtiennent des performances comparables au cerveau humain (voire supérieures) en classification automatique des images. Facebook a d’ailleurs récemment annoncé un modèle de reconnaissance faciale “DeepFace”. Microsoft démontre lui aussi un intérêt pour le sujet avec le projet Adam qui parvient à faire de la classification d’images allant jusqu’à identifier la race d’un chien sur une photo. Quant à Yahoo, il a récemment racheté la startup LookFlow, spécialiste de Deep Learning, pour traiter de manière innovante la reconnaissance d’images.

À plus long terme, les sociétés comme DeepMind (rachetée par Google pour 400M dollars en 2014) cherchent à combiner les neurosciences avec le Deep Learning pour créer des systèmes artificiellement intelligents.

De nombreux scientifiques ont l’intuition que le Deep Learning représente une avancée majeure dans la traduction automatique et l’analyse des textes. Nul doute que ces premiers résultats concluants de technologies qui « apprennent » de manière autonome donneront lieu à d’autres projets de plus en plus ambitieux et peut être que la réalité dépassera la science fiction.


Sur le même sujet