Deep Learning : la révolution est en marche

 

Par Laurent Vanel, Cognitive Systems Technical Leader – IBM Systems France

Avec le Deep Learning, l’Intelligence Artificielle n’aura jamais mieux porté son nom puisqu’il s’inspire du réseau de neurones du cerveau humain pour tenter de reproduire des méthodes d’apprentissage réellement intelligentes. C’est l’amélioration spectaculaire de la puissance de traitement, grâce notamment à l’arrivée de calculateurs graphiques GPU et de circuits programmables FPGA, qui a rendu possible l’explosion récente du Deep Learning. Découvrez les champs d’application déjà vastes qu’il recouvre et les perspectives de développement qu’il offre dans des secteurs d’activités toujours plus nombreux.

Le concept d’intelligence artificielle apparaît dans les années 50’s. Les scientifiques de l’époque envisagent alors un système capable de remplacer l’être humain. Rapidement, les limites apparaissent et c’est une intelligence restreinte qui voit le jour et que l’on retrouve aujourd’hui sous la forme de machine learning. On le retrouve, par exemple, dans les messageries : c’est les mécanismes d’antispam qui apprennent ce qu’on lit ou ce qu’on ne lit pas afin de trier le courrier, ou par la reconnaissance d’image en analysant des formes et des couleurs assemblées pour l’identifier.

Très récemment, le deep learning a fait son entrée. Basé sur la façon dont notre cerveau réagit, ces réseaux de neurones artificiels vont permettent d’analyser le big data, issu de la transformation numérique de la planète. Les cas d’usages du deep learning se concentrent atour de l’exploitation de l’image et de la vidéo. On pense, en particulier, aux process qualité. Par l’analyse d’une image, on est capable de détecter, en temps réel, les défauts sur une chaîne d’assemblage. Cela permet également l’analyse des images par drones : on peut filmer et analyser des infrastructures des pylônes électriques pour détecter de possibles pannes et les éviter. Dans le domaine médical, l’analyse de mélanome ou de tumeurs assiste les médecins dans le diagnostic. Ces cas d’usage s’élargissent, avec en particulier, dans le domaine bancaire et assurance, la prise en compte d’un plus grand nombre de facteurs pour calculer des risques et faire du scoring sur des dossiers. Toujours dans le domaine médical, l’analyse génétique via l’extraction de variantes dans l’outil de séquençage va permettre de détecter beaucoup plus rapidement des maladies potentielles.

Ces algorithmes du deep learning sont connus depuis des dizaines d’années. Cependant, il manquait la puissance de traitement capable de les rendre exploitables au quotidien. Cette puissance apparaît très récemment par l’arrivée de calculateurs graphiques, les GPU, ou de circuits programmables (les FPGA) qui apportent cette puissance. Des algorithmes tels que TensorFlow, Caffe, Chainer et Theano apparaissent en open source et sont exploités par les data scientist pour créer des modèles amenant à de la reconnaissance d’image ou de données intéressantes. L’un des problèmes de ces algorithmes, c’est qu’ils sont en perpétuelle évolution, en amélioration constante. C’est un vrai challenge pour les data scientist de rester à jour. IBM propose Power AI, qui est une distribution supportée, mise à jour de façon très fréquente et optimisée pour la plateforme Open Power qui réunit la puissance du processeur Power, les GPU Nvidia et les circuits programmables de Xilinx pour apporter une puissance de traitement exceptionnel. Elle permet aux data scientist de se consacrer à leur métier et à la production de modèles et à leur usage dans les applications pour l’entreprise. Si la donnée est le pétrole du 21e siècle, les applications qui exploitent le deep learning sont clairement la façon de l’extraire et de la raffiner. La révolution est en marche.

Pour davantage d’informations, téléchargez le livre blanc PowerAI d’IBM

Ecrire un commentaire