Blog HPE, France
annuler
Affichage des résultats de 
Rechercher plutôt 
Vouliez-vous dire : 

Deep Learning : des réseaux de neurones au service de vos business

Après l’informatique décisionnelle puis l’informatique analytique, l’intelligence artificielle est le nouveau tournant du Big Data.

                Les technologies se développent et la quête de l’Intelligence Artificielle, utilisée dans le monde de la robotique, a engendré la création du « Machine Learning ».

Le machine learning vise à entraîner un algorithme en se basant sur des observations statistiques, avec pour objectif la construction d’un modèle prédictif. Pour ce faire, on alimente le système avec ces observations statistiques et celui-ci va essayer d’en déterminer un algorithme de transformation, c’est ce qu’on appelle l’apprentissage.

Va suivre la phase de prédiction : l’algorithme, grâce à des réseaux de neurones, se sert de ces exemples pour trouver un lien entre les données en sortie et les données en entrée. Plus on l’alimente avec des éléments variés, des logiques, des situations différentes, plus il devient compétent et permet de déterminer le résultat pour n’importe quelle valeur d’entrée et cela même lors de situations inédites. L’enjeu est de disposer de suffisamment de cas différents et complexes pour entraîner l’algorithme. On le testera ensuite sur des échantillons représentatifs dont on a une bonne compréhension avant de passer à l’analyse prédictive proprement dite.

Cette nouvelle méthode a besoin de technologies différentes offrant un très grand nombre de processeurs de calcul pour fonctionner, on les appelle des GPU.


Pourquoi utiliser des GPU pour faire du deep-learning ?


Le principe fondamental du machine learning est la possibilité pour les machines d’utiliser des données afin d’apprendre par elles-mêmes. Le Deep Learning est un sous-ensemble qui va utiliser certaines techniques du machine learning pour résoudre des problèmes en exploitant des réseaux de neurones qui simulent la prise de décision humaine.

Graphics processing units (GPU) représente le traitement de fonctions mathématiques sur des processeurs graphiques. Son architecture permet de paralléliser les traitements au travers de multiples cœurs et du mécanisme de pipelining. Ce dernier permet l’exécution d’une série d’opérations en parallèle : le résultat d’une 1ère opération par une unité de traitement devient l’entrée d’une seconde opération exécutée par une seconde unité de traitement.

De nombreuses librairies mathématiques s’appuient sur la puissance des fonctionnalités qui viennent d’être décrites tout en masquant la complexité de leur implémentation. On peut citer dans le monde du deep learning : Caffee, utilisé pour son interface avec Hadoop Spark, Théano très apprécié pour son implémentation en langage Python ou encore Torch et TensorFlow.


Comment les entreprises tirent profit du deep learning ?


Cette méthode est utilisée dans le CRM (customer relationship management) pour modéliser des populations et prédire leur comportement. Par exemple, les entreprises de télécommunications font du churn management, c’est-à-dire identifient, grâce au deep learning, les clients dont le comportement (nombre d’appels, connexion sur internet, …) indique une propension à changer d’opérateur. Les entreprises prennent alors des mesures (proposition d’offres promotionnelles, cadeaux, …) pour pallier ce risque.

IA.jpg

 Toujours dans les télécoms, les professionnels sont nombreux à réaliser des modélisations sur la congestion des routeurs téléphoniques ou internet. Ces congestions apparaissent notamment pendant les fêtes de fin d’année durant lesquelles un message ou un appel peut subir un délai plus ou moins long avant d’être reçu. Pour résoudre ces difficultés, les opérateurs réalisent des modèles mathématiques qui vont permettre d’identifier les cas de congestion probables et ainsi définir des règles de routage pour les éviter (comme faire passer l’appel par une autre ville).

Dans l’aviation, l’industrie ferroviaire ou encore plus récemment dans l’hôtellerie, ces techniques sont aussi utilisées pour réaliser du Yield Management. Cette pratique consiste à tarifier les billets ou les séjours en fonction du taux de remplissage et de la date de départ de l’avion, du train ou de l’arrivée à l’hôtel.

Dans ces trois exemples, le deep learning s’appuie sur des données historiques pour faire apparaître des tendances et les représenter sous forme de clusters ou d’arbres de décisions.

Ce n’est qu’un échantillon des possibilités que cette méthode offre aux entreprises pour faire évoluer leur business model en le rendant le plus effectif possible, en phase avec leur environnement.


Co-written with Florence Laget
HPE Big Data France

Twitter : https://twitter.com/florencelaget 

Linkedin : https://www.linkedin.com/in/florence-laget-301568 

0 Compliments
À propos de l'auteur

Maureen_D