- Community Home
- >
- HPE Community, France
- >
- Blog HPE, France
- >
- Deep Learning : des réseaux de neurones au service...
Catégories
Company
Local Language
Forums
Forum de discussion
Forums
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
Forum de discussion
Forum de discussion
Forum de discussion
Forums
Forum de discussion
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Communauté
Contact
Forums
Blogs
- S'abonner au fil RSS
- Marquer comme nouveau
- Marquer comme lu
- Marquer
- S'abonner
- Page imprimable
- Signaler un contenu inapproprié
Deep Learning : des réseaux de neurones au service de vos business
Après l’informatique décisionnelle puis l’informatique analytique, l’intelligence artificielle est le nouveau tournant du Big Data.
Les technologies se développent et la quête de l’Intelligence Artificielle, utilisée dans le monde de la robotique, a engendré la création du « Machine Learning ».
Le machine learning vise à entraîner un algorithme en se basant sur des observations statistiques, avec pour objectif la construction d’un modèle prédictif. Pour ce faire, on alimente le système avec ces observations statistiques et celui-ci va essayer d’en déterminer un algorithme de transformation, c’est ce qu’on appelle l’apprentissage.
Va suivre la phase de prédiction : l’algorithme, grâce à des réseaux de neurones, se sert de ces exemples pour trouver un lien entre les données en sortie et les données en entrée. Plus on l’alimente avec des éléments variés, des logiques, des situations différentes, plus il devient compétent et permet de déterminer le résultat pour n’importe quelle valeur d’entrée et cela même lors de situations inédites. L’enjeu est de disposer de suffisamment de cas différents et complexes pour entraîner l’algorithme. On le testera ensuite sur des échantillons représentatifs dont on a une bonne compréhension avant de passer à l’analyse prédictive proprement dite.
Cette nouvelle méthode a besoin de technologies différentes offrant un très grand nombre de processeurs de calcul pour fonctionner, on les appelle des GPU.
Pourquoi utiliser des GPU pour faire du deep-learning ?
Le principe fondamental du machine learning est la possibilité pour les machines d’utiliser des données afin d’apprendre par elles-mêmes. Le Deep Learning est un sous-ensemble qui va utiliser certaines techniques du machine learning pour résoudre des problèmes en exploitant des réseaux de neurones qui simulent la prise de décision humaine.
Graphics processing units (GPU) représente le traitement de fonctions mathématiques sur des processeurs graphiques. Son architecture permet de paralléliser les traitements au travers de multiples cœurs et du mécanisme de pipelining. Ce dernier permet l’exécution d’une série d’opérations en parallèle : le résultat d’une 1ère opération par une unité de traitement devient l’entrée d’une seconde opération exécutée par une seconde unité de traitement.
De nombreuses librairies mathématiques s’appuient sur la puissance des fonctionnalités qui viennent d’être décrites tout en masquant la complexité de leur implémentation. On peut citer dans le monde du deep learning : Caffee, utilisé pour son interface avec Hadoop Spark, Théano très apprécié pour son implémentation en langage Python ou encore Torch et TensorFlow.
Comment les entreprises tirent profit du deep learning ?
Cette méthode est utilisée dans le CRM (customer relationship management) pour modéliser des populations et prédire leur comportement. Par exemple, les entreprises de télécommunications font du churn management, c’est-à-dire identifient, grâce au deep learning, les clients dont le comportement (nombre d’appels, connexion sur internet, …) indique une propension à changer d’opérateur. Les entreprises prennent alors des mesures (proposition d’offres promotionnelles, cadeaux, …) pour pallier ce risque.
Toujours dans les télécoms, les professionnels sont nombreux à réaliser des modélisations sur la congestion des routeurs téléphoniques ou internet. Ces congestions apparaissent notamment pendant les fêtes de fin d’année durant lesquelles un message ou un appel peut subir un délai plus ou moins long avant d’être reçu. Pour résoudre ces difficultés, les opérateurs réalisent des modèles mathématiques qui vont permettre d’identifier les cas de congestion probables et ainsi définir des règles de routage pour les éviter (comme faire passer l’appel par une autre ville).
Dans l’aviation, l’industrie ferroviaire ou encore plus récemment dans l’hôtellerie, ces techniques sont aussi utilisées pour réaliser du Yield Management. Cette pratique consiste à tarifier les billets ou les séjours en fonction du taux de remplissage et de la date de départ de l’avion, du train ou de l’arrivée à l’hôtel.
Dans ces trois exemples, le deep learning s’appuie sur des données historiques pour faire apparaître des tendances et les représenter sous forme de clusters ou d’arbres de décisions.
Ce n’est qu’un échantillon des possibilités que cette méthode offre aux entreprises pour faire évoluer leur business model en le rendant le plus effectif possible, en phase avec leur environnement.
Co-written with Florence Laget
HPE Big Data France
Twitter : https://twitter.com/florencelaget
Linkedin : https://www.linkedin.com/in/florence-laget-301568
- Retour au blog
- Article plus récent
- Article plus ancien
- stephane monpeurt sur : La région Côte d’Azur affiche sa volonté de jouer ...
- harithadadam sur : Windows Server 2019 : un système d'exploitation si...
- harithahari sur : Nos incontournables des sessions HPE Discover Virt...
- Binotto sur : Programme HPE d’accélération de start-up : Une exp...
- Nicolas_W sur : Comprendre le modèle de licence de Windows Server ...
- Joanna_K sur : Comprendre les nouvelles fonctionnalités de Window...
- Nicolas_W sur : Installez facilement Windows Server 2019 sur des s...
- Nicolas_W sur : Tout sur les licences HPE OEM Windows Server 2019
- HumanSourcing sur : Avec BlueData, HPE lance le « Big data, Machine Le...
- Nicolas_W sur : Les licences OEM Windows Server 2019 sont désormai...