Blog HPE, France
1753776 Membres
7613 En ligne
108799 Solutions
Nouvel article
Joanna_K

Avec BlueData, HPE lance le « Big data, Machine Learning, Deep Learning as a service »

Lors du salon Big Data Paris 2019, début mars, HPE France a détaillé les atouts de la plateforme BlueData, qui permet de déployer des architecture de Big data, Machine Learning ou Deep Learning« as a service’. Utilisant des conteneurs Docker, elle fonctionnera aussi sur Kubernetes d’ici à fin 2019. 

Il y a quelques mois, HPE annonçait l’acquisition de la start-up Américaine BlueData, spécialisée dans le déploiement de solution Big data, Machine Learning ou Deep Learning à la demande. Sur le salon Big Data Paris (11-12 mars), des démonstrations en ‘live’ ont permis de toucher du doigt cette plateforme baptisée EPIC (Elastic Platform of Instantaneous Cluster) qui fait désormais partie de l’offre de HPE. 

A sa création en 2012, BlueData a eu l’idée de proposer du « Big data as a service » à base de conteneurs Docker spécifiques, utilisables dans un datacenter, dans un Cloud public, en mode hybride (datacenter et cloud public) ou en multi cloud. Elle s’est appuyée sur les principales « distributions » Big data, ML/DL et notebooks du marché : Hadoop, Spark, puis Kafka, Cassandra, Cloudera / Hortonworks, H2O, TensorFlow, Jupyter, Zeppelin, Rstudio… 

En pratique, ce sont des « images » pré-intégrées en provenance de ces distributions, qui permettent de déployer des environnements distribues à base de conteneurs « as a service » en quelques clics depuis l’interface Web ou par commandes RESTFull API. En quelques minutes, les clusters sont deployés et fonctionnels sans intervention de la part des administrateurs ni des utilisateurs. Le gain de temps est considérable, passant de plusieurs jours ou semaines à quelques minutes. La solution est disponible en libre-service.

BlueData art.PNG

Jusqu’au ‘machine learning’ et ‘deep learning’ 

Reposant sur la gestion de conteneurs préconfigurés, la plateforme permet de déployer, de la même façon, des solutions de BI (business intelligence, d’analytics et de visualisation mais aussi des solutions de ‘machine learning’ et de ‘deep learning’ pour tous secteurs d’activités (sciences, recherche, industrie, distribution, etc.). Cette ouverture à l’IA (intelligence artificielle) découle notamment d’un partenariat avec l’éditeur américain H2O. 

« Nous restons agnostiques s’agissant des applications : nous ne sommes pas éditeur. Notre plateforme utilise des conteneurs qui déploient des applications de ‘machine learning’ et ‘deep learning’, explique Yoan Le Chevalier, ‘senior system engineer’ chez HPE BlueData.

Au passage, quelle différence fait-il entre ‘machine learning’ et ‘deep learning’ ? 

« Le ‘machine learning’ - apprentissage des machines - est un terme générique, désignant la capacité à apprendre ; alors que le ‘deep learning’ est plus précisément la capacité de simuler des réseaux de neurones distribués pour résoudre des problèmes non linéaires, donc avec des phases d’entrainement et de correction en fonction de l’évolution des besoins », précise Yoan Le Chevalier. Il ajoute : « Ces applications ont besoin de consommer de grandes quantités de données. Et le fait de séparer le ‘compute’ du stockage permet de consommer les data là où elles sont sans avoir à les dupliquer ».  

Sur des environnements x86 et avec GPUs

La plateforme fonctionne sur des serveurs x86 avec des solutions de traitement massivement parallèle. Mais elle peut également s’appuyer sur des environnements systèmes hétérogènes incluant des configurations ‘premiums’ avec GPU (d’origine Nvidia, par exemple), pour des traitements de ‘machine learning’ ou de ‘deep learning’. La solution BlueData utilisant des containeurs Docker, elle sera également disponible sur l’orchestrateur Kubernetes d’ici à la fin de l’année.

« L’efficacité de la plateforme est notamment due à la séparation entre les serveurs de calcul (le ‘compute’) et le stockage et grâce à la fonction DataTap pour l’accès simplifié aux données ». Cela se traduit par une grande élasticité, une large capacité d’élargissement (’scalability’) différenciée entre ressources de calcul (‘compute’) et ressources de stockage. 

Cette offre tient également compte des contraintes de sécurité indispensables à des environnements mutualisés (‘multi-tenant’). Elle s’interface avec les principaux gestionnaires d’annuaires LDAP, Active Directory, SSO, Kerberos, etc. 

Enfin, grâce à un contrôle précis de l’utilisation des ressources, grâce à une optimisation des grappes de serveurs ‘’clusters’) et grâce à une duplication très réduite des données, les coûts opérationnels peuvent être fortement abaissés, jusqu’à -75% affirme Yoan Le Chevalier.

------------------------

Suivez-nous sur :

 

twitter.com/HPE_FR
linkedin.com/company/hewlett-packard-enterprise/
hpe.com/fr

0 Compliments
À propos de l'auteur

Joanna_K

Social Media Lead at HPE

Commentaires