Hadoop porté par la communauté Open Source pour le Big Data


Le Big Data devient synonyme de Hadoop lorsque l’on parle de solution informatique. C’est ce qu’a confirmé Vincent Heuschling, DG de la société de conseil Affini-Tech lors du salon Open World Forum, organisé à Montrouge (92), le 4 octobre 2013.

Hadoop s’impose comme la solution idéale pour monter en charge face à la croissance des volumes de données. Autre atout de Hadoop : «  Il est piloté par la communauté Open Source » souligne Vincent Heuschling.


« Contrairement à SQL, où les performances s’écroulent passé une certaine charge, ou aux solutions MPP (Massively Parallel Processing), les solutions à base d’Hadoop montent en puissance sans souci de charge » a-t-il ajouté.


Afin de traiter une grande masse d’informations, Hadoop dispose d’un système de fichiers distribué, HDFS qui permet de gérer des capacités allant de quelques Go à plusieurs Po.  Hadoop s’accompagne de MapReduce, qui permet de distribuer le calcul dans le Cluster Hadoop. L’écosystème est également très riche en outillage ETL (Extract Transform and Load).

« Le Big Data, c’est beaucoup de données avec une faible valeur » décrit Vincent Heuschling. Hadoop permet de répondre ainsi aux besoins d’analyse de plusieurs centaines de dimensions pour connaître un client, et de traiter tout type de données : texte, logs, images, vidéos ou sons, le tout avec des réponses dans la minute. Il permet également de prendre en charge des données dont on ne sait pas ce qu’elles seront dans six mois, a-t-il conclu.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *