Big Data ou les reines de la statistiques

Littéralement grosses ou mega données, Big Data est devenu aujourd’hui un phénomène informatique et technologique incontournable. Il permet de traiter des volumes colossaux de données, à des coûts moindres, et ce, quel que soit le type de données collectées. Le traitement se veut de plus en plus pertinent et performant. Mais qui dit Big Data dit forcément analyses statistiques.

Big Data ou les statistiques intelligentes

Car il ne suffit plus désormais pour les entreprises de savoir traiter des volumes importants de données, il faut aussi savoir les analyser de façon pertinente pour ensuite les utiliser à des fins commerciales et stratégiques. D’où l’importance avec le Big Data des compétences analytiques et statistiques. Plus que recueillir une donnée, il va s’agir de la faire parler. Et c’est sur cette dernière compétence que les entreprises ont une carte à jouer pour faire ressortir leurs atouts concurrentiels auprès de leurs prospects. Les perspectives du traitement des big data sont énormes, notamment pour l’analyse d’opinions politiques ou de tendances industrielles, la génomique, l’épidémiologie ou la lutte contre la criminalité ou la sécurité.

Focus sur les 3V de Gartner

En 2001, en effet, le Gartner fixe les grands principes et définit ce qui deviendra le big data par les fameux 3V.

Volumétrie : avec une augmentation du volume des données de 45% par an, le big data impose de stocker cette masse d’information. Quant aux outils d’analyse, à eux de supporter la croissance constante des volumes d’informations.

Variété : le volume des données non structurées (vidéos, tags, sons, images, textes) augmente 5 fois plus que celui des données structurées. Les outils d’analyse doivent donc prendre en compte ces données non structurées, d’autant qu’elles sont sources de plus value pour les entreprises.

Vélocité : les volumes de données si importants qu’ils soient doivent pour autant être captés et analysés rapidement. Les outils d’analyse ont pour enjeu de transformer ces données en temps utile pour leurs utilisateurs. L’utilisation du NoSQL, plus flexible et scalable que les bases de données SQL, ainsi que les parallélisassions massives (Hadoop, appliances) offrent de premières solutions.

…et un 4ème V : la valeur que l’entreprise peut tirer de ces données ou encore la véracité. C’est tout l’enjeu de ce qu’on appelle les « Big Analytics ».Big data background

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *