jeudi 31 mai 2012

Retour sur les Big Data : pourquoi ça flambe…


Bon sang, mais c'est bien sûr !
 Les Big Data, ça change tout !
Dans un post récent, je me faisais l’écho du formidable potentiel des Big Data – la capacité à extraire des informations pertinentes de gigantesques quantités de données. (lire l'article)

J’y reviens aujourd’hui car une discussion avec Henri Verdier, spécialiste du sujet, et un exposé de Julien Laugel (Data Scientist dans la start up du précédent, mfglabs), m’ont apporté l’élément décisif pour comprendre pourquoi cette technologie va exploser. Ça a fait « tilt » !

L’argument  aussi simple que décisif : avec les Big Data on passe d’un monde ou le traitement des données était difficile et coûteux à un monde où il est  devenu simple et peu cher. Bon sang, mais c’est bien sûr !

Ce passage d’un monde de rareté à un monde d’abondance est en effet toujours à l’origine d’un formidable développement et d’une transformation profonde du secteur concerné. Pensez l’impact de la disponibilité d’une énergie (hier) abondante et peu chère, le pétrole. Plus près de nous, pensez à la microinformatique. Le microprocesseur a transformé une denrée rare et chère – la puissance de calcul –  en une ressource abondante et « gratuite ». D’où l’explosion de cette industrie. La fibre optique a fait de même avec la bande passante. Même résultat pour les télécoms et Internet.

Que se passe-t-il avec les données ?

Hier rappelle Julien Laugel, les données étaient relativement rares et difficile d’accès. Hier leur traitement était lourd, cher et complexe.Aujourd’hui, grâce au net, les données sont devenues hyper abondantes et très aisément disponibles.

Surtout, leur traitement (par des spécialistes…) est désormais aisé et très peu coûteux grâce :
- Aux outils des Big Data (des logiciels comme Hadoop ou Map Reduce en particulier) qui permettent de maîtriser facilement des quantités colossales de données comme si de rien n’était
- A la puissance informatique à faible coût qui, conjointement aux outils logiciels, autorise des traitement tout à fait inimaginables hier et cela avec… un simple PC ! Pour en donner la mesure, Henri Verdier rappelle que la puissance du plus formidable des super ordinateurs de 1985 (le Cray 2 et son Gigaflops, capacité à traiter un milliard d’opération par seconde) est aujourd’hui disponible dans… votre smartphone.

Nous voici donc bien entré dans un monde d’abondance et de « gratuité » pour les data. Et tout va changer : la façon même dont on raisonne sur l’opportunité d’exploiter des données. Hier on y réfléchissait à deux fois avant de se lancer dans l’analyse de données. Désormais puisque ça ne coûte « rien », no limit, tout devient possible.

Pour faire quoi ?  Pour l’instant, rien de très nouveau encore. Mais faisons confiance à l’imagination des start-up et des entreprises. Avec de tels outils elles ne tarderont pas à inventer des applications encore totalement impensables (rappelez-vous à quoi servait un microodinateur en 1975 et ce qu’il est devenu...)

PS( ajouté à 14 heures) : jetez un oeil sur le commentaire ci-dessous. Henri Verdier apporte une intéressante précision

Pour en savoir plus
Voir le blog d'Henri Verdier

1 commentaire:

  1. Hello Franck
    Ted Dunning, qui était notre invité mardi, va même plus loin.
    Il soutient que dans l'ancien monde informatique, on arrivait rapidement à un point d'equilibre où le coût marginal de traitement d'un plus gros volume de données dépassait le bénéfice marginal issu de ce traitement.
    Et il pense que c'est cela qui a changé.
    Aujourd'hui, traiter 10 fois plus de données coûte moins cher que ce que l'on gagne.
    Avec les graphes, sa démonstration est très éloquente ;)
    Henri Verdier

    RépondreSupprimer