Big data, big n’importe quoi

Tout le monde le sait : les Big Data donnent lieu actuellement à un emballement marketing. C’est au fournisseur qui sera le plus dynamique, le plus inventif à se positionner sur le marché, en croyant que les DSI sont dupes de leurs manœuvres pour envelopper des offres qui n’ont rien de révolutionnaires. On n’a encore rien vu car se profilent des nouveaux termes qui vont personnaliser les big data. En changeant simplement deux lettres, il y en aura pour tout le monde !

Big Cata : en principe, c’est l’étape logique qui suit le Big Data, lorsque l’on s’aperçoit que les montagnes de données que l’on a stockées ne servent strictement à rien.

Big Caba : récipient très pratique, qui peut contenir énormément de données. S’utilise principalement pour les places de marché.

Big Rata : réutilisation des données qui ont très peu servi. Celles-ci sont remises dans un récipient numérique afin d’être conservées et consommées. À noter que le Big Rata est souvent indigeste et il faut touiller les données toutes les 48 heures.

Big Nana : l’infobésité gagne du terrain, il faut donc prendre le problème « à bras-le-corps » (enfin, on n’est pas obligé, ça dépend de la beauté de l’interface…) La big nana présente une particularité : un tour de taille de données très au-dessus de la moyenne.

Big Mama : c’est une déclinaison de Big Nana, pour les données les plus vieilles.

Big Baba : cette approche est plus connue sous le nom de Big Baba ORUM (pour Optimisation de la Résilience Utile au Management).

Big Nada : approche qui consiste à faire le vide dans des volumes de données, de sorte que l’utilisateur ne puisse pas trouver les données dont de toute façon on se demande pourquoi il les cherche.

Big Casa : bien adapté aux données volumineuses qui peuvent se stocker sur plusieurs étages.

Big Bata : pour mener à bien une approche de ce type, il faut faire appel à des experts. Autrement dit à des vraies pointures dans leur domaine.

Big Gaga : à l’origine, cette approche a été développée pour analyser les données relatives aux malades atteints d’Alzheimer, elle est généralisée pour centraliser et étudier les informations médicales sur tous les malades mentaux structurés (ceux qui occupent des postes de management dans les entreprises) et non structurés (ceux qui sont directement passés par la case hôpital psychiatrique).

Big Lara : le Big Lara est, à vol d’oiseau approximatif, une approche de réplication de données. Chaque enregistrement est répétée selon la célèbre méthode du Perroquet (PEnding Replication Return Over QUEry Transaction).

Big Tata : cette approche est très adaptée pour le traitement des données ambivalentes, qui s’imbriquent les unes dans les autres sans logique particulière. À conseiller pour homo(généiser) les données hétéro(gènes).

Big Cara : approche qui consiste à faire briller des données particulièrement ternes. Elle a été développée par la société Diamond in the Pocket, installée à Anvers-Etcontretout.

Big Jaja : les informations peuvent parfois se stocker dans des tonneaux de données. Pour déterminer la réelle valeur des données, le big jaja (appellation contrôlée) repose sur un système de millésime particulièrement étudié.

Big kaka : c’est une approche propriétaire mise au point par Jacob & Delafon pour le nettoyage des données déjà consommées par leurs utilisateurs. Elle est bien adaptée aux données indigestes qui nécessitent une évacuation naturelle dans une bande passante en céramique émaillée.

Big para : approche qui consiste à aller chercher des données dans les nuages et à les faire redescendre sur terre. À conseiller aux entreprises qui sont en chute libre.

Big saga : approche qui consiste à établir des corrélations entre des données hétérogènes pour identifier les liens et les différents rebondissements. Les données se transmettent de génération en génération.