Le volume de données numériques a quintuplé au fil des années suite à la prolifération des nouvelles technologies. Aujourd’hui on parle de « Big Data ». Qu’est-ce que c’est ?
Comprendre la notion
L’anglicisme « Big Data » peut être traduit en français par l’expression « méga-données ».Il s’agit de données massives ou gros volumes de données numériques.
« Big data » c’est aussi l’ensemble des volumes de données numériques générées par une utilisation personnelle ou industrielle. Depuis 1997, les premières articulations du concept de « Big Data » font leur apparition dans la langue courante.
Pour Doug Laney analyste chez Gartner et auteur de plusieurs livres scientifiques, le concept de « Big Data » se définit suivant trois facteurs appelés les trois « V » :
- Le volume : qui en prend en compte la quantité de données en fonction des sources de génération de données numériques,
- La vitesse de traitement de l’information,
- La variété qui tient compte de la multiplicité de catégories de données produites.
D’autres critères « V » viendront compléter la liste. Il s’agit : d’une part, de la véracité c’est-à-dire le contrôle des sources. D’autre part, de la valeur des données pour une exploitation plus efficace.
Quels enjeux ?
Généralement, le stockage de données en termes de « Big Data » se fait au niveau des « Data Center » en français de gigantesques serveurs informatiques. Ces centres de stockage de données numériques sont très souvent la propriété des grands acteurs du numérique tels que Google, Facebook, Oracle ou Microsoft. Les enjeux de cette nouvelle forme de production et d’exploitation de données sont considérables. Le concept de « Big Data » ouvre de nouvelles perspectives de recherches dans les différents secteurs d’activités notamment dans les énergies, la santé, la communication et l’industrie.
Aujourd’hui nous pouvons obtenir une réponse exacte de réponses posées sur internet. Mais l’utilisation de ces immenses volumes de données demeure complexe.