Vidéo: The Big Data Paradox 2024
Vous trouverez une nuance sur l'analyse de Big Data. Il s'agit vraiment de petites données. Bien que cela puisse sembler déroutant et aller à l'encontre de l'ensemble de la prémisse, les petites données sont le produit de l'analyse des données volumineuses. Ce n'est pas un concept nouveau, et il n'est pas non plus familier aux personnes qui ont fait de l'analyse de données pendant un certain temps. L'espace de travail global est plus grand, mais les réponses se situent quelque part dans le "petit". "
L'analyse traditionnelle des données a commencé avec des bases de données remplies d'informations sur les clients, d'informations sur les produits, de transactions, de données de télémétrie, etc. Même alors, trop de données étaient disponibles pour analyser efficacement. Les systèmes, les réseaux et les logiciels n'avaient pas la performance ou la capacité d'aborder l'échelle. En tant qu'industrie, les lacunes ont été résolues en créant des ensembles de données plus petits.
Ces ensembles de données plus petits étaient encore assez substantiels, d'autres lacunes ont été rapidement découvertes; le plus flagrant était l'inadéquation entre les données et le contexte de travail. Si vous avez travaillé dans Accounts Payable, vous avez dû consulter une grande quantité de données non liées pour faire votre travail. Encore une fois, l'industrie a réagi en créant des ensembles de données plus petits et pertinents du point de vue du contexte - des plus petits aux plus petits encore.
Vous pouvez reconnaître cela comme la migration de bases de données vers des entrepôts de données vers des centres de données. Plus souvent qu'autrement, les données pour les entrepôts et les marts ont été choisies sur des paramètres arbitraires ou expérimentaux résultant en beaucoup d'essais et d'erreurs. Les entreprises n'obtenaient pas les perspectives dont elles avaient besoin ou étaient possibles parce que les réductions de capacité n'étaient pas basées sur des faits de calcul.
Entrez les données volumineuses, avec tous leurs volumes, leurs vélocités et leurs variétés, et le problème persiste ou peut-être s'aggrave. Les insuffisances de l'infrastructure ont été abordées et peuvent stocker et traiter d'énormes quantités de données supplémentaires, mais de nouvelles technologies étaient nécessaires spécifiquement pour aider à gérer le big data.
Malgré les apparences, c'est une chose merveilleuse. Aujourd'hui et à l'avenir, les entreprises auront plus de données qu'elles ne peuvent imaginer et elles auront les moyens de les capturer et de les gérer. Ce qui est plus nécessaire que jamais, c'est la capacité d'analyser les données suffisamment tôt pour prendre des décisions et prendre des mesures.
Les entreprises réduiront toujours les ensembles de données en «version de combat», mais ils peuvent le faire par calcul. Ils traitent les grandes données et les transforment en petites données afin qu'elles soient plus faciles à comprendre. C'est plus précis et, parce qu'il provient d'un point de départ beaucoup plus vaste, il est plus contextuel.