Vidéo: Big-O notation in 5 minutes — The basics 2024
Par Judith Hurwitz, Alan Nugent, Fern Halper et Marcia Kaufman
Les entreprises doivent trouver un moyen pratique de gérer les big data pour rester compétitives - apprendre de nouvelles façons de saisir et d'analyser des quantités croissantes d'informations sur les clients, les produits et les services. Les données deviennent de plus en plus complexes de manière structurée et non structurée. De nouvelles sources de données proviennent de machines, telles que des capteurs; sites d'entreprises sociales; et interaction avec le site Web, telles que les données de flux de clics. Répondre à ces exigences commerciales en constante évolution exige que les bonnes informations soient disponibles au bon moment.
Définition du Big Data: volume, vitesse et variété
Les Big Data permettent aux entreprises de stocker, gérer et manipuler de grandes quantités de données disparates à la bonne vitesse et au bon moment. Pour obtenir les bonnes idées, les données volumineuses sont généralement réparties selon trois caractéristiques:
-
Volume: Nombre de données
-
Vitesse: Vitesse de traitement des données
-
Variété: Les différentes types de données
Bien qu'il soit pratique de simplifier les Big Data dans les trois V, cela peut être trompeur et trop simpliste. Par exemple, vous pouvez gérer une quantité relativement faible de données complexes très disparates ou vous pouvez traiter un énorme volume de données très simples. Ces données simples peuvent être toutes structurées ou non structurées.
Encore plus important est la quatrième vérité, . Dans quelle mesure ces données permettent-elles de prédire la valeur commerciale? Les résultats d'une analyse de Big Data ont-ils du sens? Les données doivent pouvoir être vérifiées en fonction de l'exactitude et du contexte. Une entreprise innovante peut vouloir être capable d'analyser des quantités massives de données en temps réel pour évaluer rapidement la valeur de ce client et la possibilité de fournir des offres supplémentaires à ce client. Il est nécessaire d'identifier la quantité et les types de données qui peuvent être analysés en temps réel pour avoir un impact sur les résultats de l'entreprise.
Le Big Data intègre toutes les variétés de données, y compris les données structurées et les données non structurées issues des e-mails, des médias sociaux, des flux de texte, etc. Ce type de gestion de données nécessite que les entreprises tirent parti de leurs données structurées et non structurées.
Présentation des données non structurées
Les données non structurées sont différentes des données structurées car leur structure est imprévisible. Des exemples de données non structurées comprennent des documents, des e-mails, des blogs, des images numériques, des vidéos et des images satellite. Il comprend également certaines données générées par des machines ou des capteurs. En fait, les données non structurées représentent la majorité des données qui se trouvent dans les locaux de votre entreprise ainsi qu'à l'extérieur de votre entreprise dans des sources privées et publiques en ligne telles que Twitter et Facebook.
Dans le passé, la plupart des entreprises n'étaient pas en mesure de capturer ou de stocker cette grande quantité de données. C'était simplement trop cher ou trop écrasant. Même si les entreprises étaient capables de capturer les données, elles n'avaient pas les outils pour analyser facilement les données et utiliser les résultats pour prendre des décisions. Très peu d'outils pourraient donner un sens à ces vastes quantités de données. Les outils qui existaient étaient complexes à utiliser et ne produisaient pas de résultats dans un délai raisonnable.
À la fin, ceux qui voulaient vraiment aller à l'énorme effort d'analyse de ces données ont été forcés de travailler avec des instantanés de données. Cela a l'effet indésirable de manquer des événements importants car ils n'étaient pas dans un instantané particulier.
Une approche de plus en plus appréciée pour obtenir de la valeur commerciale à partir de données non structurées est l'analyse textuelle, le processus d'analyse de texte non structuré, d'extraction d'informations pertinentes et de être mis à profit de diverses manières. Les processus d'analyse et d'extraction tirent parti des techniques issues de la linguistique computationnelle, des statistiques et d'autres disciplines de l'informatique.
Le rôle des données opérationnelles traditionnelles dans l'environnement Big Data
Le fait de savoir quelles données sont stockées et où elles sont stockées constitue un élément essentiel de la mise en œuvre de Big Data. Il est peu probable que vous utilisiez des SGBDR pour le noyau de l'implémentation, mais il est très probable que vous deviez vous appuyer sur les données stockées dans les SGBDR pour créer le plus haut niveau de valeur pour l'entreprise avec des données volumineuses.
La plupart des grandes et des petites entreprises stockent probablement la plupart de leurs informations opérationnelles importantes dans des systèmes de gestion de bases de données relationnelles (SGBDR), qui reposent sur une ou plusieurs relations et sont représentés par des tables. Ces tables sont définies par la manière dont les données sont stockées. Les données sont stockées dans des objets de base de données appelés tables - organisés en lignes et en colonnes. Les SGBDR suivent une approche cohérente dans la façon dont les données sont stockées et récupérées.
Pour tirer le meilleur parti de votre analyse en temps réel des données non structurées, vous devez comprendre ces données dans le contexte de vos données historiques sur les clients, les produits, les transactions et les opérations. En d'autres termes, vous devrez intégrer vos données non structurées à vos données opérationnelles traditionnelles.
Principes de base de l'infrastructure de données volumineuses
Les données volumineuses ne concernent que la grande vitesse, les volumes volumineux et la grande variété de données. L'infrastructure physique va littéralement «faire ou défaire» l'implémentation. La plupart des implémentations de données volumineuses doivent être hautement disponibles, de sorte que les réseaux, les serveurs et le stockage physique doivent être résilients et redondants.
La résilience et la redondance sont interdépendantes. Une infrastructure ou un système résiste aux défaillances ou aux changements lorsque des ressources redondantes suffisantes sont en place et prêtes à passer à l'action. La résilience aide à éliminer les points de défaillance uniques dans votre infrastructure. Par exemple, si une seule connexion réseau existe entre votre entreprise et Internet, vous n'avez pas de redondance réseau et l'infrastructure n'est pas résiliente par rapport à une panne de réseau.
Dans les grands centres de données ayant des exigences en matière de continuité des opérations, la majeure partie de la redondance est en place et peut être exploitée pour créer un environnement de données volumineuses. Dans les nouvelles implémentations, les concepteurs ont la responsabilité de mapper le déploiement aux besoins de l'entreprise en fonction des coûts et des performances.
Gestion des données volumineuses avec Hadoop: HDFS et MapReduce
Hadoop, un framework logiciel open source, utilise HDFS (Hadoop Distributed File System) et MapReduce pour analyser des données volumineuses sur des grappes de matériel de base, c'est-à-dire environnement informatique distribué.
Le système de fichiers distribués Hadoop (HDFS) a été développé pour permettre aux entreprises de gérer plus facilement d'énormes volumes de données de manière simple et pragmatique. Hadoop permet de décomposer de gros problèmes en éléments plus petits afin que l'analyse puisse être effectuée rapidement et à moindre coût. HDFS est une approche polyvalente, résiliente et en cluster pour gérer les fichiers dans un environnement de données volumineuses.
HDFS n'est pas la destination finale des fichiers. Il s'agit plutôt d'un «service» de données qui offre un ensemble unique de capacités nécessaires lorsque les volumes de données et la vélocité sont élevés.
MapReduce est un framework logiciel qui permet aux développeurs d'écrire des programmes capables de traiter des quantités massives de données non structurées en parallèle à travers un groupe distribué de processeurs. MapReduce a été conçu par Google comme un moyen d'exécuter efficacement un ensemble de fonctions contre une grande quantité de données en mode batch.
Le composant "map" distribue le ou les problèmes de programmation sur un grand nombre de systèmes et gère le placement des tâches de manière à équilibrer la charge et à gérer la récupération des défaillances. Une fois le calcul distribué terminé, une autre fonction appelée "réduire" regroupe tous les éléments pour fournir un résultat. Un exemple d'utilisation de MapReduce serait de déterminer combien de pages d'un livre sont écrites dans chacune des 50 langues différentes.
Jeter les bases de votre stratégie Big Data
Les entreprises nagent dans le Big Data. Le problème est qu'ils ne savent souvent pas comment utiliser ces données de manière pragmatique pour pouvoir prédire l'avenir, exécuter des processus métier importants ou simplement acquérir de nouvelles connaissances. Le but de votre stratégie et de votre plan de gestion des données volumineuses devrait être de trouver un moyen pragmatique de tirer parti des données pour obtenir des résultats commerciaux plus prévisibles.
Commencez votre stratégie Big Data en vous lançant dans un processus de découverte. Vous devez savoir quelles données vous avez déjà, où elles se trouvent, qui les possède et les contrôle, et comment elles sont actuellement utilisées. Par exemple, quelles sont les sources de données tierces sur lesquelles votre entreprise s'appuie? Ce processus peut vous fournir de nombreuses informations:
-
Vous pouvez déterminer le nombre de sources de données et le nombre de chevauchements.
-
Vous pouvez identifier des lacunes dans la connaissance de ces sources de données.
-
Vous pourriez découvrir que vous avez beaucoup de données en double dans une zone de l'entreprise et presque aucune donnée dans un autre domaine.
-
Vous pouvez vérifier que vous dépendez de données tierces qui ne sont pas aussi précises qu'elles devraient l'être.
Passez le temps dont vous avez besoin pour effectuer ce processus de découverte, car ce sera le fondement de votre planification et de l'exécution de votre stratégie Big Data.