Table des matières:
Vidéo: Savoir évaluer la qualité de ses données 2024
Votre architecture Big Data doit également fonctionner de concert avec l'infrastructure de support de votre organisation. Par exemple, vous pourriez être intéressé par l'exécution de modèles pour déterminer s'il est sûr de forer pour le pétrole dans une zone extracôtière en raison des données en temps réel sur la température, la salinité, la remise en suspension des sédiments et une foule d'autres propriétés biologiques, chimiques et physiques. la colonne d'eau.
L'exécution de ce modèle peut prendre plusieurs jours en utilisant une configuration de serveur traditionnelle. Cependant, en utilisant un modèle de calcul distribué, ce qui prend des jours peut prendre maintenant quelques minutes.
Les performances peuvent également déterminer le type de base de données que vous utiliseriez. Par exemple, dans certaines situations, vous pouvez vouloir comprendre comment deux éléments de données très distincts sont liés. Quelle est la relation entre le buzz sur un réseau social et la croissance des ventes? Ce n'est pas la requête type que vous pourriez demander à une base de données relationnelle structurée.
Une base de données graphique pourrait être un meilleur choix, car elle est spécifiquement conçue pour séparer les «nœuds» ou les entités de ses «propriétés» ou les informations qui définissent cette entité, et le «bord» ou la relation entre les nœuds et les propriétés. L'utilisation de la bonne base de données améliorera également les performances. Typiquement, la base de données graphique sera utilisée dans des applications scientifiques et techniques.
D'autres approches de bases de données opérationnelles importantes incluent les bases de données en colonnes qui stockent les informations de manière efficace dans les colonnes plutôt que dans les lignes. Cette approche conduit à des performances plus rapides car les entrées / sorties sont extrêmement rapides. Lorsque le stockage de données géographiques fait partie de l'équation, une base de données spatiale est optimisée pour stocker et interroger des données en fonction de la relation entre les objets dans l'espace.
Organiser les services et les outils Big Data
Toutes les données utilisées par les organisations ne sont pas opérationnelles. Une quantité croissante de données provient de diverses sources qui ne sont pas aussi organisées ou simples, y compris des données provenant de machines ou de capteurs, et de sources de données publiques et privées massives. Dans le passé, la plupart des entreprises n'étaient pas en mesure de capturer ou stocker cette grande quantité de données. C'était simplement trop cher ou trop écrasant.
Même si les entreprises étaient capables de saisir les données, elles n'avaient pas les outils pour faire quoi que ce soit à ce sujet. Très peu d'outils pourraient donner un sens à ces vastes quantités de données. Les outils qui existaient étaient complexes à utiliser et ne produisaient pas de résultats dans un délai raisonnable.
À la fin, ceux qui voulaient vraiment aller à l'énorme effort d'analyse de ces données ont été forcés de travailler avec des instantanés de données.Cela a l'effet indésirable de manquer des événements importants car ils n'étaient pas dans un instantané particulier.
MapReduce, Hadoop et Big Table pour le Big Data
Avec l'évolution de la technologie informatique, il est désormais possible de gérer d'immenses volumes de données. Les prix des systèmes ont baissé et, par conséquent, de nouvelles techniques d'informatique distribuée sont courantes. La véritable percée a eu lieu lorsque des entreprises comme Yahoo! Google et Facebook ont réalisé qu'ils avaient besoin d'aide pour monétiser les énormes quantités de données qu'ils créaient.
Ces entreprises émergentes devaient trouver de nouvelles technologies qui leur permettraient de stocker, d'accéder et d'analyser d'énormes quantités de données en temps quasi réel afin de monétiser les avantages de posséder autant de données sur les participants de leurs réseaux.
Les solutions qui en résultent transforment le marché de la gestion de données. En particulier, les innovations MapReduce, Hadoop et Big Table se sont révélées être les étincelles qui ont conduit à une nouvelle génération de gestion de données. Ces technologies répondent à l'un des problèmes les plus fondamentaux: la capacité à traiter des quantités massives de données de manière efficace, rentable et en temps opportun.
MapReduce
MapReduce a été conçu par Google comme un moyen d'exécuter efficacement un ensemble de fonctions sur une grande quantité de données en mode batch. Le composant "map" distribue le ou les problèmes de programmation sur un grand nombre de systèmes et gère le placement des tâches. Il équilibre également la charge et gère la reprise après défaillance. Une autre fonction appelée "réduire" regroupe tous les éléments pour fournir un résultat.
Big Table
Big Table a été développé par Google pour être un système de stockage distribué destiné à gérer des données structurées hautement évolutives. Les données sont organisées en tables avec des lignes et des colonnes. Contrairement à un modèle de base de données relationnelle traditionnel, Big Table est une carte triée multidimensionnelle persistante dispersée. Il est destiné à stocker d'énormes volumes de données sur les serveurs de base.
Hadoop
Hadoop est un framework logiciel géré par Apache dérivé de MapReduce et Big Table. Hadoop permet aux applications basées sur MapReduce de s'exécuter sur de grandes grappes de matériel de base. Le projet est la base de l'architecture informatique supportant Yahoo! les affaires. Hadoop est conçu pour paralléliser le traitement des données entre les nœuds de calcul afin d'accélérer les calculs et de masquer la latence.
Deux composants majeurs de Hadoop existent: un système de fichiers distribués massivement évolutif pouvant prendre en charge des pétaoctets de données et un moteur MapReduce massivement extensible qui calcule les résultats en batch.