Table des matières:
- L'hyperviseur de données volumineuses
- Pour virtualiser les ressources et services informatiques, ils sont séparés de l'environnement de livraison physique sous-jacent.Le terme de cet acte de séparation est appelé
- La virtualisation permet de rendre votre environnement informatique assez intelligent pour gérer l'analyse des mégadonnées. En optimisant tous les éléments de votre infrastructure, y compris le matériel, les logiciels et le stockage, vous obtenez l'efficacité nécessaire pour traiter et gérer de gros volumes de données structurées et non structurées. Avec le Big Data, vous devez accéder, gérer et analyser des données structurées et non structurées dans un environnement distribué.
Vidéo: Qu'est-ce que la Data Virtualization ? 2024
La virtualisation sépare les ressources et les services du sous-jacent environnement de livraison physique, vous permettant de créer de nombreux systèmes virtuels au sein d'un seul système physique. L'une des principales raisons pour lesquelles les entreprises ont implémenté la virtualisation est d'améliorer les performances et l'efficacité du traitement d'une variété de charges de travail
L'hyperviseur de données volumineuses
Dans un monde idéal, vous ne voulez pas vous inquiéter système d'exploitation et le matériel physique. Un hyperviseur est la technologie chargée de garantir que le partage des ressources se déroule de manière ordonnée et répétable.
Dans le monde du Big Data, vous devrez peut-être prendre en charge de nombreux environnements d'exploitation différents. L'hyperviseur devient un mécanisme de livraison idéal pour les composants technologiques de la pile de données volumineuses. L'hyperviseur vous permet d'afficher la même application sur de nombreux systèmes sans avoir à copier physiquement cette application sur chaque système.
Les systèmes d'exploitation invités sont les systèmes d'exploitation exécutés sur les machines virtuelles. Avec la technologie de virtualisation, vous pouvez configurer l'hyperviseur pour séparer les ressources de l'ordinateur physique. Les ressources peuvent être divisées 50/50 ou 80/20 entre deux systèmes d'exploitation invités, par exemple.
Vous trouverez essentiellement deux types d'hyperviseurs:
Les hyperviseurs de type 1
-
s'exécutent directement sur la plate-forme matérielle. Ils atteignent une efficacité supérieure car ils fonctionnent directement sur la plate-forme. Les hyperviseurs de type 2
-
s'exécutent sur le système d'exploitation hôte. Ils sont souvent utilisés lorsqu'il est nécessaire de prendre en charge une large gamme de périphériques d'E / S. Abstraction et virtualisation de Big Data
Pour virtualiser les ressources et services informatiques, ils sont séparés de l'environnement de livraison physique sous-jacent.Le terme de cet acte de séparation est appelé
abstraction. L'abstraction est un concept clé dans le big data. MapReduce et Hadoop sont des environnements informatiques distribués où tout est abstrait. Le détail est extrait afin que le développeur ou l'analyste n'ait pas à se préoccuper de l'emplacement des éléments de données. L'abstraction minimise la complexité de quelque chose en cachant les détails et en ne fournissant que les informations pertinentes. Par exemple, si vous deviez aller chercher quelqu'un que vous n'avez jamais rencontré auparavant, il pourrait vous indiquer l'endroit où vous le rencontrerez et ce qu'il portera. Il n'a pas besoin de vous dire où il est né, combien d'argent il a à la banque, sa date de naissance, et ainsi de suite.
C'est l'idée avec l'abstraction - il s'agit de fournir une spécification de haut niveau plutôt que d'entrer dans beaucoup de détails sur la façon dont quelque chose fonctionne.
Implémentez la virtualisation pour travailler avec les mégadonnées
La virtualisation permet de rendre votre environnement informatique assez intelligent pour gérer l'analyse des mégadonnées. En optimisant tous les éléments de votre infrastructure, y compris le matériel, les logiciels et le stockage, vous obtenez l'efficacité nécessaire pour traiter et gérer de gros volumes de données structurées et non structurées. Avec le Big Data, vous devez accéder, gérer et analyser des données structurées et non structurées dans un environnement distribué.
Le Big Data suppose une distribution. En pratique, tout type de MapReduce fonctionnera mieux dans un environnement virtualisé. Vous avez besoin de la capacité de déplacer les charges de travail en fonction des besoins de puissance de calcul et de stockage.
La virtualisation vous permettra de résoudre des problèmes plus importants qui n'ont pas encore été définis. Vous ne savez peut-être pas à l'avance à quelle vitesse vous devrez évoluer.
La virtualisation vous permettra de prendre en charge divers magasins de données volumineuses opérationnels. Par exemple, une base de données graphique peut être transformée en image.
L'avantage le plus direct de la virtualisation est de s'assurer que les moteurs MapReduce fonctionnent mieux. La virtualisation se traduira par une meilleure échelle et de meilleures performances pour MapReduce. Chacune des tâches Map et Reduce doit être exécutée indépendamment. Si le moteur MapReduce est parallélisé et configuré pour s'exécuter dans un environnement virtuel, vous pouvez réduire la charge de gestion et autoriser les extensions et les contractions dans les charges de travail de tâches.
MapReduce est intrinsèquement parallèle et distribué. En encapsulant le moteur MapReduce dans un conteneur virtuel, vous pouvez exécuter ce dont vous avez besoin quand vous en avez besoin. Avec la virtualisation, vous augmentez votre utilisation des ressources que vous avez déjà payées en les transformant en pools génériques de ressources.