Table des matières:
- L'étape exploratoire du Big Data
- L'étape de codification du Big Data
- Étape d'intégration et de création de Big Data
Vidéo: How data is helping us unravel the mysteries of the brain | Steve McCarroll 2024
Faites le point sur le type de données que vous traitez dans votre projet Big Data. De nombreuses organisations reconnaissent que beaucoup de données générées en interne n'ont pas été exploitées à leur plein potentiel par le passé.
En exploitant de nouveaux outils, les entreprises acquièrent de nouvelles connaissances à partir de sources inexploitées de données non structurées dans les courriers électroniques, les enregistrements de service client, les données de capteur et les journaux de sécurité. En outre, il existe un grand intérêt à rechercher de nouvelles informations basées sur l'analyse de données essentiellement externes à l'organisation, telles que les médias sociaux, l'emplacement du téléphone mobile, le trafic et la météo.
L'étape exploratoire du Big Data
Dans les premières étapes de votre analyse, vous voudrez rechercher des modèles dans les données. Ce n'est qu'en examinant de très gros volumes de données que des relations et des corrélations nouvelles et inattendues entre les éléments peuvent devenir apparentes. Ces modèles peuvent fournir un aperçu des préférences du client pour un nouveau produit, par exemple. Vous aurez besoin d'une plate-forme pour organiser vos grandes données pour rechercher ces modèles.
Hadoop est largement utilisé comme un bloc de construction sous-jacent pour la capture et le traitement de Big Data. Hadoop est conçu avec des capacités qui accélèrent le traitement des données volumineuses et permettent d'identifier des modèles dans d'énormes quantités de données en un temps relativement court. Les deux principaux composants de Hadoop - Hadoop Distributed File System (HDFS) et MapReduce - sont utilisés pour gérer et traiter vos big data.
FlumeNG pour l'intégration de Big Data
Il est souvent nécessaire de collecter, d'agréger et de déplacer de très grandes quantités de données en continu pour rechercher des motifs cachés dans les mégadonnées. Les outils d'intégration traditionnels tels qu'ETL ne seraient pas assez rapides pour déplacer les grands flux de données à temps pour fournir des résultats d'analyse tels que la détection de fraude en temps réel. FlumeNG charge les données en temps réel en diffusant vos données dans Hadoop.
En règle générale, Flume est utilisé pour collecter de grandes quantités de données de journaux à partir de serveurs distribués. Il conserve la trace de tous les nœuds physiques et logiques d'une installation Flume. Les nœuds d'agent sont installés sur les serveurs et sont chargés de gérer la manière dont un seul flux de données est transféré et traité de son point de départ à son point de destination.
En outre, les collecteurs sont utilisés pour regrouper les flux de données en flux plus importants pouvant être écrits dans un système de fichiers Hadoop ou un autre conteneur de stockage de données volumineuses. Flume est conçu pour l'évolutivité et peut ajouter continuellement plus de ressources à un système pour gérer de très grandes quantités de données de manière efficace.La sortie de Flume peut être intégrée à Hadoop et Hive pour l'analyse des données.
Flume a également des éléments de transformation à utiliser sur les données et peut transformer votre infrastructure Hadoop en une source de données non structurées.
Patterns dans Big Data
Vous trouverez de nombreux exemples d'entreprises qui commencent à tirer des avantages compétitifs de l'analyse Big Data. Pour de nombreuses entreprises, les flux de données des médias sociaux deviennent de plus en plus une partie intégrante d'une stratégie de marketing numérique. Au stade exploratoire, cette technologie peut être utilisée pour effectuer une recherche rapide dans d'énormes quantités de données en continu et extraire les tendances de tendances liées à des produits ou des clients spécifiques.
L'étape de codification du Big Data
Avec des centaines de magasins et des milliers de clients, vous avez besoin d'un processus répétable pour passer de l'identification des modèles à la mise en œuvre de nouveaux produits et à un marketing plus ciblé. Après avoir trouvé quelque chose d'intéressant dans votre analyse de Big Data, codifiez-le et intégrez-le à votre processus métier.
Pour codifier la relation entre vos analyses Big Data et vos données opérationnelles, vous devez intégrer les données.
Étape d'intégration et de création de Big Data
Le Big Data a un impact majeur sur de nombreux aspects de la gestion des données, notamment l'intégration des données. Traditionnellement, l'intégration des données s'est concentrée sur le mouvement des données via le middleware, y compris les spécifications sur le passage des messages et les exigences pour les interfaces de programmation d'applications (API). Ces concepts d'intégration de données sont plus appropriés pour la gestion des données au repos que pour les données en mouvement.
L'entrée dans le nouveau monde des données non structurées et des données en continu modifie la notion conventionnelle d'intégration des données. Si vous souhaitez intégrer votre analyse des données de diffusion dans votre processus métier, vous avez besoin d'une technologie de pointe suffisamment rapide pour vous permettre de prendre des décisions en temps réel.
Une fois votre analyse de données volumineuses terminée, vous avez besoin d'une approche qui vous permettra d'intégrer ou d'intégrer les résultats de votre analyse de données volumineuses dans votre processus métier et dans vos actions métier en temps réel.
Les entreprises ont de grandes attentes en termes de valorisation de l'analyse de Big Data. En fait, de nombreuses entreprises aimeraient commencer une analyse plus approfondie des données volumineuses générées en interne, telles que les données du journal de sécurité, ce qui n'était pas possible auparavant en raison de limitations technologiques.
Les technologies pour le transport à grande vitesse de données très volumineuses et rapides sont une exigence pour l'intégration à travers les grandes sources de données distribuées et entre les données volumineuses et opérationnelles. Les sources de données non structurées doivent souvent être déplacées rapidement sur de grandes distances géographiques pour le partage et la collaboration.
Lier des sources traditionnelles à des données volumineuses est un processus à plusieurs niveaux après avoir examiné toutes les données provenant de la diffusion de grandes sources de données et identifié les modèles pertinents. Après avoir réduit la quantité de données que vous devez gérer et analyser, vous devez maintenant penser à l'intégration.