Accueil Finances personnelles Comment utiliser Apache Hadoop pour Predictive Analytics - dummies

Comment utiliser Apache Hadoop pour Predictive Analytics - dummies

Vidéo: Formation Big Data avec Apache Spark: Initiation | Présentation Apache Hadoop 2025

Vidéo: Formation Big Data avec Apache Spark: Initiation | Présentation Apache Hadoop 2025
Anonim

Apache Hadoop est une plate-forme logicielle gratuite et open-source pour écrire et exécuter des applications qui traitent une grande quantité de données pour l'analyse prédictive. Il permet un traitement parallèle distribué de grands ensembles de données générés à partir de différentes sources. Essentiellement, c'est un outil puissant pour stocker et traiter des données volumineuses.

Hadoop stocke tout type de données, structurées ou non, provenant de différentes sources, puis les regroupe de la façon dont vous le souhaitez. Hadoop gère des données hétérogènes à l'aide d'un traitement parallèle distribué, ce qui en fait un cadre très efficace à utiliser dans les logiciels analytiques traitant des mégadonnées. Pas étonnant que certaines grandes entreprises adoptent Hadoop, y compris Facebook, Yahoo!, Google, IBM, Twitter et LinkedIn.

Avant Hadoop, les entreprises n'étaient pas en mesure de tirer parti du big data, qui n'a pas été analysé et presque inutilisable. Le coût de stockage de ces données dans une base de données relationnelle propriétaire et de création d'un format structuré ne justifie pas les avantages de l'analyse de ces données et de leur utilisation.

Hadoop, d'autre part, rend cette tâche transparente - pour une fraction du coût - permettant aux entreprises de trouver des informations précieuses sur les abondantes données qu'elles ont acquises et accumulent.

La puissance de Hadoop réside dans la gestion de différents types - en fait, de tout type - de données: texte, discours, e-mails, photos, posts, tweets, etc. Hadoop prend en charge l'agrégation de ces données, dans toute leur diversité, et vous offre la possibilité d'interroger toutes les données à votre convenance.

Vous n'avez pas besoin de créer un schéma avant de pouvoir donner un sens à vos données. Hadoop vous permet d'interroger ces données dans son format d'origine.

En plus de traiter de grandes quantités de données variées, Hadoop est tolérant aux pannes, utilisant des programmes simples qui gèrent la planification du traitement distribué sur plusieurs machines. Ces programmes peuvent détecter une défaillance matérielle et rediriger une tâche vers une autre machine en cours d'exécution. Cette configuration permet à Hadoop de fournir une haute disponibilité, indépendamment de la défaillance du matériel.

Hadoop utilise deux composants principaux (sous-projets) pour faire son travail: MapReduce et Hadoop Distributed File System. Les deux composants fonctionnent en coopération:

  • MapReduce : l'implémentation de MapReduce par Hadoop est basée sur la recherche de Google sur les modèles de programmation pour traiter de grands ensembles de données en les divisant en petits blocs de tâches. MapReduce utilise des algorithmes distribués, sur un groupe d'ordinateurs dans un cluster, pour traiter de grands ensembles de données.Il se compose de deux fonctions:

    • La fonction Map () qui réside sur le maître nœud (ordinateur en réseau). Il divise la requête ou la tâche d'entrée en sous-tâches plus petites, qu'elle distribue ensuite aux nœuds de travail qui traitent les tâches plus petites et transmettent les réponses au nœud maître. Les sous-tâches sont exécutées en parallèle sur plusieurs ordinateurs.

    • La fonction Reduce () rassemble les résultats de toutes les sous-tâches et les combine pour produire un résultat final agrégé - qu'il renvoie en réponse à la requête d'origine.

  • Système de fichiers distribués Hadoop (HDFS) : HDFS réplique les blocs de données résidant sur d'autres ordinateurs de votre centre de données (pour assurer la fiabilité) et gère le transfert des données vers les différentes parties de votre système distribué.

Considérons une base de données de deux milliards de personnes, et supposons que vous voulez calculer le nombre d'amis sociaux de M. X et les organiser en fonction de leur emplacement géographique. C'est un grand ordre.

Les données de deux milliards de personnes pourraient provenir de sources très différentes telles que les réseaux sociaux, les listes d'adresses de contact par e-mail, les publications, les tweets, les historiques de navigation. Hadoop peut agréger cette énorme masse de données afin que vous puissiez l'étudier avec une requête simple.

Vous utiliseriez les capacités de programmation MapReduce pour résoudre cette requête. La définition de procédures Map et Reduce rend même cet ensemble de données volumineux gérable. En utilisant les outils qu'offre le framework Hadoop, vous allez créer une implémentation MapReduce qui ferait le calcul en deux sous-tâches:

  • Calculer le nombre moyen d'amis sociaux de Mr. X.

  • Disposer les amis de Mr. X par situation géographique.

Votre programme d'implémentation MapReduce exécutera ces sous-tâches en parallèle, gérera la communication entre les sous-tâches et assemblera les résultats. Sur deux milliards de personnes, vous sauriez qui sont les amis en ligne de MX.

Hadoop fournit une gamme de processeurs Map; Le (s) que vous choisirez dépendront de votre infrastructure.

Chacun de vos processeurs traitera un certain nombre d'enregistrements. Supposons que chaque processeur gère un million d'enregistrements de données. Chaque processeur exécute une procédure Map qui produit plusieurs enregistrements de paires clé-valeur où G (clé) est l'emplacement géographique d'une personne (pays) et N (valeur) le nombre de contacts que la personne a.

Supposons que chaque processeur Map produise plusieurs paires de formulaires, par exemple:

Carte du processeur n ° 1:

Carte du processeur n ° 2:

Carte du processeur n ° 3:

Carte du processeur n ° 4:

Carte processeur n ° 5:

Carte processeur n ° 6:

Dans la phase Réduire, Hadoop attribue une tâche à un certain nombre de processeurs: Exécutez la procédure Réduire qui agrège les valeurs des mêmes clés pour produire un résultat final. Pour cet exemple, l'implémentation Réduire résume le nombre de valeurs pour chaque clé - emplacement géographique. Ainsi, après la phase de la carte, la phase de réduction produit ce qui suit:

------ ----

Clairement, M.X est un gars populaire - mais c'était un exemple très simple de la façon dont MapReduce peut être utilisé. Imaginez que vous ayez affaire à un grand ensemble de données dans lequel vous souhaitez effectuer des opérations complexes, telles que la mise en cluster de milliards de documents dont l'opération et les données sont trop importantes pour une seule machine. Hadoop est l'outil à considérer.

Comment utiliser Apache Hadoop pour Predictive Analytics - dummies

Le choix des éditeurs

Magasin de données ou entrepôt de données? - les mannequins

Magasin de données ou entrepôt de données? - les mannequins

L'idée d'un dépôt de données n'est guère révolutionnaire, malgré ce que vous pourriez lire sur les blogs et dans la presse spécialisée, et ce que vous pourriez entendre lors de conférences ou de séminaires. Un magasin de données est simplement un entrepôt de données réduit - c'est tout. Les vendeurs font de leur mieux pour définir des ...

Classer Votre Entrepôt de données - mannequins

Classer Votre Entrepôt de données - mannequins

Bien que vous devez vous assurer que votre entrepôt de données correspond à vos besoins uniques, certaines directives peuvent vous aider. vous déterminez la complexité probable de son environnement et de sa structure. Une bonne configuration consiste à utiliser une classification à trois niveaux pour la planification d'un entrepôt de données. En déterminant une catégorie probable pour une mise en œuvre, vous pouvez avoir ...

Business Intelligence Architecture et Data Warehousing - Mannequins

Business Intelligence Architecture et Data Warehousing - Mannequins

Les débuts du Business Intelligence (toute variété sauf data mining) avait une forte saveur client / serveur de première génération à deux niveaux. (Certains environnements d'intelligence d'affaires qui étaient hébergés sur un mainframe et qui effectuaient des requêtes et des rapports étaient construits avec une architecture centralisée.) Conceptuellement, les premières architectures d'intelligence d'affaires avaient du sens, compte tenu de l'état de l'art ...

Le choix des éditeurs

Câblage réseau pour l'examen de certification Cisco ICND1 - mannequins

Câblage réseau pour l'examen de certification Cisco ICND1 - mannequins

L'examen de certification ICND1 vous teste sur les différents types de câblage utilisé dans différents scénarios de réseau. Voici quelques points clés à retenir sur le câblage réseau. Rollover Cable: Un câble de survol est aussi connu comme un câble de console et obtient le nom rollover parce que l'ordre des fils d'un ...

Pour la certification compTIA A + - mannequins

Pour la certification compTIA A + - mannequins

Les examens A +, y compris le réseau local (LAN) et le réseau étendu (WAN): LAN: Un réseau local (LAN) est un réseau qui implique généralement un immeuble de bureaux ou peut-être même des systèmes en réseau sur un étage. Le principal point à retenir lors de l'identification ...

Outils de dépannage réseau - nuls

Outils de dépannage réseau - nuls

Voici une liste d'outils de dépannage courants que vous devriez connaître pour les examens A +. L'un des défis des réseaux de soutien aujourd'hui est de savoir comment les résoudre. Vous trouvez tellement d'aspects du réseau qu'il est difficile de savoir par où commencer votre dépannage. Crimper: A ...

Le choix des éditeurs

En sélectionnant Logiciel de blog hébergé - duos

En sélectionnant Logiciel de blog hébergé - duos

Lorsque vous choisissez de bloguer en utilisant un service de blog hébergé, vous n'avez pas besoin de s'inquiéter de la technologie du logiciel du tout. Vous pouvez vous concentrer sur le sujet de votre prochain article de blog plutôt que sur la manière de configurer un serveur Web. Pour utiliser un logiciel de blog hébergé, connectez-vous à l'outil d'édition, écrivez un ...

Sélectionnant l'hébergement Web pour votre blog WordPress - les nuls

Sélectionnant l'hébergement Web pour votre blog WordPress - les nuls

Après avoir choisi un domaine approprié pour votre blog, vous besoin d'un endroit pour votre installation de WordPress à vivre. N'oubliez pas que vous pouvez également demander à d'autres blogueurs quel hôte ils utilisent et quelle a été leur expérience. Les logiciels Web tels que WordPress ont certaines exigences techniques. Les exigences pour WordPress sont PHP 5. 6 ou plus ...

ÉVolutivité et Mom Blogging - mannequins

ÉVolutivité et Mom Blogging - mannequins

L'évolutivité est l'un de ces mots de jargon MBA-ish absolument ennuyeux que vous n'auriez probablement jamais pense que cela s'appliquerait à un blogueur maman. Mais ce que l'évolutivité signifie vraiment, c'est qu'une entreprise doit avoir une structure en place qui lui permet de croître. Bien sûr, vous voulez augmenter votre revenu - mais vous ...