Accueil Finances personnelles Big Data For Dummies Cheat Sheet - Les nuls

Big Data For Dummies Cheat Sheet - Les nuls

Vidéo: Big-O notation in 5 minutes — The basics 2025

Vidéo: Big-O notation in 5 minutes — The basics 2025
Anonim

Par Judith Hurwitz, Alan Nugent, Fern Halper et Marcia Kaufman

Les entreprises doivent trouver un moyen pratique de gérer les big data pour rester compétitives - apprendre de nouvelles façons de saisir et d'analyser des quantités croissantes d'informations sur les clients, les produits et les services. Les données deviennent de plus en plus complexes de manière structurée et non structurée. De nouvelles sources de données proviennent de machines, telles que des capteurs; sites d'entreprises sociales; et interaction avec le site Web, telles que les données de flux de clics. Répondre à ces exigences commerciales en constante évolution exige que les bonnes informations soient disponibles au bon moment.

Définition du Big Data: volume, vitesse et variété

Les Big Data permettent aux entreprises de stocker, gérer et manipuler de grandes quantités de données disparates à la bonne vitesse et au bon moment. Pour obtenir les bonnes idées, les données volumineuses sont généralement réparties selon trois caractéristiques:

  • Volume: Nombre de données

  • Vitesse: Vitesse de traitement des données

  • Variété: Les différentes types de données

Bien qu'il soit pratique de simplifier les Big Data dans les trois V, cela peut être trompeur et trop simpliste. Par exemple, vous pouvez gérer une quantité relativement faible de données complexes très disparates ou vous pouvez traiter un énorme volume de données très simples. Ces données simples peuvent être toutes structurées ou non structurées.

Encore plus important est la quatrième vérité, . Dans quelle mesure ces données permettent-elles de prédire la valeur commerciale? Les résultats d'une analyse de Big Data ont-ils du sens? Les données doivent pouvoir être vérifiées en fonction de l'exactitude et du contexte. Une entreprise innovante peut vouloir être capable d'analyser des quantités massives de données en temps réel pour évaluer rapidement la valeur de ce client et la possibilité de fournir des offres supplémentaires à ce client. Il est nécessaire d'identifier la quantité et les types de données qui peuvent être analysés en temps réel pour avoir un impact sur les résultats de l'entreprise.

Le Big Data intègre toutes les variétés de données, y compris les données structurées et les données non structurées issues des e-mails, des médias sociaux, des flux de texte, etc. Ce type de gestion de données nécessite que les entreprises tirent parti de leurs données structurées et non structurées.

Présentation des données non structurées

Les données non structurées sont différentes des données structurées car leur structure est imprévisible. Des exemples de données non structurées comprennent des documents, des e-mails, des blogs, des images numériques, des vidéos et des images satellite. Il comprend également certaines données générées par des machines ou des capteurs. En fait, les données non structurées représentent la majorité des données qui se trouvent dans les locaux de votre entreprise ainsi qu'à l'extérieur de votre entreprise dans des sources privées et publiques en ligne telles que Twitter et Facebook.

Dans le passé, la plupart des entreprises n'étaient pas en mesure de capturer ou de stocker cette grande quantité de données. C'était simplement trop cher ou trop écrasant. Même si les entreprises étaient capables de capturer les données, elles n'avaient pas les outils pour analyser facilement les données et utiliser les résultats pour prendre des décisions. Très peu d'outils pourraient donner un sens à ces vastes quantités de données. Les outils qui existaient étaient complexes à utiliser et ne produisaient pas de résultats dans un délai raisonnable.

À la fin, ceux qui voulaient vraiment aller à l'énorme effort d'analyse de ces données ont été forcés de travailler avec des instantanés de données. Cela a l'effet indésirable de manquer des événements importants car ils n'étaient pas dans un instantané particulier.

Une approche de plus en plus appréciée pour obtenir de la valeur commerciale à partir de données non structurées est l'analyse textuelle, le processus d'analyse de texte non structuré, d'extraction d'informations pertinentes et de être mis à profit de diverses manières. Les processus d'analyse et d'extraction tirent parti des techniques issues de la linguistique computationnelle, des statistiques et d'autres disciplines de l'informatique.

Le rôle des données opérationnelles traditionnelles dans l'environnement Big Data

Le fait de savoir quelles données sont stockées et où elles sont stockées constitue un élément essentiel de la mise en œuvre de Big Data. Il est peu probable que vous utilisiez des SGBDR pour le noyau de l'implémentation, mais il est très probable que vous deviez vous appuyer sur les données stockées dans les SGBDR pour créer le plus haut niveau de valeur pour l'entreprise avec des données volumineuses.

La plupart des grandes et des petites entreprises stockent probablement la plupart de leurs informations opérationnelles importantes dans des systèmes de gestion de bases de données relationnelles (SGBDR), qui reposent sur une ou plusieurs relations et sont représentés par des tables. Ces tables sont définies par la manière dont les données sont stockées. Les données sont stockées dans des objets de base de données appelés tables - organisés en lignes et en colonnes. Les SGBDR suivent une approche cohérente dans la façon dont les données sont stockées et récupérées.

Pour tirer le meilleur parti de votre analyse en temps réel des données non structurées, vous devez comprendre ces données dans le contexte de vos données historiques sur les clients, les produits, les transactions et les opérations. En d'autres termes, vous devrez intégrer vos données non structurées à vos données opérationnelles traditionnelles.

Principes de base de l'infrastructure de données volumineuses

Les données volumineuses ne concernent que la grande vitesse, les volumes volumineux et la grande variété de données. L'infrastructure physique va littéralement «faire ou défaire» l'implémentation. La plupart des implémentations de données volumineuses doivent être hautement disponibles, de sorte que les réseaux, les serveurs et le stockage physique doivent être résilients et redondants.

La résilience et la redondance sont interdépendantes. Une infrastructure ou un système résiste aux défaillances ou aux changements lorsque des ressources redondantes suffisantes sont en place et prêtes à passer à l'action. La résilience aide à éliminer les points de défaillance uniques dans votre infrastructure. Par exemple, si une seule connexion réseau existe entre votre entreprise et Internet, vous n'avez pas de redondance réseau et l'infrastructure n'est pas résiliente par rapport à une panne de réseau.

Dans les grands centres de données ayant des exigences en matière de continuité des opérations, la majeure partie de la redondance est en place et peut être exploitée pour créer un environnement de données volumineuses. Dans les nouvelles implémentations, les concepteurs ont la responsabilité de mapper le déploiement aux besoins de l'entreprise en fonction des coûts et des performances.

Gestion des données volumineuses avec Hadoop: HDFS et MapReduce

Hadoop, un framework logiciel open source, utilise HDFS (Hadoop Distributed File System) et MapReduce pour analyser des données volumineuses sur des grappes de matériel de base, c'est-à-dire environnement informatique distribué.

Le système de fichiers distribués Hadoop (HDFS) a été développé pour permettre aux entreprises de gérer plus facilement d'énormes volumes de données de manière simple et pragmatique. Hadoop permet de décomposer de gros problèmes en éléments plus petits afin que l'analyse puisse être effectuée rapidement et à moindre coût. HDFS est une approche polyvalente, résiliente et en cluster pour gérer les fichiers dans un environnement de données volumineuses.

HDFS n'est pas la destination finale des fichiers. Il s'agit plutôt d'un «service» de données qui offre un ensemble unique de capacités nécessaires lorsque les volumes de données et la vélocité sont élevés.

MapReduce est un framework logiciel qui permet aux développeurs d'écrire des programmes capables de traiter des quantités massives de données non structurées en parallèle à travers un groupe distribué de processeurs. MapReduce a été conçu par Google comme un moyen d'exécuter efficacement un ensemble de fonctions contre une grande quantité de données en mode batch.

Le composant "map" distribue le ou les problèmes de programmation sur un grand nombre de systèmes et gère le placement des tâches de manière à équilibrer la charge et à gérer la récupération des défaillances. Une fois le calcul distribué terminé, une autre fonction appelée "réduire" regroupe tous les éléments pour fournir un résultat. Un exemple d'utilisation de MapReduce serait de déterminer combien de pages d'un livre sont écrites dans chacune des 50 langues différentes.

Jeter les bases de votre stratégie Big Data

Les entreprises nagent dans le Big Data. Le problème est qu'ils ne savent souvent pas comment utiliser ces données de manière pragmatique pour pouvoir prédire l'avenir, exécuter des processus métier importants ou simplement acquérir de nouvelles connaissances. Le but de votre stratégie et de votre plan de gestion des données volumineuses devrait être de trouver un moyen pragmatique de tirer parti des données pour obtenir des résultats commerciaux plus prévisibles.

Commencez votre stratégie Big Data en vous lançant dans un processus de découverte. Vous devez savoir quelles données vous avez déjà, où elles se trouvent, qui les possède et les contrôle, et comment elles sont actuellement utilisées. Par exemple, quelles sont les sources de données tierces sur lesquelles votre entreprise s'appuie? Ce processus peut vous fournir de nombreuses informations:

  • Vous pouvez déterminer le nombre de sources de données et le nombre de chevauchements.

  • Vous pouvez identifier des lacunes dans la connaissance de ces sources de données.

  • Vous pourriez découvrir que vous avez beaucoup de données en double dans une zone de l'entreprise et presque aucune donnée dans un autre domaine.

  • Vous pouvez vérifier que vous dépendez de données tierces qui ne sont pas aussi précises qu'elles devraient l'être.

Passez le temps dont vous avez besoin pour effectuer ce processus de découverte, car ce sera le fondement de votre planification et de l'exécution de votre stratégie Big Data.

Big Data For Dummies Cheat Sheet - Les nuls

Le choix des éditeurs

Passez les examens en améliorant votre mentalité de performance - les nuls

Passez les examens en améliorant votre mentalité de performance - les nuls

Quels que soient les sujets que vous étudiez, êtes à l'école secondaire, au collège, à l'université, ou face à des examens professionnels ou d'entrée, pour passer vos examens, vous devez développer votre esprit de performance d'examen. Faire cela vous aidera à: Développer une attitude d'excellence - toujours viser à atteindre votre meilleur rendement personnel. Décidez exactement de ce que ...

Réussir les examens commence le premier jour de classe - les tirs

Réussir les examens commence le premier jour de classe - les tirs

Sont faciles à supposer aller à des cours, des conférences, des tutoriels ou autres, votre préparation aux examens sera dans quelques mois. Cette hypothèse, cependant, n'est pas utile. Si vous pensez que la préparation aux examens fait partie de chaque cours tous les jours - pas seulement les dernières semaines avant les examens - vous ...

Pour mémoriser l'ordre des opérations du PSAT / NMSQT - mannequins

Pour mémoriser l'ordre des opérations du PSAT / NMSQT - mannequins

L'ordre mathématique des opérations est très important sur les sections mathématiques du PSAT / NMSQT. S'il vous plaît excusez ma chère tante Sally (PEMDAS) est un moyen mnémotechnique (aide-mémoire) qui vous aide à vous rappeler quelle opération vient en premier, qui vient en second lieu, et ainsi de suite. L'ordre compte parce que si vous ignorez tante Sally, vous vous retrouvez avec la mauvaise réponse. ...

Le choix des éditeurs

10 Bonnes façons d'utiliser Bitcoin - les nuls

10 Bonnes façons d'utiliser Bitcoin - les nuls

Si vous voulez utiliser le bitcoin comme une forme d'éducation monétaire virtuelle, Utilisez-le comme un revenu supplémentaire, ou regardez-le dans une perspective d'investissement, bitcoin vous permet de faire à peu près tout ce que vous pouvez imaginer. Voici dix des meilleures façons d'utiliser Bitcoin, même s'il y en a beaucoup, beaucoup ...

Bitcoin Clés publiques et privées - nuls

Bitcoin Clés publiques et privées - nuls

Il y a plus qu'un portefeuille bitcoin que juste l'adresse elle-même. Il contient également la clé publique et privée pour chacune de vos adresses bitcoin. Votre clé privée bitcoin est une chaîne générée aléatoirement (chiffres et lettres), permettant de dépenser des bitcoins. Une clé privée est toujours liée mathématiquement à l'adresse du porte-monnaie bitcoin, ...

Bitcoin Paper Wallets - mannequins

Bitcoin Paper Wallets - mannequins

Possédant un portefeuille papier bitcoin, l'adresse contenant les bitcoins n'a pas encore été connectée au live blockchain, et n'est donc pas "active". "Jusqu'à ce que le portefeuille soit connecté à la blockchain, il est considéré comme étant en stockage à froid (jargon bitcoin pour un compte hors ligne). Vous pouvez toujours vérifier le solde ...

Le choix des éditeurs

Comment lire les données d'Excel en R - dummies

Comment lire les données d'Excel en R - dummies

Si vous demandez aux utilisateurs de R quelle est la meilleure façon est d'importer des données directement à partir de Microsoft Excel, la plupart d'entre eux répondront probablement que votre meilleure option est d'exporter d'abord Excel vers un fichier CSV, puis utiliser lire. csv () pour importer vos données à R. En fait, c'est toujours le conseil ...

Comment lire les erreurs et les avertissements dans R - dummies

Comment lire les erreurs et les avertissements dans R - dummies

Si quelque chose ne va pas avec votre code, toi. Nous devons l'admettre: Ces messages d'erreur peuvent aller de légèrement confus à complètement incompréhensible si vous n'y êtes pas habitué. Mais ça ne doit pas rester comme ça. Lorsque vous vous serez familiarisé avec les messages d'erreur et d'avertissement de R, vous pourrez rapidement ...

Comment lire la sortie de str () pour les listes dans R - dummies

Comment lire la sortie de str () pour les listes dans R - dummies

Beaucoup de gens qui commencent par R sont déroutés par les listes au début. Il n'y a vraiment pas besoin de cela - une liste n'a que deux parties importantes: les composants et les noms. Et dans le cas des listes sans nom, vous n'avez même pas à vous soucier de ce dernier. Mais si vous regardez la structure ...