Table des matières:
- Données de données volumineuses
- Algorithmes de big data analytiques
- Prise en charge de l'infrastructure Big Data
Vidéo: How data brokers sold my identity | Madhumita Murgia | TEDxExeter 2024
Les produits d'informatique décisionnelle traditionnels n'étant pas vraiment conçus pour gérer les mégadonnées, ils peuvent nécessiter quelques modifications. Ils ont été conçus pour fonctionner avec des données très bien structurées et bien comprises, souvent stockées dans un référentiel de données relationnelles et affichées sur votre ordinateur de bureau ou portable. Cette analyse traditionnelle de business intelligence est généralement appliquée à des instantanés de données plutôt qu'à la quantité totale de données disponibles. Qu'est-ce qui est différent avec l'analyse de Big Data?
Données de données volumineuses
Les données massives sont constituées de données structurées, semi-structurées et non structurées. Vous en avez souvent beaucoup, et cela peut être assez complexe. Quand vous pensez à l'analyser, vous devez être conscient des caractéristiques potentielles de vos données:
-
Cela peut provenir de sources non fiables. L'analyse des données volumineuses implique souvent l'agrégation de données provenant de diverses sources. Ceux-ci peuvent inclure des sources de données internes et externes. Dans quelle mesure ces sources d'information externes sont-elles fiables? Par exemple, dans quelle mesure les données de médias sociaux sont-elles fiables comme un tweet? L'information peut provenir d'une source non vérifiée. L'intégrité de ces données doit être prise en compte dans l'analyse.
-
Il peut être sale. Les données sales se réfèrent à des données inexactes, incomplètes ou erronées. Cela peut inclure l'orthographe des mots; un capteur cassé, mal calibré ou corrompu d'une manière ou d'une autre; ou même des données dupliquées. Les scientifiques des données discutent de l'endroit où nettoyer les données - soit près de la source ou en temps réel.
Bien sûr, une école de pensée dit que les données sales ne devraient pas être nettoyées du tout car elles peuvent contenir des valeurs aberrantes intéressantes. La stratégie de nettoyage dépendra probablement de la source et du type de données et du but de votre analyse. Par exemple, si vous développez un filtre anti-spam, le but est de détecter les éléments défectueux dans les données, vous ne voudrez donc pas le nettoyer.
-
Le rapport signal sur bruit peut être faible. En d'autres termes, le signal (information utilisable) peut n'être qu'un infime pourcentage des données; le bruit est le reste. Être capable d'extraire un signal minuscule à partir de données bruitées fait partie des avantages de l'analyse de Big Data, mais vous devez être conscient que le signal peut en effet être petit.
-
Ça peut être en temps réel. Dans de nombreux cas, vous allez essayer d'analyser les flux de données en temps réel.
La gouvernance du Big Data va constituer une partie importante de l'équation analytique. Sous les analyses métier, des améliorations devront être apportées aux solutions de gouvernance pour garantir la véracité des nouvelles sources de données, en particulier lorsqu'elles sont combinées avec des données de confiance existantes stockées dans un entrepôt.Les solutions de sécurité et de confidentialité des données doivent également être améliorées pour soutenir la gestion / gestion des mégadonnées stockées dans les nouvelles technologies.
Algorithmes de big data analytiques
Lorsque vous envisagez l'analyse de Big Data, vous devez savoir que lorsque vous développez au-delà du bureau, les algorithmes que vous utilisez doivent être refaçonnés, code interne sans affecter son fonctionnement externe. La beauté d'une grande infrastructure de données est que vous pouvez exécuter un modèle qui prenait des heures ou des jours en quelques minutes.
Cela vous permet de parcourir le modèle des centaines de fois. Cependant, si vous exécutez une régression sur un milliard de lignes de données dans un environnement distribué, vous devez prendre en compte les besoins en ressources relatifs au volume de données et à son emplacement dans le cluster. Vos algorithmes doivent être sensibles aux données.
De plus, les fournisseurs commencent à proposer de nouvelles analyses conçues pour être placées à proximité des grandes sources de données afin d'analyser les données en place. Cette approche d'analyse plus proche des sources de données minimise la quantité de données stockées en ne conservant que les données de grande valeur. Il vous permet également d'analyser les données plus tôt, ce qui est essentiel pour la prise de décision en temps réel.
Bien sûr, l'analytique continuera d'évoluer. Par exemple, vous pouvez avoir besoin de capacités de visualisation en temps réel pour afficher des données en temps réel qui changent continuellement. Comment tracez-vous pratiquement un milliard de points sur un graphique? Ou, comment travaillez-vous avec les algorithmes prédictifs pour qu'ils effectuent une analyse suffisamment rapide et suffisamment profonde pour utiliser un ensemble de données complexe en constante expansion? C'est un domaine de recherche active.
Prise en charge de l'infrastructure Big Data
Il suffit de dire que si vous cherchez une plateforme, vous devez:
-
Intégrer les technologies: L'infrastructure doit intégrer les nouvelles technologies Big Data avec technologies traditionnelles pour pouvoir traiter toutes sortes de données volumineuses et les rendre consommables grâce aux analyses traditionnelles.
-
Stocker de grandes quantités de données disparates: Un système Hadoop renforcé peut être nécessaire pour traiter / stocker / gérer de grandes quantités de données au repos, qu'elles soient structurées, semi-structurées ou non structurées.
-
Traiter les données en mouvement: Une capacité de traitement en continu peut être nécessaire pour traiter les données en mouvement générées en permanence par des capteurs, des périphériques intelligents, des vidéos, des fichiers audio et des journaux pour prendre des décisions en temps réel.
-
Données d'entrepôt: Il se peut que vous ayez besoin d'une solution optimisée pour les charges de travail analytiques opérationnelles ou approfondies afin de stocker et de gérer les quantités croissantes de données fiables.
Et bien sûr, vous avez besoin de la capacité d'intégrer les données que vous avez déjà en place avec les résultats de l'analyse de Big Data.