Vidéo: Le Big Data dans la finance - Conference en partenariat avec Paris Dauphine 2024
La principale considération à prendre en compte lors de l'exécution d'un projet Big Data est la quantité de temps réel et non réel requise pour mener à bien votre projet. Le big data consiste souvent à faire des choses qui n'étaient pas possibles parce que la technologie n'était pas assez avancée ou que le coût était prohibitif. Le grand changement qui se produit avec les données volumineuses est la capacité de tirer parti de quantités massives de données sans la programmation complexe requise par le passé.
De nombreuses organisations sont à un point critique en termes de gestion de grands volumes de données complexes. Les approches basées sur le Big Data aideront à maintenir l'équilibre des choses afin que les entreprises ne dépassent pas le volume, la variété et la vitesse des données. Les entreprises ont eu du mal à gérer des quantités croissantes de données qui doivent être gérées à grande vitesse.
Les organisations ont dû se contenter d'analyser de petits sous-ensembles de données qui manquaient souvent d'informations critiques pour obtenir une image complète que les données pouvaient révéler. À mesure que les technologies de données volumineuses évoluent et se déploient, les entreprises pourront analyser plus facilement les données et les utiliser pour prendre des décisions ou prendre des mesures.
Les aspects en temps réel des mégadonnées peuvent être révolutionnaires lorsque les entreprises doivent résoudre des problèmes importants. Quel est l'impact lorsqu'une organisation peut gérer des données diffusées en temps réel? En général, cette approche en temps réel est la plus pertinente lorsque la réponse à un problème est sensible au temps et critique pour l'entreprise. Cela peut être lié à une menace pour quelque chose d'important, comme la détection de la performance du matériel hospitalier ou l'anticipation d'un risque d'intrusion potentiel.
La liste suivante montre des exemples de situations où une entreprise souhaite tirer parti de ces données en temps réel pour obtenir un avantage rapide:
-
Surveillance d'une exception avec une nouvelle information, comme la fraude / l'intelligence
-
Suivi des flux d'actualités et des médias sociaux pour déterminer les événements susceptibles d'affecter les marchés financiers, comme la réaction d'un client à une annonce de nouveau produit
-
Modification de votre positionnement publicitaire lors d'un grand événement sportif basé sur des flux Twitter en temps réel Fournir un coupon à un client en fonction de ce qu'il a acheté au point de vente
-
Parfois, les données en continu arrivent très rapidement et n'incluent pas une grande variété de sources, parfois une grande variété existe, et parfois c'est une combinaison de les deux.
La question que vous devez vous poser si vous vous déplacez en temps réel est la suivante: Est-ce que ce (problème) peut être résolu avec les capacités traditionnelles de gestion de l'information ou avez-vous besoin de nouvelles fonctionnalités?Le volume ou la vélocité va-t-il submerger nos systèmes? Souvent, c'est une combinaison des deux.
Donc, si vous avez besoin de capacités en temps réel, quelles sont les exigences de l'infrastructure pour supporter cela? La liste suivante met en évidence quelques éléments à prendre en compte concernant la capacité d'un système à ingérer des données, à les traiter et à les analyser en temps réel:
Faible latence:
-
La latence est le délai qui permet à un service de exécuter dans un environnement. Certaines applications nécessitent moins de latence, ce qui signifie qu'elles doivent répondre en temps réel. Un flux en temps réel va nécessiter une faible latence. Vous devez donc penser à la puissance de calcul ainsi qu'aux contraintes réseau. Évolutivité:
-
L'évolutivité est la capacité à maintenir un certain niveau de performance, même avec des charges croissantes. Polyvalence:
-
Le système doit prendre en charge les flux de données structurés et non structurés. Format natif:
-
Utilisez les données dans leur forme native. La transformation prend du temps et de l'argent. La possibilité d'utiliser l'idée de traiter des interactions complexes dans les données qui déclenchent des événements peut être transformationnelle. La nécessité de traiter de plus en plus de données disparates est l'un des principaux facteurs qui favorisent l'adoption des services en nuage. Le modèle de nuage est à grande échelle et distribué.