Vidéo: LINKVALUE | BIG DATA 2018 | REX Machine learning & détection de la fraude 2024
Le volume des transactions rend difficile la détection des fraudes en raison du volume de données. Ironiquement, ce même défi peut aider à créer de meilleurs modèles prédictifs de fraude - un domaine où Hadoop brille.
Dans le monde interconnecté d'aujourd'hui, le volume et la complexité des transactions rendent plus difficile que jamais la découverte de la fraude. Ce qui s'appelait «trouver une aiguille dans une botte de foin» est devenu la tâche de «trouver une aiguille spécifique dans des piles d'aiguilles. "
Les méthodes traditionnelles de prévention de la fraude ne sont pas particulièrement efficaces. Par exemple, la gestion des paiements irréguliers est souvent gérée par des analystes qui vérifient ce qui représente un très petit échantillon de demandes jumelé à la demande de documents médicaux de la part des demandeurs ciblés. Les termes de l'industrie pour ce modèle sont rémunération et poursuite: les réclamations sont acceptées et payées et les processus recherchent des trop-payés intentionnels ou non intentionnels au moyen d'un examen après paiement de ces réclamations.
Alors, comment la détection de la fraude est-elle faite maintenant? En raison des limites des technologies traditionnelles, les modèles de fraude sont construits en échantillonnant les données et en utilisant l'échantillon pour construire un ensemble de modèles de prédiction et de détection de la fraude. Lorsque vous comparez ce modèle avec un département de fraude ancré à Hadoop qui utilise l'ensemble de données complet - pas d'échantillonnage - pour construire les modèles, vous pouvez voir la différence.
Le thème récurrent le plus courant dans la plupart des cas d'utilisation de Hadoop est qu'il aide les entreprises à franchir le plafond de verre sur le volume et la variété des données pouvant être intégrées dans l'analyse des décisions. Plus vous avez de données (et plus vous stockez d'historique), meilleurs sont vos modèles.
La combinaison de formes non traditionnelles de données avec votre ensemble de transactions historiques peut rendre vos modèles de fraude encore plus robustes. Par exemple, si un travailleur réclame un dédommagement pour un mauvais retour d'un accident de type glisser-tomber, disposer d'un pool de millions de cas de patients qui détaillent le traitement et la durée du rétablissement aide à créer un modèle de détection de la fraude.
À titre d'exemple de la façon dont ce modèle peut fonctionner, imaginez que vous essayez de savoir si les patients des régions rurales se rétablissent plus lentement que ceux des régions urbaines. Vous pouvez commencer par examiner la proximité des services de physiothérapie. Y a-t-il une corrélation entre les temps de récupération et la localisation géographique?
Si votre département des fraudes détermine qu'une blessure nécessite trois semaines de convalescence mais qu'un agriculteur avec le même diagnostic vit à une heure d'un physiothérapeute et que l'employé de bureau a un praticien dans son bureau, c'est une autre variable à ajouter à la fraude -modèle de détection.
Lorsque vous récoltez des données de réseaux sociaux pour les demandeurs et que vous trouvez un patient qui prétend souffrir de coup de fouet se vante de terminer la série d'événements d'endurance connus sous le nom de Tough Mudder, c'est un exemple de mélange de nouveaux types de données repérer la fraude.
Si vous voulez accélérer vos efforts de détection de la fraude, votre organisation peut s'éloigner de la modélisation du segment de marché et passer à la modélisation au niveau de la transaction ou de la personne.
Tout simplement, faire une prévision basée sur un segment est utile, mais prendre une décision basée sur des informations particulières sur une transaction individuelle est (évidemment) préférable. Pour ce faire, vous travaillez sur un ensemble de données plus important que ce qui est classiquement possible dans l'approche traditionnelle. Seulement (maximum de) 30% des informations disponibles pouvant être utiles pour la modélisation de la fraude sont utilisées.
Pour créer des modèles de détection de fraude, Hadoop est bien adapté à
-
Gérer le volume: Cela signifie le traitement de l'ensemble de données complet - pas d'échantillonnage de données.
-
Gérer de nouvelles variétés de données: Les exemples sont l'inclusion de services de proximité aux soins et de cercles sociaux pour décorer le modèle de fraude.
-
Maintenir un environnement agile: Activer différents types d'analyse et de modification des modèles existants.
Les modélisateurs de fraude peuvent ajouter et tester de nouvelles variables au modèle sans avoir à faire une proposition à votre équipe d'administrateurs de base de données, puis attendre quelques semaines pour approuver un changement de schéma et le placer dans leur environnement.
Ce processus est essentiel à la détection des fraudes car les environnements dynamiques présentent généralement des schémas de fraude cycliques qui vont et viennent en quelques heures, jours ou semaines. Si les données utilisées pour identifier ou renforcer de nouveaux modèles de détection de fraude ne sont pas disponibles à tout moment, au moment où vous découvrirez ces nouveaux modèles, il pourrait être trop tard pour éviter les dommages.
Evaluez les avantages pour votre entreprise non seulement de créer des modèles plus complets avec davantage de types de données, mais également de pouvoir actualiser et améliorer ces modèles plus rapidement que jamais. L'entreprise qui peut actualiser et améliorer les modèles tous les jours s'en sort mieux que ceux qui le font tous les trimestres.
Vous pouvez croire que ce problème a une réponse simple - il vous suffit de demander à votre responsable des dépenses opérationnelles (OPEX) et des dépenses en capital (CAPEX) d'intégrer davantage de données pour créer de meilleurs modèles et charger les 70% restants modèles de décision.
Vous pourriez même croire que cet investissement se rentabilisera grâce à une meilleure détection des fraudes. Cependant, le problème avec cette approche est les coûts initiaux élevés qui doivent être engloutis dans des données inconnues , où vous ne savez pas si elle contient des informations vraiment précieuses.
Bien sûr, tripler la taille de votre entrepôt de données, par exemple, vous donnera plus d'accès à des données historiques structurées pour affiner vos modèles, mais ils ne peuvent pas accueillir les rafales de médias sociaux. Les technologies traditionnelles ne sont pas aussi agiles non plus. Hadoop facilite l'introduction de nouvelles variables dans le modèle, et s'il s'avère qu'elles n'améliorent pas le modèle, vous pouvez simplement ignorer les données et passer à autre chose.