Vidéo: Cours de classification 2024
Partie de Machine Learning For Dummies L'apprentissage automatique implique l'utilisation de nombreux algorithmes différents. Ce tableau vous donne un résumé rapide des forces et des faiblesses de divers algorithmes.
Algorithme
Meilleur à | Plus | Moins | Forêt aléatoire |
Apt à presque n'importe quel problème d'apprentissage automatique | Bioinformatique
Peut travailler en parallèle |
Rarement > Traite automatiquement les valeurs manquantes
Pas besoin de transformer une variable Pas besoin de modifier les paramètres Peut être utilisé par presque tout le monde avec d'excellents résultats Difficile à interpréter Plus faible sur la régression les extrémités de la distribution des valeurs de réponse |
biaisés dans les problèmes multiclass vers des classes plus fréquentes
Gradient Boosting Apt à presque tous les problèmes d'apprentissage automatique |
Moteurs de recherche (résoudre le problème d'apprentissage) > Il peut approcher la plupart des fonctions non linéaires | Meilleur prédicteur dans la classe
Traite automatiquement les valeurs manquantes |
Pas besoin de transformer une variable
Il peut être surcoupé s'il est exécuté trop longtemps Sensible aux données bruitées valeurs aberrantes Ne fonctionne pas correctement sans réglage des paramètres |
Régression linéaire
Valeur de base Prédictions économétriques |
Modélisation des réponses marketing | Simple à comprendre et à expliquer
Il suffit rarement de La régularisation L1 & L2 est efficace dans la sélection des fonctions |
Rapide pour s'entraîner
Facile à s'entraîner sur le big data grâce à sa version stochastique Vous devez travailler dur pour l'adapter aux fonctions non linéaires Peut souffrir des valeurs aberrantes Support des machines vectorielles |
Reconnaissance des caractères
Reconnaissance des images |
Texte | Création automatique d'entités non linéaires
Peut approximer des fonctions non linéaires complexes Difficile à interpréter lors de l'application de noyaux non linéaires |
Souffre d'exemples trop nombreux, après 10 000 exemples cela prend trop de temps pour s'entraîner
K voisins les plus proches |
Vision par ordinateur
Marquage multi-étiquettes |
Systèmes de recommandation | Problèmes de vérification orthographique
Formation rapide et paresseuse Peut gérer naturellement les problèmes multiclasses extrêmes (comme le marquage de texte) Lent et lourd dans la phase de prédiction |
Peut ne pas prédire corr ectly en raison de la malédiction de dimensionnalité
Adaboost |
Détection de visage
Traite automatiquement les valeurs manquantes |
Pas besoin de transformer une variable | Ne s'ajuste pas facilement | Quelques paramètres à modifier > Il peut tirer parti de nombreux apprenants faibles
Sensible aux données bruyantes et aux valeurs aberrantes Jamais les meilleures prédictions en classe Naive Bayes Reconnaissance faciale |
Analyse des sentiments
Détection des spams |
Classification du texte | Facile et rapide à implémenter, ne nécessite pas trop de mémoire et peut être utilisé pour l'apprentissage en ligne
Facile à comprendre Prend en compte les connaissances antérieures Hypothèses d'indépendance des fonctionnalités solides et irréalistes > Echec de l'estimation des occurrences rares |
Souffre de caractéristiques non pertinentes
Réseaux neuronaux Reconnaissance d'image |
Reconnaissance du langage et traduction
Reconnaissance vocale Reconnaissance visuelle |
Peut approximer toute fonction non linéaire | Robuste aux valeurs aberrantes
Ne fonctionne qu'avec une partie des exemples (le vecteur de support s) Très difficile à configurer Difficile à régler en raison de trop de paramètres et vous devez également décider de l'architecture du réseau |
Difficile à interpréter
Facile à adapter Régression logistique < Classer les résultats par probabilité |
Modéliser les réponses marketing
Facile à comprendre et expliquer Il suffit rarement Utiliser la régularisation L1 & L2 pour sélectionner les caractéristiques |
Le meilleur algorithme pour prédire les probabilités d'un event | Rapide pour s'entrainer
Facile à s'entraîner sur les big data grâce à sa version stochastique |
Vous devez travailler dur pour l'adapter aux fonctions non linéaires
Peut souffrir de valeurs aberrantes SVD Restructurer les données de manière significative Difficile de comprendre pourquoi les données ont été restructurées d'une certaine manière |
PCA
Suppression de la colinéarité |
Réduction des dimensions de l'ensemble de données | Réduction de la dimensionalité des données | Implique des hypothèses linéaires fortes (les composants sont des sommations pondérées des caractéristiques) K-means | Segmentation |
Recherche rapide de grappes | Détection de valeurs aberrantes en plusieurs dimensions
Souffre de multicollinéarité |
Les grappes sont sphériques, ne peuvent pas détecter les groupes d'autres formes | instables solutions, dépend de l'initialisation |
|