Vidéo: Marcel Proust, 1. Du côté de chez Swann, Première partie : COMBRAY, À la recherche du temps perdu 2024
L'approche de validation de l'apprentissage automatique est un examen d'un remède possible au biais d'échantillonnage. Un biais d'échantillonnage peut arriver à vos données avant que l'apprentissage automatique soit mis en action, et cela entraîne une forte variance des estimations suivantes. En outre, vous devez être conscient des pièges de fuite qui peuvent se produire lorsque certaines informations de l'échantillon hors-échantillon à des données dans l'échantillon. Ce problème peut survenir lorsque vous préparez les données ou après que votre modèle d'apprentissage automatique est prêt et fonctionne.
Le remède, que l'on appelle ensembling de prédicteurs, fonctionne parfaitement lorsque votre échantillon d'apprentissage n'est pas complètement déformé et sa distribution est différente de l'échantillon hors-échantillon, mais pas d'une manière irrémédiable, comme comme quand toutes vos classes sont présentes mais pas dans la bonne proportion (à titre d'exemple). Dans de tels cas, vos résultats sont affectés par une certaine variance des estimations que vous pouvez éventuellement stabiliser de plusieurs façons: par rééchantillonnage, comme dans le bootstrap; par sous-échantillonnage (prélèvement d'un échantillon de l'échantillon); ou en utilisant des échantillons plus petits (ce qui augmente le biais).
Pour comprendre comment fonctionne si efficacement, visualisez l'image d'un œil de bœuf. Si votre échantillon affecte les prédictions, certaines prédictions seront exactes et d'autres seront erronées de manière aléatoire. Si vous changez votre échantillon, les bonnes prédictions continueront à être correctes, mais les mauvaises prédictions commenceront à être des variations entre différentes valeurs. Certaines valeurs seront la prédiction exacte que vous recherchez; d'autres vont simplement osciller autour de la bonne.
En comparant les résultats, vous pouvez deviner que ce qui est récurrent est la bonne réponse. Vous pouvez également prendre une moyenne des réponses et deviner que la bonne réponse devrait être au milieu des valeurs. Avec le jeu du taureau, vous pouvez visualiser des photos superposées de différents jeux: Si le problème est la variance, vous finirez par deviner que la cible est dans la zone la plus fréquemment touchée ou au moins au centre de tous les tirs.
Dans la plupart des cas, une telle approche s'avère correcte et améliore beaucoup vos prédictions d'apprentissage automatique. Lorsque votre problème est le biais et non la variance, l'utilisation de l'assemblage ne peut réellement causer de dommage que si vous sous-échantillonnez trop peu d'échantillons. Une bonne règle empirique pour le sous-échantillonnage est de prélever un échantillon de 70 à 90% par rapport aux données originales de l'échantillon. Si vous voulez faire du travail en série, vous devriez faire ce qui suit:
- Itérez un grand nombre de fois à travers vos données et modèles (d'un minimum de trois itérations à idéalement des centaines de fois).
- Chaque fois que vous itérez, sous-échantillonnez (ou bootstrap) vos données dans l'échantillon.
- Utilisez l'apprentissage automatique pour le modèle sur les données rééchantillonnées et prédisez les résultats hors échantillon. Conservez ces résultats pour une utilisation ultérieure.
- A la fin des itérations, pour chaque cas hors échantillon que vous voulez prédire, prenez toutes ses prédictions et faites la moyenne si vous faites une régression. Prenez la classe la plus fréquente si vous faites une classification.
Les pièges à fuites peuvent vous surprendre car ils peuvent s'avérer être une source inconnue et non détectée de problèmes avec vos processus d'apprentissage automatique. Le problème est d'espionner, ou d'observer trop les données hors échantillon et de s'y adapter trop souvent. En bref, l'espionnage est une sorte de surapprentissage - et pas seulement sur les données d'entraînement mais aussi sur les données de test, rendant le problème de sur-apprentissage lui-même plus difficile à détecter jusqu'à ce que vous obteniez de nouvelles données.
Habituellement, vous vous rendez compte que le problème est d'espionnage lorsque vous avez déjà appliqué l'algorithme d'apprentissage automatique à votre entreprise ou à un service pour le public, faisant du problème un problème que tout le monde peut voir.
Vous pouvez éviter de fouiner de deux manières. Tout d'abord, lorsque vous travaillez sur les données, veillez à bien séparer les données de formation, de validation et de test. En outre, lors du traitement, ne prenez jamais aucune information de validation ou de test, même les exemples les plus simples et les plus innocents. Pire encore est d'appliquer une transformation complexe en utilisant toutes les données.
En finance, par exemple, il est bien connu que le calcul de la moyenne et de l'écart-type (qui peuvent réellement vous renseigner sur les conditions et les risques du marché) de toutes les données de formation et de test peut laisser échapper des informations précieuses. En cas de fuite, les algorithmes d'apprentissage automatique effectuent des prédictions sur l'ensemble de test plutôt que sur les données hors échantillon des marchés, ce qui signifie qu'ils n'ont pas fonctionné du tout, entraînant ainsi une perte d'argent.
Vérifiez les performances de vos exemples hors échantillon. En fait, vous pouvez ramener des informations de votre espionnage sur les résultats du test pour vous aider à déterminer que certains paramètres sont meilleurs que d'autres, ou vous amener à choisir un algorithme d'apprentissage automatique au lieu d'un autre. Pour chaque modèle ou paramètre, appliquez votre choix en fonction des résultats de la validation croisée ou de l'échantillon de validation. Ne tombez jamais dans les pièges de vos données hors échantillon ou vous le regretterez plus tard.