Table des matières:
- Crawlers
- Vous pouvez utiliser trois contre-mesures principales pour empêcher la compromission de fichiers via des traversées de répertoires malveillantes:
Vidéo: Détecter et Stopper celui qui espionne votre compte WhatSapp 2024
La traversée de répertoires est une faiblesse fondamentale, mais elle peut générer des informations intéressantes, parfois sensibles, sur un système Web, ce qui le rend vulnérable aux attaques. Cette attaque implique la navigation sur un site et la recherche d'indices sur la structure du répertoire du serveur et les fichiers sensibles qui ont pu être chargés intentionnellement ou involontairement.
Effectuez les tests suivants pour déterminer les informations relatives à la structure du répertoire de votre site Web.
Crawlers
Un programme spider, tel que le copieur du site HTTrack gratuit, peut explorer votre site pour rechercher tous les fichiers accessibles au public. Pour utiliser HTTrack, il suffit de le charger, de donner un nom à votre projet, de dire à quel (s) site (s) miroir, et après quelques minutes, éventuellement des heures, tout ce qui est accessible au public sera stocké sur votre disque local. c: Mes sites Web.
Les sites complexes révèlent souvent plus d'informations qui ne devraient pas exister, y compris les anciens fichiers de données et même les scripts d'application et le code source.
Inévitablement, lors des évaluations de sécurité Web, il y en a habituellement. zip ou. fichiers rar sur des serveurs web. Parfois, ils contiennent des déchets, mais souvent ils contiennent des informations sensibles qui ne devraient pas être là pour le public.
Regardez la sortie de votre programme d'exploration pour voir quels fichiers sont disponibles. Les fichiers HTML et PDF réguliers sont probablement corrects, car ils sont probablement nécessaires pour une utilisation normale du Web. Mais il ne serait pas douloureux d'ouvrir chaque fichier pour s'assurer qu'il appartient à ce fichier et ne contient pas d'informations sensibles que vous ne voulez pas partager avec le monde.
Google peut également être utilisé pour la traversée d'un répertoire. En fait, les requêtes avancées de Google sont si puissantes que vous pouvez les utiliser pour dérober des informations sensibles, des fichiers et des répertoires de serveurs web critiques, des numéros de cartes de crédit, des webcams - en gros tout ce que Google a découvert sur votre site. passer au crible tout manuellement. Il est déjà assis dans le cache de Google en attente d'être vu.
Voici quelques requêtes Google avancées que vous pouvez entrer directement dans le champ de recherche Google:
-
site: hostname keywords - Cette requête recherche les mots clés que vous avez listés, tels que SSN <, confidentiel , carte de crédit, et ainsi de suite. Un exemple serait: site: www. Principlelogic. com speaker
filetype: extension de fichier site: hostname
-
- Cette requête recherche des types de fichiers spécifiques sur un site Web spécifique, tels que doc, pdf, db, dbf, zip, et plus encore.Ces types de fichiers peuvent contenir des informations sensibles. Un exemple serait: filetype: pdf site: www. Principlelogic. com
D'autres opérateurs Google avancés sont les suivants:
allintitle
-
recherche des mots-clés dans le titre d'une page Web. inurl
-
recherche des mots-clés dans l'URL d'une page Web. en rapport
-
recherche des pages similaires à cette page Web. Le lien
-
affiche d'autres sites liés à cette page Web. Une excellente ressource pour le piratage de Google est la base de données Google Hacking de Johnny Long.
Lorsque vous passez en revue votre site avec Google, veillez à rechercher des informations sensibles sur vos serveurs, votre réseau et votre organisation dans Google Groupes, qui est l'archive Usenet. Si vous trouvez quelque chose qui n'a pas besoin d'être là, vous pouvez travailler avec Google pour le modifier ou le supprimer. Pour plus d'informations, reportez-vous à la page Contactez-nous de Google.
Contre-mesures contre les traversées de répertoires
Vous pouvez utiliser trois contre-mesures principales pour empêcher la compromission de fichiers via des traversées de répertoires malveillantes:
Ne stockez pas de fichiers anciens, sensibles ou non publics sur votre serveur Web.
-
Les seuls fichiers qui devraient figurer dans votre dossier / htdocs ou DocumentRoot sont ceux qui sont nécessaires au bon fonctionnement du site. Ces fichiers ne doivent pas contenir d'informations confidentielles que vous ne voulez pas que le monde entier voie. Configurez vos robots
-
. txt pour empêcher les moteurs de recherche, tels que Google, d'explorer les zones les plus sensibles de votre site. Assurez-vous que votre serveur Web est correctement configuré pour autoriser l'accès public aux seuls répertoires nécessaires au fonctionnement du site.
-
Les privilèges minimum sont la clé ici, donc fournissez l'accès aux fichiers et aux répertoires nécessaires au bon fonctionnement de l'application Web. Consultez la documentation de votre serveur Web pour obtenir des instructions sur le contrôle de l'accès public. Selon la version de votre serveur Web, ces contrôles d'accès sont définis dans
Le httpd. fichier conf et le. Fichiers htaccess pour Apache.
-
Internet Information Services Manager pour IIS
-
Les dernières versions de ces serveurs Web ont une bonne sécurité de répertoire par défaut, donc, si possible, assurez-vous que vous utilisez les dernières versions.
-
Enfin, pensez à utiliser un honeypot de moteur de recherche, tel que Google Hackypot. Un pot de miel attire des utilisateurs malveillants afin que vous puissiez voir comment les méchants travaillent contre votre site. Ensuite, vous pouvez utiliser les connaissances que vous obtenez pour les garder à distance.