Unterverzeichnisse einer HP ermitteln

Hallo zusammen,

(ich hoffe mal, ich habe die richtige Kathegorie gewählt - das Thema war etwas schwierig zuzuordnen).

Gibt es eine Möglichkeit, herauszufinden, welche Unterverzeichnisse (natürlich nur die, die auch zu sehen sein dürfen) bei einer Webseite existieren?

Z.B.: Ein Lehrer hat die Homepage www.Lehrername.de und besitzt Unterverzeichnisse, wie z.B.

www.Lehrername.de/Mathe
oder
www.Lehrername.de/Englisch

die man natürlich nur direkt anwählen kann, wenn man sie kennt. Ein Schüler möchte jetzt aber wissen, welche Fächer, der Lehrer noch unterrichtet? Kann man die zugreifbaren Unterverzeichnisse irgendwie anzeigen?

Danke, Andi
 
Du kannst sie dir "heraussuchen" durch
- Ausprobieren (=Bruteforce)
- Links auf der Website folgen, um so auf best. Seiten schliessen zu können (=Analyse)

Mehr geht nicht, wenn Verzeichnislistening deaktiviert ist oder sich im Verzeichnis eine index-Datei befindet. Das Beste ist eine Mischung aus beidem ;)
 
Man könnte auch mal gucken, ob es eine robots.txt gibt und ob da vielleicht noch nützliche Infos stehen ;) Interessant ist da meist das, was für Suchmaschinen verboten wird ;)
 
Zitat: Original von prEs Mit google adv. Operators, also zb. site:www.scanme.org Über die Sachen gibts aber schon genug Zeug im Netz und es lohnt sich auf alle Fälle. Der Server unter www.scanme.org konnte nicht gefunden werden.

made my day :D

Was natürlich auch funktioniert ist ausprobieren, oder wenn er ein vorgefertigte Webapplikation benutzt,
die runterladen(falls opensource) und anschauen was es dort standartmäßig für Sachen gibt.
 
Original von Chaka
was ist die wohl am erfolgversprechenste? wie würde das mit dem Bruteforcen funktionieren?

der ruft die verzeichnise nach den schema:

a
aa
ab
ac

etc auf bzw nach wordliste :)

aber sollte jeden admin sofort auffalen der seine logfiles regelmäßig prüft das haufen 404 fehler sind....
 
Sowas schreibt man sich am besten selbst, indem man in einer for-Schleife einfach alle Möglichkeiten selbst durchgeht und den HTTP-Statuscode anschaut.
 
Soweit ich weis dürfen wir keine tools linken .

Machs so:
1. robots.txt und in die source schauen
2. die seite per site:www.example.com googlen (oder andere advanced ops)
3. beliebte ordner untersuchen. (files, scripts etc...)
4. falls es ein template oder sowas wie phpmygallery war sich das gleiche stück software holen und dann vergleichen.
5. wenns auf der seite sowas wie ne upload funktion gibt, dann such auch denn ordner wie upload, upl, uploads...

Sowas zu bruteforcen, ist eher unsinnig, mach lieber ne Art Dictionary-Attack .
Ob beides wirklich viel bringt ist die andere Frage, weil du bedenken musst das sich der jeweilige Ordner ja nicht im Root Verzeichniss befinden muss sprich.
site.com/files oder
site.com/asd/bsd/images/files
und dass kann dann mit Bruteforce eine Weile in anspruch nehmen..

Ehm heißt aber nicht das ich dein vorhaben fremde Seiten anzugreifen gutheiße ^^,
 
Kann man sich zb mit dem Firefox-Addon tamperdata anzeigen lassen, aber ob das wirklich viel bringt ist die andere Frage.
 
Original von mor_dark
wget folgt durch den Parameter l allen links und bilder auf der Website, dadurch dürftest du eine recht gute Nachbildung der Ordner Struktur erhalten.
Wenn du das einfach von allen Seiten machst die du auf dieser Domain kennst wirst du vermutlich alle Verzeichnisse bekommen, die für dich einsehbar sein dürfen ;)
 
Zurück
Oben