Programm/Skript, um Webseiten runterzuladen

Hallo

Ich suche ein Programm, mit dem ich Webseiten runterladen kann oder besser gesagt, Teile/bestimmte Dateien davon runterladen kann.

Am besten eins, wo man Dateigröße (min/max) einstellen kann, Dateiart und am besten noch, dass man einstellen kann, wie die Dateien, die runtergeladen werden sollen, heißen und dass die gleich umbenannt werden.

also zB lade blabla102 - blabla115 runter und benenne die in wurst092 - wurst105 um zB, am besten mit so einer Art Skript für fortlaufende Dateinummern, damit man nicht jeden Dateinamen einzeln eingeben muss.

Und es sollte möglichst Freeware sein und darf auf keinen Fall Spyware beinhalten.

Hoffe, ihr könnt mir da weiterhelfen. :)
 
Hallo,
mit Teleport PRO kann man eine kopie von einer Website erstellen.
Man gibt die Tiefe der Links an, die Startseite und welche Dateitypen gespeichert werden sollen.

Dann werden die Website so gespeichert, dass die enthalten Links funktionieren und redundante Daten, z.B. Bilder, werden nur 1 mal gespeichert.
 
Danke, ich probier' die beiden Programme mal aus. :)

bei Webspider bekomm ich immer nur den Fehler "Fehler in 16bit Programm", wenn ich das unter XP installieren will, aber Teleport scheint zu funktionieren.
 
Gut, kostenlos und Open-Soure ist "WinHTTRack Website Copier".
 
Danke für den Tipp, aber ich habe mal gehört, dass im Website Copier Spyware ist? Oder bringe ich da was mit einem anderen Copier durcheinander?
 
Zurück
Oben