Download von Webseiten + Umlaute

Brave10191

Grünschnabel
Hallo Zusammen,

ich suche ein Tool mit welchem ich Webseiten downloaden kann, die Umlaute in der Domain enthalten.

Ich habe es schon mit WGet, HTTrack und WebSpider versucht, allerdings scheitern die drei in der nächsten Ebene. Sie ziehen sich alle die index, wenn ich die Url mit Punycode angebe, jedoch bei den Links in der index ist Schluss, da dort die Domain wieder mit Umlauten liegt.
Wenn es an den Einstellungen bei den genannten s liegt, dann sagt mir bitte was ich dazu einstellen müsste. Oder ihr wisst ein Prog mit dem es klappt.

Danke schonmal, ich hoffe ihr könnt mir helfen!

cu Brave
 
Ich würde immer noch wget dafür nutzen am besten in einer Pipe zusammen mit awk oder sed die Deine Url Umlaute abändern abaendern, dann sollte es eigentlich klappen. Der Regex ist aber etwas fummelarbeit...
 
Hallo,

angenommen du willst die komplette Seite von "österreich.at" herunterladen:

Bash:
HOSTNAME="österreich.at"

wget -r -d 5 http://$( idn -a --quiet "${HOSTNAME}" )

Geht bei mir einwandfrei.

// Edit: Hast du vielleicht ein Beispiel mit weiterer Verlinkung?

Gruß
BK
 

Neue Beiträge

Zurück