Download von Webseiten + Umlaute


Brave10191

Grünschnabel
Hallo Zusammen,

ich suche ein Tool mit welchem ich Webseiten downloaden kann, die Umlaute in der Domain enthalten.

Ich habe es schon mit WGet, HTTrack und WebSpider versucht, allerdings scheitern die drei in der nächsten Ebene. Sie ziehen sich alle die index, wenn ich die Url mit Punycode angebe, jedoch bei den Links in der index ist Schluss, da dort die Domain wieder mit Umlauten liegt.
Wenn es an den Einstellungen bei den genannten s liegt, dann sagt mir bitte was ich dazu einstellen müsste. Oder ihr wisst ein Prog mit dem es klappt.

Danke schonmal, ich hoffe ihr könnt mir helfen!

cu Brave
 

ManfredMuster

Mitglied
Ich würde immer noch wget dafür nutzen am besten in einer Pipe zusammen mit awk oder sed die Deine Url Umlaute abändern abaendern, dann sollte es eigentlich klappen. Der Regex ist aber etwas fummelarbeit...
 

Bratkartoffel

gebratene Kartoffel
Premium-User
Hallo,

angenommen du willst die komplette Seite von "österreich.at" herunterladen:

Bash:
HOSTNAME="österreich.at"

wget -r -d 5 http://$( idn -a --quiet "${HOSTNAME}" )
Geht bei mir einwandfrei.

// Edit: Hast du vielleicht ein Beispiel mit weiterer Verlinkung?

Gruß
BK
 

Neue Beiträge