Bild von Internetseite laden ohne dessen Namen

FeliXXL

Mitglied
Hallo,

mein Problem ist folgendes:
Ist es möglich von einem Subordner einer Internetseite, in dem jedesmal ein neues, andersnamiges Bild im .png - Format liegt (als einziges), dieses Bild in ein Java-Programm zu laden?

Java:
img = ImageIO.read( new URL("URL/*.png"));
- scheint nicht zu funktionieren...

Danke schonmal im voraus.
 
Die meisten Webserver sind so eingestellt,
dass sie Dateiauflistungen (aus Sicherheitsgründen) nicht ermöglichen.
Du kannst den Namen also so nicht herausfinden.

Gibt es keine Möglichkeit, irgendwas fest Benanntes dabei zu haben?
Muss ja nicht das Bild seblst sein, kann auch zB. ein PHP-Skript etc. sein...
(die können Dateinamen ermitteln, sind ja direkt am Server)
 
Naja - dieses Bild wird im Formular angezeigt.
Die URL zum Formular selbst habe ich.
Das Bild was dort angezeigt wird liegt aber wie gesagt in dem Unterordner
URL/StatischerOrdner/*.png
Hilft das mir weiter?
 
Schau nach, wo im HTML-Formular der Bildpfad steht.
Per Java das HTML empfangen und parsen.

Hast du einen Link oder den Quelltext vom Formular?
 
Hm. Ich habe mal nachgeschaut.
Es ist weder aus dem Quelltext, noch aus den eingebundenen Javascripts ersichtlich,
welchen Link das Bild hat.
Firefox kann mir den Ordner jedoch einwandfrei angeben, wenn ich über Rechtsklick - Grafikaddresse kopieren gehe - und wenn ich es speichere auch den Namen. Das Problem ist: Das Bild ist bei jedem mal laden ein anderes. Da Mozilla aber mit dem identlischen Request arbeitet, wie mein Programm... Warum "weiß" Firefox mehr, als Java (bekommt doch die identische Antwort) Kann man das nicht abfangen oder ähnlich?
Habe ich also letztlich keine Chance das mit Java auszuwerten?

Mfg

PS: Der einzige Hinweis auf die Existenz des Bildes ist eine Passage:
Code:
<img src="URL" id="Img" alt="" />
Wobei URL bloß den Ordner angibt, in dem sich das Bild befindet - und nicht das Bild an sich.
 
Zuletzt bearbeitet:
Firefox und auch alle anderen Browser machen auch nix anderes, als eine Seite anfordern, den Quelltext von oben bis unten parsen, auswerten und schauen, ob noch weitere Anfragen verschickt werden müssen, etwa für Bilder. Daher bekommt man eine komplette Seite auch nicht durch eine einziges Request, da läuft noch weit mehr. Firefox ist also keineswegs schlauer, es hat das Bild angefordert und es auch bekommen und weiß dann auch, von wo es kommt und das musst du eben auch noch tun.

Wenn da kein konkreter Name dahinter steht, dann wird vermutlich einfach ein index-Skript ausgeführt, z.B. index.php, das dann das Bild generiert (oder vielleicht auch einfach ein zufälliges auswählt). Du müsstest also einfach an die entsprechende URL auch ein Request absetzen und schauen was dann passiert. Ich kann da auch nur raten, aber es scheint sich im ein Captcha zu handeln und die werden definitiv generiert.
 
Gut geraten... Diese ewige Captcha-eingeberei macht mich noch wahnsinnig...
Ich habe für die entsprechende Seite schon einen gut funktionierenden Auswertungsalgorithmus.
(erreicht so zwischen 60 und 85% - was mir vollkommen reicht)
Aber die Betreiber der Site sind ja auch nicht doof... Es scheint halt etwas schwerer zu sein, da ran zu kommen - aber ich bleib dran!
BTW: Gibt es für Firefox ein Addon, was einem den Aufbau der Seite (mit allen Requests etc.) bis zur fertig geladenen Seite aufzeichnet?
Ich Durchsuch noch mal alle Scripts, und lass die mir mal anzeigen und lade alles manuell.
Vielleicht finde ich es ja aus Zufall...
PS: Wer sich über die 60 - 85% bei einem selbstgeschriebenen QT wundert: die seite macht es einem einfach, verzerrt zwar Bilder leicht etc. verwendet aber idR den gleichen Font...
 
Danke nochmal für all eure Hilfe.
Der Tipp mit HttpFox war super.
Ich muss aber schauen, ob ich nun die "Erkennung" nutze - oder den "dreisteren" Weg.
In den Cookies wird eine md5sum gespeichert, die die Eingabe wiederspiegelt...
Ich habe zufälligerweise noch eine md5_loweralpha-numeric-space(0-8) - Rainbowtable da.
Wer sich zufälligerweise damit beschäftigen will: "http://www.freerainbowtables.com/" ist sehr gut.
Wie gesagt danke nochmal

#closed
 
Zurück