Crawler Probleme

Tommy57

Erfahrenes Mitglied
Hallo,

ich habe Schwierigkeiten dabei, eine ganz bestimmte URL mit cURL auszulesen.

1. Wie machen die das?
2. Wie kann ich das auf meiner Webseite auch machen?
3. Wie kann man das umgehen?

PHP:
    $ch = curl_init();
    curl_setopt($ch, CURLOPT_URL, "http://www.sothebys.com/en.html");
    curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
    $output = curl_exec($ch);
    curl_close($ch);
   
    echo $output;

Gruß, Tommy
 
Hi Bratkartoffel,

das Problem sind nicht die Logs. Das Script ist soweit schon korrekt. Ich öffne ja mit cUrl eine fremde Seite. Für gewöhnlich kriege ich den HTML Code der Seite. Bei der besagten URL kriege ich aber statt dessen eine Fehlerseite, die von dem Fremdserver generiert wird. Die erkennen scheinbar den Aufruf des Crawlers. Meine Frage ist nun, woran erkennen die das und wie kann ich sowas nachbauen und wie kann man das umgehen?

Gruß, Tommy
 

Neue Beiträge

Zurück