D
Dkl764
Hallo Community,
ich möchte alle Suchmaschinen (Spider, Crawler, wie auch immer...) von einigen Verzeichnissen ausperren. Die anderen Dateien und Seiten dürfen jedoch alle noch "gescannt" werden.
Momentan sieht meine robots.txt so aus:
Ist das richtig so oder werden dadurch auch alle anderen Verzeichnisse gesperrt?
- Duellking -
ich möchte alle Suchmaschinen (Spider, Crawler, wie auch immer...) von einigen Verzeichnissen ausperren. Die anderen Dateien und Seiten dürfen jedoch alle noch "gescannt" werden.
Momentan sieht meine robots.txt so aus:
User-agent: *
Disallow: /cgi-bin/
Disallow: /acp/
Disallow: /cronjobs/
Ist das richtig so oder werden dadurch auch alle anderen Verzeichnisse gesperrt?
- Duellking -