Bots ausschließen

Moritz123

Erfahrenes Mitglied
Hallo allerseits,

wir haben auf unserer Seite ein kleines, selbstgebautes Tracking, dass u.A. die Seitenaufrufe tracken soll.
Da ich aber, um aussagekräftige Daten zu erhalten, sämtlich Bots/Echopings/etc ausschließen muss, habe ich eine Kontrollsession gesetzt. Leider sind die Biester ja so clever, dass sie Sessions setzen können und ich somit kein wirksames Mittel habe, sie auszuschließen.

Daher wollte ich mal hier nachhören, ob es tatsächlich sein muss, dass ich den Useragent analysiere und entsprechende Bots rausfiltere. Gibt es da einen generischeren Ansatz/Trick, mit dem das schnell und effizient zu lösen ist?

Vielen Dank und frohe Weihnachten.
 
Soweit ich weiß, kannst du Bots mit .htaccess ausschließen, aber da gibt es dann das Problem, dass sich die Bots ständig ändern und du somit die immer neu definieren müsstest.
 
Hallo!

Danke dir für die flotte Antwort. Leider würde das ja bedeuten, dass die Seite auch von zB. Google nicht mehr indexiert wird. Das soll ja nicht Ziel der Übung sein - ich will nur, dass für Bots der Traffic nicht mehr gezählt wird.
Ich konnte beobachten, dass man einen Großteil schon ausschließen kann, indem man
von vornherein alle ausschließt, die im User-Agent kein "Mozilla/X.0" haben. Kann mir das jemand bestätigen?

Grüße,

Moritz
 
[wiki]User Agent[/wiki]

Der Artikel könnte dir bereits weiterhelfen. Allerdings ist der UserAgent nicht fix und kann geändert werden... So dass du dich nicht darauf verlassen solltest.
Letztendlich wird dir aber nichts anderes übrig bleiben, als die Bekannten User Agents zu filtern (Google, Yahoo, etc.) und die Unbekannten durchzulassen...
 
Ok, also scheint die Lösung von vornherein alle mit !"Mozilla/X.0" auszuschließen keine gute Idee zu sein. Wie ist es denn um die js-Fähigkeit des Bots bestellt? Wäre es möglich eine php als js einzubinden und dort die Kontroll-Session zu registrieren?
 
Zurück