Hallo allerseits,
wir haben auf unserer Seite ein kleines, selbstgebautes Tracking, dass u.A. die Seitenaufrufe tracken soll.
Da ich aber, um aussagekräftige Daten zu erhalten, sämtlich Bots/Echopings/etc ausschließen muss, habe ich eine Kontrollsession gesetzt. Leider sind die Biester ja so clever, dass sie Sessions setzen können und ich somit kein wirksames Mittel habe, sie auszuschließen.
Daher wollte ich mal hier nachhören, ob es tatsächlich sein muss, dass ich den Useragent analysiere und entsprechende Bots rausfiltere. Gibt es da einen generischeren Ansatz/Trick, mit dem das schnell und effizient zu lösen ist?
Vielen Dank und frohe Weihnachten.
wir haben auf unserer Seite ein kleines, selbstgebautes Tracking, dass u.A. die Seitenaufrufe tracken soll.
Da ich aber, um aussagekräftige Daten zu erhalten, sämtlich Bots/Echopings/etc ausschließen muss, habe ich eine Kontrollsession gesetzt. Leider sind die Biester ja so clever, dass sie Sessions setzen können und ich somit kein wirksames Mittel habe, sie auszuschließen.
Daher wollte ich mal hier nachhören, ob es tatsächlich sein muss, dass ich den Useragent analysiere und entsprechende Bots rausfiltere. Gibt es da einen generischeren Ansatz/Trick, mit dem das schnell und effizient zu lösen ist?
Vielen Dank und frohe Weihnachten.