Sitemap bei tausend Unterseiten sinnvoll?

MsvP@habdichliebhasi

Erfahrenes Mitglied
Hallo zusammen,

ich betreibe ein Webportal für einen Verlag.
Dort können Bilder hochgeladen werden und auf eigenen Detailseiten betrachtet werden.

Derzeit überlege ich, in wiefern man dieses Portal google-optimieren kann, und bin bei dem Thema Sitemap hängen geblieben.

Ist es sinnvoll weit über 5.000 Detailseiten durch ein foreach zu jagen und diese als Sitemap auszugeben? Das dürfte ja eine ziemlich endlose Liste werden, auf lange Sicht werden es ja eher mehr als weniger Bilder.
Zu dem gibt es noch Gruppen, und Alben, und Newsbeiträge.

Alles in allem dürfte das ganze eine ziemlich lange XML-Liste geben. Ist sowas gewünscht von google? Und macht das sinn? Oder sollte man sich z.B. nur auf neuere Artikel beschränken und eine Datumsabfrage mit einbauen?

Gruß
Micha

Bin ich zu ungeduldig, oder weiß keiner dazu einen Rat... oder habe ich es gar ins falsche Forum gepostet? :)

Freue mich auf eure Unterstützung.

Lieben Gruß
Micha
 
Hi,

also bei der Google-Dokumentation steht folgendes:
Über XML-Sitemaps hat gesagt.:
•Ihre Website enthält dynamischen Content.

•Ihre Website enthält Seiten, die beim Crawlen durch den Googlebot nicht ohne Weiteres zu entdecken sind, wie beispielsweise Seiten mit Rich AJAX oder Bildern.

•Ihre Website ist neu und es wird nur durch wenige Links auf sie verwiesen. Der Googlebot durchsucht das Web durch Verfolgen von Links von Seite zu Seite. Spärlich verlinkte Websites sind daher nur schwer zu finden.

•Ihre Website enthält ein großes Archiv mit Content-Seiten, die untereinander nur spärlich oder überhaupt nicht verlinkt sind.
Trifft zumindest einer der Punkte auf deine Website zu?
 
Hey ComFreak,

also punkt eins trifft auf jeden Fall zu. Ich hatte nur eher sorge, dass eine XML-Liste, die 5.000 Einträge auflistet, und es auf Lange Sicht ja immer mehr werden nicht unbedingt gut ist für google (dauert ja sicherlich auch einwenig, bis die Liste aufgebaut ist.)

Ich habe nur Sorge, wenn ich nicht alle Artikel aufliste (z.B. alte auslasse um die Performance zu steigern), dass google den Rest dann ignoriert.

Gruß
Micha
Ps: Danke fürs verschieben ins richtige Unterforum. ;)
 
Generierst du die Sitemap bei jedem Aufruf der URL neu?
Dann wird es wohl Zeit für Caching ;)
Zum Beispiel jeden Tag neu erstellen, je nachdem was du bei den Google Webmaster-Tools eingestellt hast.

Ich habe nur Sorge, wenn ich nicht alle Artikel aufliste (z.B. alte auslasse um die Performance zu steigern), dass google den Rest dann ignoriert.
Falls du die Performance von Google meinst: da brauchst du dir keine Sorgen machen, die wissen das schon ;)
Ansonsten wie gesagt das XML-Dokument cachen.
 
Zurück