exe
05-11-2002, 13:28
Auf einer Webseite werden von Bots (z.B. googlebot) immer noch die alten .html Seiten gescannt (welche natürlich schon längst gelöscht sind). Ich handle aber 404er Fehler nun über ein PHP Script, das dem User eine Fehlermeldung zurückgibt in der Form "Seite nicht gefunden, sie wurden auf die Hauptseite umgeleitet".
Ich sende den 404er Header auch an den Bot, wenn er ein nicht mehr vorhandenes Dokument scannt. Trotzdem sind ein paar Bots scheinbar unbelehrbar und scannen fröhlich weiter immer wieder die alten .html Seiten ohne sich durch den 404er davon abhalten zu lassen.
Die folge ist, es tauchen immer wieder Hits von Leuten auf, welche versuchen alte .html Dokumente anzusurfen weil Suchmaschinen immer noch drauf verlinken.
Vermutung:
Ich sende weiter Header raus an den Browser (z.B. Last Modified usw...) vielleicht irritiert das die Bots?
Ich sende den 404er Header auch an den Bot, wenn er ein nicht mehr vorhandenes Dokument scannt. Trotzdem sind ein paar Bots scheinbar unbelehrbar und scannen fröhlich weiter immer wieder die alten .html Seiten ohne sich durch den 404er davon abhalten zu lassen.
Die folge ist, es tauchen immer wieder Hits von Leuten auf, welche versuchen alte .html Dokumente anzusurfen weil Suchmaschinen immer noch drauf verlinken.
Vermutung:
Ich sende weiter Header raus an den Browser (z.B. Last Modified usw...) vielleicht irritiert das die Bots?