SEO training-, kennis- en adviescentrum › SEO forum › SEO vragen en discussies › Oude website wordt na 3 jaar nog steeds geindexeerd?
- Dit onderwerp is leeg.
-
AuteurBerichten
-
-
7 april 2013 om 5:58 am #23608
Hallo allemaal, ik heb een vraag want ik sta voor een raadsel. Ik ben geen SEO beginner (maar ook zeker geen expert) maar ik hoop dat iemand van jullie een idee heeft.
Zo’n 3 jaar geleden hebben wij onze oude site, die in een subdirectory stond (dus domein.nl/directory/) verhuisd naar een nieuw cms en in de root vd site gezet. Uiteraard omgeleid met 301 en de nieuwe site wordt goed geïndexeerd.
Het probleem: in Google Webmastertools blijft Google crawlfouten vinden, en dit zijn bijna altijd pagina’s van de oude site. Deze site en deze subdirectory bestaan nu al sinds 2010 niet meer! Ik heb de site in Google Webmastertools laten verwijderen, er eerst dus een 301 omleiding ingezet maar nu de hele map de toegang ontzegd in robots.txt. Toch komen er steeds weer pagina’s in webmastertools terecht van deze oude site. Het gekke is vooral, dat bij de tab ‘Met links vanaf’ er pagina’s staan vermeld die ook van de oude site zijn, terwijl die dus al jaren niet meer bestaan en ik gewoon niet begrijp hoe dit kan.
Zie hier een afbeelding ervan:
Ik heb dus al van alles geprobeerd. En ik denk dat dit niet goed voor de seo is, we hebben ook ontzettend veel 404 errors met onze website. Het zou kunnen dat er hier en daar nog wordt verwezen naar de oude site, maar deze hebben allemaal een 301 omleiding als het goed is en we hebben zoveel mogelijks backlinks laten aanpassen. En het verklaart niet waarom in webmastertools ook dit soort pagina’s staan: http://www.ecogoodies.nl/webshops/advanced_search_result.php?keywords=stylish&search_in_description=1 (een zoek opdracht binnen de site).
Wie heeft er een idee?
-
7 april 2013 om 8:01 pm #26313
Ik ken de grens niet (als die al bestaat) vanaf welk aantal of percentage 404’s je site nadeel ondervindt maar ben de 404 meldingen in webmastertools al een hele tijd aan het negeren en dat bevalt prima. Je komt daar de gekste links tegen die je zelf nog nooit gemaakt hebt.
-
8 april 2013 om 6:58 am #27347
Crawl je site zelf eens helemaal. Als je zelf naar die pagina’s verwijst is het verstandig die aan te passen. Met een goede crawler ben je instaat om alle bestanden te checken op redirects, 404’s, canonicals enz.
Je komt er dan in ieder geval achter of je niet zelf nog een achterdeur naar die oude URL structuur hebt en je ziet direct of de 301 redirect correct is geplaatst.
Tools om dit te doen zijn Screaming Frog, beperkt gratis, maar wel heel interessante informatie.
Of Xenu’s Link Sleuth, helemaal gratis, maar de resultaten zijn wat lastiger te doorgronden.Ik ken de grens niet (als die al bestaat) vanaf welk aantal of percentage 404’s je site nadeel ondervindt maar ben de 404 meldingen in webmastertools al een hele tijd aan het negeren en dat bevalt prima. Je komt daar de gekste links tegen die je zelf nog nooit gemaakt hebt.
Negeren is voor mij niet de meest verstandige optie. 404 data is wel degelijk interessante informatie. Het verteld je bijvoorbeeld welke structurele problemen je hebt in je site. Daarnaast kan je pagina’s die geen 404 zouden mogen geven ontdekken. Ik ben wel met je eens dat er vaak vreemde links tussen staan.
-
8 april 2013 om 3:13 pm #23609
Ik negeer ze niet als het mijn eigen links zijn maar wel als het links zijn die ik nog nooit gezien heb. 🙂
-
-
AuteurBerichten
Gerelateerde berichten:
- Nieuwe website: Hoe om te gaan met afbeeldingen indexering? 19 oktober 2021 Hallo SEO guru's, We gaan een nieuwe website lanceren. Met onze huidige website scoren we erg goed in Google Afbeeldingen. Zo volgen we netjes de…
Je moet ingelogd zijn om een antwoord op dit onderwerp te kunnen geven.