Iedereen die wel eens in een auto rijdt kent het moment: er gaat ineens een oranje lampje branden op je dashboard. Voor mij tegenwoordig een reden om vrij vlot naar een autogarage te gaan. Om er daar achter te komen dat er vrij weinig aan de hand is. Zo’n oranje lampje geeft een melding over een te verwachten probleem in je auto. Er zijn ook rode lampjes, die vaak een serieus probleem melden waarbij het niet handig is om door te rijden. Best handig dat je dashboard deze meldingen geeft, want anders zou je gewoon stil komen te staan zonder iets te weten.
Search Console heeft ook zo’n dashboard, het indexdekking rapport. Inclusief oranje en rode ‘lampjes’! Maar ook met een boel aanvullende informatie. Het indexdekking rapport is één van m’n favoriete Search Console dashboards bij grote websites. We vertellen je uiteraard graag waarom!
Er zijn twee processen die fundamenteel zijn in je SEO succes:
Op het moment dat één van deze twee processen in de soep loopt of niet zo lekker loopt heb je gewoonweg minder succes in de zoekmachine. Het indexdekking rapport in Search Console geeft je de informatie om deze processen te verbeteren en/of problemen op te lossen.
Indexdekking geeft informatie over het aantal pagina’s van je website in de index van Google. En het aantal URLs dat niet in de index te vinden is. Het rapport zelf bestaat uit vier statussen (in willekeurige volgorde):
Indexdekking vertelt je dus veel over het crawlproces en de indexering van je URLs. Je kunt dit zien als een soort van gegeven, maar je kunt als SEO specialist het indexdekking rapport ook gebruiken om het crawlproces en indexeringsproces te optimaliseren. Je wil immers zoveel mogelijk URLs die waarde toevoegen in de index krijgen. En de energie van Google daar ook echt op laten focussen, in plaats van GoogleBot veel URLs laten crawlen die er niet toe doen.
Optimaliseer je crawling en indexing, dan zul je merken dat je content + linkbuilding werkzaamheden veel meer effect hebben!
Het is natuurlijk niet zo dat elke URL die onder ‘Uitgesloten’ te vinden is ook direct een probleem oplevert. Een URL die een redirect geeft is natuurlijk prima en moet ook niet in Google staan. Toch zijn er een aantal meldingen onder ‘Uitgesloten’ waar je daadwerkelijk iets mee kunt. Het zijn niet zozeer statuscodes van URLs, maar meldingtypes van URLs die uitgesloten zijn. Een flink uit de kluiten gewassen website ziet er qua Indexdekking soms als volgt uit:
De meldingen waardoor wij regelmatig in de startblokken schieten:
Dit is een soort combinatiemelding, want de melding komt twee keer voor op een bijna soortgelijke wijze. Je moet echt heel goed kijken om Dubbele pagina’s zonder door de gebruiker geselecteerde canonieke versie en Dubbele pagina, Google heeft een andere canonieke URL gekozen dan de gebruiker te onderscheiden.
Deze melding geeft aan dat Google vindt dat er sprake is van duplicate content binnen een website en/of dat de canonical tag die je hebt gespecificeerd voor bepaalde URLs genegeerd wordt. Over duplicate content verschillen de meningen en er is al veel over geschreven, ook door ons. Een grote mate van duplicate content zou je strafpunten opleveren bij Google of negatief werken. Zo kijk ik zelf niet naar duplicate content. Het is meer dat er in het voorbeeld uit het screenshot hierboven dus meer dan 800.000 URLs gecrawld zijn die geen waarde toevoegen volgens Google. Je kunt daar in mijn optiek twee kanten mee op:
Dit is een hele lastige status, omdat het niet een hele duidelijke melding is. Het komt er op neer dat de URL wel gecrawld is, maar niet geïndexeerd. En daar kunnen meerdere redenen voor zijn:
Als deze melding veelvuldig voor komt analyseren we de URLs die in Search Console als voorbeeld te vinden zijn. Op het moment dat er een duidelijk patroon is in een set URLs kun je tot actie overgaan. Door bijvoorbeeld een reeks URL parameters uit te sluiten in Robots.txt.
Bij deze melding kent Google de URL al wel, via bijvoorbeeld een XML Sitemap. Maar heeft GoogleBot besloten om de URL nog niet te crawlen. Het kan best zijn dat dit binnen de kortste keren wel het geval is, maar over het algemeen zien we deze melding voorkomen in hele grote websites waar Google ook een gigantisch aantal URLs moet crawlen. Dit duidt dan vaak op crawlbudget issues.
Dit is de welbekende statuscode ‘Niet gevonden’. Op het moment dat je onder ‘Uitgesloten’ in de Indexdekking een boel URLs hebt die 404 zijn, betekent dit dat Google nog veel historie heeft in URLs die eigenlijk niet meer bestaan. Hier kun je ook twee kanten mee op (it depends, zeg maar):
Ik hou zelf, met name in het begin van een SEO traject, van de ‘clean sheet’. Op het moment dat je 404s oplost die in het verleden linkwaarde en SEO waarde hebben gehad verbeter je het crawlen en stuur je Google naar URLs die er toe doen. We zien met enige regelmaat bij het broken backlink overzicht in Ahrefs ook waardevolle URLs staan die dus een 404 statuscode hebben: hier gaat dus linkwaarde verloren!
Deze melding is natuurlijk logisch: Google sluit URLs uit die de meta robots noindex of X-robots noindex tag hebben. En daar is niks mis mee. Maar helaas is ook dat niet altijd het geval. We komen vaak genoeg websites tegen waar belangrijke pagina’s voorzien zijn van een noindex. Uiteraard per ongeluk. Zaak om die lijst met URLs goed te analyseren en te achterhalen of dit allemaal klopt.
Dit zijn URLs waarvan Google eigenlijk vindt dat ze een 404 statuscode zouden moeten hebben. Dit gebeurt vaak bij bestaande pagina’s die qua content echt niets te bieden hebben en dus eigenlijk een lege pagina zijn. Dit is natuurlijk geen handige situatie. Je lost dit op door unieke content aan deze URLs toe te voegen of ze gewoon uit te sluiten.
Mijn kleurenkennis is niet uitmuntend, dus ik schat dat deze status een soort van okergeel is (kleurcode = #F4B400). Voor het verhaal maken we er in dit geval oranje van. Het draaide immers om de waarschuwingslampjes van je dashboard. Dit meldingtype houdt in dat Google URLs in z’n index heeft staan, maar dat er issues zijn met de URL op het gebied van crawlen en/of indexeren.
Deze melding is er één die we zelf ook wel eens expres forceren. In feite betekent dit dat Google de URLs geïndexeerd heeft, maar dat het Robots.txt bestand de URLs wel uitsluit van crawlen. Bij websites die we nog niet zo goed kennen pluizen we dit altijd goed uit. Er zijn genoeg websites die bijvoorbeeld UTM tags uitsluiten van crawlen, terwijl deze wel op allerlei websites gebruikt worden en de linkwaarde daarmee vergroten.
Dit is een hele zeldzame melding en betekent zoiets als een pagina die wel geïndexeerd is, maar waarvan Google door allerlei problemen de content niet heeft weten te interpreteren. Het kan dan gaan om een lege pagina of een pagina die niet te renderen is door Google. Op het moment dat je dit zelf test (door bijvoorbeeld de URL in Search Console live te testen) en je ziet wel de juiste content, dan kun je het issue valideren.
Het rode lampje betekent dat je niet ver mag rijden, als we het over auto’s hebben. De soep wordt niet zo heet gegeten als ze wordt opgediend in het geval van Search Console, want het is natuurlijk niet zo dat je website uit Google valt door deze meldingen. Deze melding vertelt je echter wel dat er pagina’s zijn die niet geïndexeerd zijn door serieuze fouten. Degene die we het meeste tegenkomen:
Deze meldingen betekenen dat Google tegen server errors aanloopt die plaatsvinden bij het ophalen van de pagina. Op het moment dat dit veelvuldig plaatsvindt kan dit schadelijk zijn voor crawling. Contacteer je developer om dit te fixen!
Bij deze meldingen ziet Google dat er een fout plaatsvindt binnen URLs met een redirect. Dit duidt vaak op redirect loops, dus als een redirect eigenlijk gewoon naar zichzelf verwijst. Maar er zijn ook andere oorzaken mogelijk. Probeer de URLs die hier genoemd worden te crawlen en te checken waar het fout loopt. En pas vervolgens de redirects in je CMS aan. Of vraag de developer om dit te doen als je hier geen mogelijkheid voor hebt.
De overige meldingen die we hier vaak tegenkomen zijn meldingen die al eerder benoemd zijn, maar alleen relevant zijn voor ‘ingediende URLs’. Een ingediende URL is een URL die te vinden is in één van je XML Sitemaps. Dit is ook de manier om de kwaliteit van je XML Sitemaps te checken, want ook voor XML Sitemaps zelf kun je de indexdekking bekijken. Wij worden nooit zo blij van XML Sitemaps vol met 404s, URLs met een noindex of andere statuscodes (behalve 200 OK).
Ik heb bij onze eerste auto een keer vrij lang een oranje lampje genegeerd, waarna de motor in de soep liep en de auto total loss werd verklaard. Dit had voorkomen kunnen worden als ik naar de garage ging. Niet alleen voor een periodieke keuring, maar ook voor een kleine beurt of een grote beurt. Allemaal werkzaamheden die bedoeld zijn om je auto in een goede conditie te houden, zodat de motor goed blijft draaien en er niets kapot gaat.
Wat ons betreft kun je je website ook als je auto zien. Als website eigenaar is het ook slim om bijvoorbeeld elk kwartaal de indexdekking te analyseren en maandelijks even snel te checken of er niets in de soep lijkt. Maak het een onderdeel van je SEO strategie. Zo’n periodieke indexdekking keuring kan er maar zo voor zorgen dat je website qua crawling en indexering niet stil komt te staan!
Heeft dit blog je aangewakkerd om met meer technische punten aan de slag te gaan? Download dan onze gratis technische SEO checklist met de belangrijkste punten.
Neem contact op! :) wij helpen je graag verder met al je SEO vragen
SEO vraag stellenMeld je aan voor onze nieuwsbrief en mis geen enkele SEO tip
"*" geeft vereiste velden aan
Het team van SEO bureau Onder bestaat uit enthousiaste SEO specialisten die graag samen met jou voor het beste resultaat gaan.
Of het nu over content of technische aanpassingen gaat, dat maakt niet uit. Martijn brieft dit op een hele heldere manier zodat dit lokaal of door ons hoofdkantoor in Frankrijk doorgevoerd kan worden. […] Sinds de start van onze samenwerking hebben we mooie resultaten behaald. Keep it up!
Wanneer je online onderneming groeit groeien de verwachtingen vaak ook, op elk gebied. Voor een groot gedeelte hadden we zelf de controle over SEO en de invulling hiervan. We kwamen er achter dat onze eigen “algemene blik” niet meer toereikend was en hebben daarom Bureau Onder ingeschakeld. Verrassend en helder. We hebben een fijne samenwerking opgebouwd, mede omdat Martijn ook met regelmaat met Eline of Mariska (afhankelijk van de case) bij ons op kantoor komt wat voor ons erg waardevol is!
Martijn en Mariska maken het SEO verhaal begrijpelijk voor de leek en denken graag met ons mee. Het is fijn dat er elke maand een persoonlijk contact moment is met een uitgebreide rapportage en de mogelijkheid om alles te doorspreken. Na enkele maanden is het Onder al gelukt om met enkele van onze webshop pagina’s de nummer 1 posities te verkrijgen op Google. Wij zijn zeer tevreden over Onder.
Sinds enkele jaren is Onder is een gewaardeerde partner van Stella. Martijn is mijn sparringpartner voor complexe SEO vraagstukken en het extra paar kritische ogen dat ons scherp houdt. Samen hebben we een mooie groei gerealiseerd in online zichtbaarheid, bezoekersaantallen en leads. Onder onderscheidt zich door haar korte communicatielijnen en vakkundigheid. Ze spreken onze taal: niet zeuren, maar aanpakken. Daar houden we van!
"*" geeft vereiste velden aan
Meer weten over onze privacy of algemene voorwaarden?
Noodzakelijk (verplicht) Zonder deze cookies kan de website niet naar behoren werken. |
|
Statistieken Deze cookies helpen ons (anoniem) te begrijpen hoe onze bezoekers de website gebruiken. |
|
Marketing Deze cookies helpen ons relevante advertenties weer te geven aan onze bezoekers. |
|