Bij het leren over SEO sla je al snel een hele belangrijke stap over. Vaak is dit het begrijpen van de werking van een zoekmachine. Het klinkt zo vanzelfsprekend en we gebruiken ze elke dag. En toch is het niet altijd duidelijk hoe zoekresultaten tot stand komen. Dit is ook niet raar, want zoekmachines zijn immers erg geheimzinnig over de details.
Wat we wel weten over zoekmachines, is dat zij werken met algoritmes. Een algoritme is een opeenvolging van stappen. Bij zoekmachines wordt dit gedaan door een bot. Wat deze bot precies meeneemt, is niet openbaar bekend. Wel is duidelijk welke hoofdstappen er plaatsvinden. Deze zijn als volgt:
Crawlen wordt gedaan door een crawler. Google heeft hiervoor GoogleBot en Yahoo heeft BingBot. Zo heeft elke zoekmachine een eigen crawler. Bots, net als robots of spiders, zijn andere namen voor crawlers.
Bij het crawlen verkent GoogleBot nieuwe en geüpdatet webpagina’s. Deze worden verzameld en toegevoegd aan de Google Index. Dit is de database van Google.
Maar hoe vindt Google nieuwe websites en pagina’s? De zoekmachine heeft een database gekregen door eerdere crawls. De bot checkt deze pagina’s op links die naar andere websites gaan. Zo ontdekt hij nieuwe websites. Hierom is het ook belangrijk om je linkprofiel goed op orde te hebben.
Als een crawler of spider een nieuwe website vindt, begint hij bij het robots.txt-bestand dat op de website staat. Dit is fijn, want hoewel crawlers je vrienden zijn, hoeven zij niet alles te weten.
Wil je dat een pagina of groep van pagina’s niet wordt gecrawld? Zet deze dan in het robots.txt bestand. Een crawler kan dit bestand gemakkelijk vinden omdat deze altijd op dezelfde plek staat. Voorbeelden van pagina’s die je mogelijk liever niet gecrawld wilt hebben, zijn URLs met parameters. Dit kan namelijk dubbele content veroorzaken. Ook kunnen gehele websites uitgesloten worden. Dit wordt vaak gedaan bij testomgevingen.
Let op: wanneer pagina’s een interne link binnen de website hebben, dan worden ze mogelijk nog wel geïndexeerd. Google kan namelijk ook informatie afleiden van de link naar de pagina toe.
Je eigen Robots.txt bekijken? Ga dan naar jeeigendomein.nl/robots.txt.
Na het robots.txt-bestand gaat een crawler alle interne links af om een beeld te krijgen van de gehele website. Hierdoor is het noodzaak om naar elke (belangrijke) pagina een link te hebben.
In tegenstelling tot de Robots.txt verschilt de locatie van de sitemap wel per website. Het is daarom ook handig om in de robots.txt de sitemap van de website te vermelden. Een andere manier om je sitemap bekend te maken bij Google is om deze direct aan te melden in Google Search Console. Wanneer een nieuwe of geüpdate pagina een interne link ernaar toe heeft wordt, deze automatisch gecrawld. Wil je dit versnellen? In Search Console kunnen ook individuele webpagina’s worden ingediend.
Voordat je iemand voorstelt aan je vrienden wil je die persoon beter leren kennen. Google vind dit ook belangrijk. Voordat de website tussen de zoekresultaten verschijnt, kijkt de zoekmachine eerst waar de verschillende pagina’s van de website over gaan. Dit heet indexeren.
Google gaat dan per pagina deze verder crawlen op zoek naar meer links en indexeren. De zoekmachine rendert dan elke pagina zoals een browser dit doet en analyseert deze pagina’s. Google simuleert dan een gebruiker en kijkt zowel naar alle content als de visuele layout. Aan de hand hiervan bepaalt de bot in welke zoekresultaten de webpagina terecht moet komen. Om een geheel beeld te creëren doet de zoekmachine dit twee keer. Hiermee kan de bot kijken hoe de website presteert op zowel mobiel als desktop. Omdat deze versies kunnen verschillen, is vaak ook een (klein) verschil te zien in de uiteindelijk resultaten van de webpagina’s.
Bij het indexeren kijkt de zoekmachine dus naar de content van de webpagina. Hierbij is niet alleen de tekst belangrijk, maar ook eventuele afbeeldingen en videos. Google heeft wel een voorkeur voor tekst, omdat de bots deze content makkelijker kan begrijpen. Om de zoekmachine te helpen, zijn attributen zoals alt-teksten belangrijk.
De verkregen gegevens vanuit het indexeren worden bewaard in een database. Die van Google wordt ook wel de Google-Index genoemd. Wanneer gebruik wordt gemaakt van Google Search Console kan ook informatie vanuit de Google-Index worden bekeken en aangevraagd. Om snel de status van een specifieke pagina te achterhalen kan je gebruikmaken van de inspectietool.
Wil je weten hoeveel webpagina’s van een specifieke website ongeveer geïndexeerd zijn? Zoek op Google naar site:https:/eendomein.nl. Wil je snel kijken of een losse pagina geïndexeerd wordt? Voer dan in plaats van de homepagina een specifieke pagina in zoals site:https:/eendomein.nl/eenblogpost
Google probeert gebruikers het beste resultaat in de vorm van webpagina’s te laten zien. Dit is natuurlijk op basis van hun zoekopdracht. De zoekmachine kijkt hiervoor naar verschillende factoren. Google zegt dat zij meer dan 200 factoren meenemen bij de beoordeling van pagina’s.
Onder deze factoren vallen onder meer de gebruikservaring, autoriteit en laadtijd van de website, maar ook de locatie en het apparaat van de gebruiker. Hiermee kiest Google de meeste relevante webpagina uit de Google-Index. De volgorde wordt bepaald ook aan de hand van deze factoren.
Wanneer een website gevonden kan worden, wordt het tijd om deze te optimaliseren. Door websites te optimaliseren op alle factoren waar een zoekmachine naar kijkt, worden deze nog beter vindbaar. Hierdoor krijgt een website meer organisch verkeer.
Zoals eerder besproken zijn de details van de factoren die Google gebruikt bij het beoordeling van een website niet openbaar. Wel zijn een aantal richtlijnen bekend. Zelf aan de slag met je website? Maak het jezelf makkelijker en maak gebruik van een checklist zoals onze SEO content checklist.
Neem contact op! :) wij helpen je graag verder met al je SEO vragen
SEO vraag stellenMeld je aan voor onze nieuwsbrief en mis geen enkele SEO tip
"*" geeft vereiste velden aan
Het team van SEO bureau Onder bestaat uit enthousiaste SEO specialisten die graag samen met jou voor het beste resultaat gaan.
Of het nu over content of technische aanpassingen gaat, dat maakt niet uit. Martijn brieft dit op een hele heldere manier zodat dit lokaal of door ons hoofdkantoor in Frankrijk doorgevoerd kan worden. […] Sinds de start van onze samenwerking hebben we mooie resultaten behaald. Keep it up!
Wanneer je online onderneming groeit groeien de verwachtingen vaak ook, op elk gebied. Voor een groot gedeelte hadden we zelf de controle over SEO en de invulling hiervan. We kwamen er achter dat onze eigen “algemene blik” niet meer toereikend was en hebben daarom Bureau Onder ingeschakeld. Verrassend en helder. We hebben een fijne samenwerking opgebouwd, mede omdat Martijn ook met regelmaat met Eline of Mariska (afhankelijk van de case) bij ons op kantoor komt wat voor ons erg waardevol is!
Martijn en Mariska maken het SEO verhaal begrijpelijk voor de leek en denken graag met ons mee. Het is fijn dat er elke maand een persoonlijk contact moment is met een uitgebreide rapportage en de mogelijkheid om alles te doorspreken. Na enkele maanden is het Onder al gelukt om met enkele van onze webshop pagina’s de nummer 1 posities te verkrijgen op Google. Wij zijn zeer tevreden over Onder.
Sinds enkele jaren is Onder is een gewaardeerde partner van Stella. Martijn is mijn sparringpartner voor complexe SEO vraagstukken en het extra paar kritische ogen dat ons scherp houdt. Samen hebben we een mooie groei gerealiseerd in online zichtbaarheid, bezoekersaantallen en leads. Onder onderscheidt zich door haar korte communicatielijnen en vakkundigheid. Ze spreken onze taal: niet zeuren, maar aanpakken. Daar houden we van!
"*" geeft vereiste velden aan
Meer weten over onze privacy of algemene voorwaarden?
Noodzakelijk (verplicht) Zonder deze cookies kan de website niet naar behoren werken. |
|
Statistieken Deze cookies helpen ons (anoniem) te begrijpen hoe onze bezoekers de website gebruiken. |
|
Marketing Deze cookies helpen ons relevante advertenties weer te geven aan onze bezoekers. |
|