Verwachtingen en waardevolle inzichten
De eerste keer BrightonSEO. Heeft het mijn verwachtingen waargemaakt? Om die vraag te beantwoorden is het goed om te weten wat mijn verwachtingen waren. Ik ben bij bureau Onder net als 11 van de 13 collega’s “SEO Specialist”, binnen dit specialisme maken we intern nog onderscheid in; content, autoriteit, techniek en data. En omdat mijn focus ligt op content zal ik daar dus ook hoofdzakelijk mijn talks op uitkiezen. Ik beschrijf mijn donderdag en vrijdag vol met talks, case studys en masterclasses.
Op donderdag bezocht ik deze sprekers:
Afhankelijk van de kwaliteit van de sprekers(hoe ik het beleefde) zal ik dieper ingaan op de learnings en de toepasbaarheid ervan in mijn dagelijkse werk.
Of ga gelijk door naar de sprekers die ik vrijdag heb bezocht.
Eerlijk is eerlijk, ik koos deze talk omdat ik al enige tijd James Brockbank volg op Linkedin en deze vaak interessante Ecommerce learnings deelt in zijn feed. Dus ik was dan ook enigzins verbaast toen ineens er een andere spreker het podium op kwam. De uitleg was simpel: “James was verhinderd en had het stokje overgedragen aan Olivia Day”.
Ze begon direct met een mooie trigger “Google is IGNORING” lots of the links you’ve earned”. Hierbij doelde ze op de gelekte Google data eerder dit jaar waarin de “anchorMismatchDemotion” naar boven kwam. Nou, dan heb je mijn aandacht!
Interne links zijn een belangrijk onderdeel van de SEO(&content) Strategie. Dus extra learnings hierover zijn altijd handig. Daarbij werd maar eens te meer duidelijk dat we altijd moeten zoeken/kijken naar “Goede links”. Een goede link is subjectief vertelde Liv en door dit zo objectief mogelijk te maken verbeter je automatisch de impact van je content. Dit kan ik natuurlijk direct uitzoeken en oppakken met de software die we gebruiken bij Bureau Onder, maar voor de leek is het alsnog lastig om dit toepasbaar te maken. De simpele tip die ik heb, die iedereen vandaag als toe kan passen is: Bekijk in Search Console “Overzicht”, daar zie je bovenaan “Search Console Insights” staan. Als je dit opent dan kun je “Verwijzende links van andere websites” bekijken. De links die daar het beste presteren en in jouw ogen waardevolle bezoekers naar jouw website brengen, daar wil je er meer van hebben!
Voor alle slides van Liv Day kijk je op: https://www.slideshare.net/slideshow/how-to-find-the-relevance-gap-between-your-site-its-link-profile/272208529#38
Darren ging in op de groei en opkomst van Retail Media online en in de winkelstraat, hierbij had ik verwacht dat er uiteindelijk een koppeling of bruggetje zou komen met SEO. Deze kwam niet en daardoor was ik ondanks de waardevolle sheets toch enigszins teleurgesteld omdat het “BrightonSEO” heet en er in deze talk geen enkele keer iets over “Search” of “SEO” gesproken werd.
Personas maken binnen je doelgroep en ze zo relevant mogelijk maken is niks nieuws aan de horizon. Toch ging Sophie hier dieper op in, ze bouwde de presentatie op via “Who, what, when, where, why, how” helaas voor haar begint “how” niet met een W anders had ze de benadering de “6 W’s” kunnen noemen.
Door dit goed uit te werken in een prompt en dit in te voeren in Perplexity kun je gericht persona’s maken en er duidelijke KPI’s aan koppelen over hoe en waar ze te bereiken. Een prompt die zij graag gebruikt is:
“You’re a marketer, researching target audiences for a UK-based travel insurance client. The target audience is male and female travellers with medical conditions including heart conditions, diabetes, arthritis, anxiety and epilepsy. They’re concerned about falling ill while abroad and so understand that it’s important that they purchase quality travel insurance but they struggle with the cost of the insurance, which is often more when they declare their health condition when buying their travel insurance. They often wonder if they could get away with not declaring it. Their single annual holiday is something they hugely look forward to given that their day to day life can be difficult with their health condition. They tend to buy insurance immediately after booking their holiday and most buy it online independently, with some taking advice from an organisation or charity related to their health condition. Based on the this information, give me three, relevant UK-focused audience personas, including details such as name, age, location, job, income and any other pertinent information. Each persona should be based on a unique reason for buying travel insurance or a unique barrier to purchase. Include a first-person statement from each persona which explains their day-to-day, why they’re buying travel insurance and what’s great or difficult about that process.
With the example above, Perplexity gave me:
Het Nederlandse prompt is dus:
Je bent een marketeer die doelgroepen onderzoekt voor een klant in reisverzekeringen gevestigd in het Verenigd Koninkrijk. De doelgroep bestaat uit mannelijke en vrouwelijke reizigers met medische aandoeningen zoals hartproblemen, diabetes, artritis, angststoornissen en epilepsie. Ze maken zich zorgen over ziek worden in het buitenland en begrijpen daarom dat het belangrijk is om een goede reisverzekering af te sluiten, maar ze vinden het moeilijk vanwege de hoge kosten, vooral wanneer ze hun gezondheidsproblemen opgeven bij het kopen van de verzekering. Vaak vragen ze zich af of ze hun aandoening niet zouden moeten melden. Hun jaarlijkse vakantie is iets waar ze enorm naar uitkijken, omdat hun dagelijks leven zwaar kan zijn door hun gezondheid. Ze kopen meestal een verzekering direct na het boeken van hun vakantie en de meesten doen dit zelfstandig online, terwijl sommigen advies inwinnen bij een organisatie of stichting die zich bezighoudt met hun medische aandoening. Op basis van deze informatie, geef me drie relevante UK-gerichte persona’s, inclusief details zoals naam, leeftijd, locatie, beroep, inkomen en andere relevante informatie. Elke persona moet gebaseerd zijn op een unieke reden voor het kopen van een reisverzekering of een unieke belemmering voor aankoop. Voeg een uitspraak in de eerste persoon toe voor elke persona die hun dagelijkse leven beschrijft, waarom ze een reisverzekering kopen en wat goed of moeilijk is aan dat proces.
Met het bovenstaande voorbeeld gaf Perplexity de volgende persona’s:
Als je dit dus combineert met de opgedane kennis van Liv Day uit de eerste lezing, dan kun je dus ook met de prompt van Sophie Coley weg van de subjectiviteit rondom persona’s en dus objectief de persona koppelen aan data en je SEO strategie verder verfijnen met bijvoorbeeld specifieke landingspagina’s maken voor de aangemaakte, erkende persona’s binnen jouw bedrijf, binnen jouw doelgroep.
Jonathon stond in Auditorium 1(grootste zaal van BrightonSEO, hier kreeg ik dan ook echt het gevoel van een internationaal congres. Ik zou dan ook niet willen weten hoe Jonathon zich voelde om op het podium te staan. Hij deed het fantastisch!
Content audits is iets wat wij voor praktisch iedere klant van Onder doen en dit neemt vaak veel tijd in beslag. Dit hebben we dan ook intern al eens besproken en versneld. Jonathan vertelde zijn manier over hoe je Google Sheets via App Scripts kan koppelen met ChatGPT om dit proces te versnellen.
Wil jij nou ook weten hoe dit werkt, kijk dan zijn slides op:
Hij kan met zijn gedeelde script de volgende velden ophalen:
Deze manier is sneller en goedkoper dan bijvoorbeeld een extractie via apart aangeschafte software van “derde partijen”.
Na alle Google Updates van afgelopen jaren is gebleken dat “Topical Authority” steeds belangrijker is geworden en dit zal in de toekomst alleen nog maar toenemen. Iemand dit compleet bestudeert heeft is Daniela, zij deelde haar inzichten om écht een autoriteit te worden in jouw niche en hoe je dit aanpakt.
Voor iedereen die dit aanspreekt alvast een disclaimer, deze SEO Strategie kost minimaal 6 maanden aan tijd en dit is nog los van het aantal uren aan werk wat dit dus daadwerkelijk kost. Maar dat het uiteindelijk oplevert, dat is ook wel duidelijk.
De aanpak van Daniela bestaat uit 3 stappen:
Ga bij deze aanpak ook verder dan je eigen website, schrijf dus ook inhoudelijke sterke artikelen op interessante websites binnen jouw vakgebied/branche.
Deze aanpak deed me denken aan mijn aanpak bij één van mijn eigen websites, waarbij ik dus ook echt kan beamen dat deze strategie werkt! Bij mij kostte dit ook ruim 6 maanden aan tijd qua investering.
AI en machine learnings gaan hand in hand, daar zit niks nieuws in. Maar hoe Lazarina de koppeling maakte tussen de extractie van data uit GSC, GA4, Screaming Frog, Ahrefs en andere scraper tools was op z’n zachtst gezegd indrukwekkend. Door op deze schaal data te scrappen van relatief kleine domeinen zou je alsnog vrij snel kunnen spreken van een “big data” aanpak.
Grappig tijdens de lezing was dat mijn gedachten een afslag maakte naar één van onze klanten waarbij ik deze manier van werken en aanpak qua semantiek waarschijnlijk 1-op-1 kan doorvertalen naar een unieke aanpak waarbij ik de learnings uit deze talk mee kan nemen in mijn werkweek. Semantische SEO houdt in dat je de inhoud en context van je content verdiept, zodat Google beter in staat is om de betekenis en relevantie ervan te begrijpen.
Logischerwijs ga ik dit natuurlijk niet direct hier al verklappen maar eerst testen en doorvoeren. Als dit werkt dan zal ik later alsnog een linkje plaatsen naar de Case Study die hier mogelijk uit voorkomt.
Eerder ben ik ecommerce manager geweest van een grote internationale webshop en ben hierdoor meermalen in aanraking geweest met Google Tag Manager(GTM). Hierbij was ik vaak bezig met scripts en triggers te pauzeren en/of te kopiëren en door te voeren op andere pagina’s. Met name om reviews, formulieren en/of aftelbanners te implementeren op pagina’s. Mede daarom was ik beniewd naar deze masterclass, want hoe mooi zou het zijn als ikzelf bij CMS’ waarbij er nog geen structured data gebruikt wordt, het zelf kan inladen via GTM.
De masterclass van Radu was top! Hij maakte direct al een hele goede nuance dat javascript steeds vaker geaccepteerd wordt door Google en als je ervoor zorgt dat je deze techniek toepast bij niet al te grote domeinen (lees minder dan 10.000 pagina’s). Dit een interessante optie kan zijn die oplevert ondanks dat je waarschijnlijk iets moet inleveren op de Core Web Vitals.
De learnings van deze talk ga ik zeker komende maand zelf uitgebreid testen op één van mijn eigen websites en als ik dit echt tot meerwaarde in de praktijk kan brengen… Dan ga ik dit zeker ook bij websites van klanten aanraden en toepassen.
Michelle wist precies waar ze stond met haar topic, want de eerste vraag was direct “zijn er tegenstanders van TikTok?”. Ik was bijna zo brutaal om mijn hand te liften, anderen in de zaal deden dat wel. Ik snapte hen wel, maar ergens in mijn gedachten gaat ook het stemmetje “Hoe kan ik er op tegen zijn, terwijl ik het zelf niet actief gebruik”. Misschien heeft het er iets mee te maken dat ik op de heenweg in het vliegtuig tussen Schiphol en London Gatwick “The Social Dilemma” op Netflix heb gekeken.
Veel van deze talk was dan voor mijn gevoel niet voor mij, maar toch gaf ze nog enkele handvatten waar TikTok, Google Search raakt. Dat vond ik dan wél weer interessant. Neem bijvoorbeeld zoekwoorden op in de tekstballon op het scherm bovenaan in je video en voeg een goede beschrijving toe aan je video. Een ander leuk weetje vond ik, dat zelfs een account zonder volgers al interessant is om te hebben en dat net als met SEO het opbouwen van een waardevol converterend TikTok account tijd nodig heeft en te maken heeft met exponentiële groei mits je aanpak goed en consistent is.
Ik zou deze talk geen “snack” willen noemen maar ik vond het wel even een verademing. Steve presenteerde echt met humor en zoals de titel vermeld “Wat er wint op Google”. Wij gekke Nederlanders werden ook nog even benoemd want wist je bijvoorbeeld dat naast populaire nieuwe Adidas schoenen en “air up”, ook de term “klompen” aan het winnen is op Google.
Het meest interessante qua leerpunten was dat iets wat een relatief laag zoekvolume heeft op Google een hoog zoekvolume kan hebben op Amazon of Ebay. Wil je dit verder in kaart brengen dan komt de tool van Sistrix natuurlijk om de hoek.
Het up-to-date houden van content is niks nieuws voor mij en collega’s, echter kan dit wel een uitdaging worden. Zeker als een domein meer dan 10.000 pagina’s bevat.
Julien die eerder bij een grote autoverhuurder heeft gewerkt liet zien hoe zijn aanpak is, dit doet hij volgens 3 simpele stappen:
Simpel en overzichtelijk, bij iedere stap gaf hij handvatten om dit schaalbaar aan te pakken en dat je bijvoorbeeld ook de interne links en backlinks van verwijderde pagina’s moet omleiden of liever nog aanpassen naar de verwijzende bestemmingspagina.
Bij het maken van nieuwe content op grote schaal is het gebruik van een goede taxonomie met variabelen super slim om te gebruiken. Echter is dit voor ons niets nieuws maar wel interessant om te delen.
De talk van Jenna lag in lijn met die van Julien maar was zeker niet minder interessant. Zij liet inhoudelijk zien waar je kunt meten en hoe je in kaart kan brengen welke pagina’s in aanmerking komen om opgeschoond of verbeterd te worden. Deze term is ook wel bekend bij ons onder de naam “Content Pruning”. Jenna gaf aan dat het effectief is om GA4-data te filteren op blogposts die via organisch verkeer YoY (Year over Year) presteren. Door GA4 te combineren met GSC, Screaming Frog en CMS-data krijg je een volledig beeld van welke content wel of niet werkt. Daarbij moet je ook rekening houden met redirects, die invloed kunnen hebben op andere workflows en de consistentie van je website.
Dit was de laatste talk van vandaag en misschien ook wel het meest interessantste voor mij van dag 1.
Er wordt al heel lang gesproken over AI-Overviews (AIO) en hoe dit het zoekgedrag gaat veranderen in de toekomst. Jon ging die diepte in en kwam met onderbouwingen op basis van eigen onderzoek.
Autocomplete is de dropdown die volgt als jij bezig bent met het invoeren van de zoekopdracht. Dit speelt een belangrijke rol in de manier waarop gebruikers zoekopdrachten uitvoeren! Volgens gegevens van Jon gaan er in en de autocomplete-dropdown van de 10 suggesties, er 8 naar de AI-overview pagina (AIO) en 2 naar de klassieke Google Search pagina.
Dit benadrukte voor mij het belang van de “AIO-dominatie” strategie die Google nu gebruikt.
Om dus in gesprek te komen met de gebruiker moet je inspelen op intentie, ingangen creëren, kwaliteitsignalen uitzenden en verbindingen maken tussen content. Hierdoor is Google eerder geneigd jou te tonen in de “autocomplete” en dus kom je in gesprek met de klant op AIO.
Wanneer je eenmaal in het gesprek bent(de klant komt op jouw website), blijft het belangrijk om in die conversatie te blijven door content en context van pagina’s op elkaar af te stemmen, sterke interne en externe linkstructuren op te zetten en daarmee kwaliteitsignalen te blijven sturen naar zoekmachines.
Als je op dit moment veel “rich sippets” hebt met dus een antwoordkaart en een blauwe link dan ben je goed bezig en dit zal bij de komst van AIO zorgen voor volledige dominantie in de zoekresultaten.
“Antwoordkaart en een blauwe link ziet er zo uit”, ziet er zo uit:
Na deze talk van Jon was ik blij dat ik met zo’n waardevolle talk af kon sluiten, ondanks dat ik dag 1 behoorlijk mentaal vermoeiend vond. Dit komt omdat er zoveel kennis op je afgevuurd wordt met allerlei verschillende sprekers, zalen en tussentijds het in de pauzes ook gaat over lezingen waar anderen geweest waren.
In de avond ben ik even met Jan Willem wat gaan eten en daarna zijn we even op een terrasje gaan zitten met een biertje. Al snel werd er in de SEO Mastermind app groep gevraagd om “whereabouts” dus het duurde niet lang voordat 4 andere collega SEO specialisten uit Nederland en België aanhaakten. Super tof hoe makkelijk je dus nieuwe mensen leert kennen ondanks dat je in het buitenland bent.
Vanaf 19:30u waren we welkom op de SEO Mastermind Meet-up georganiseerd door Jeroen Stikkelorum van SEO Brein in samenwerking met SE Ranking. Tijdens de meet-up heb ik kunnen praten in een super gezellige kroeg met andere SEO specialisten en kunnen horen waar zij mee bezig zijn en sommigen konden zelfs helpen bij concrete vraagstukken die ik had naar aanleiding van de talks van vandaag.
De ochtend begon vrij vroeg.. Ondanks dat Martijn, Jan Willem en ik om 8:00 uur hadden afgesproken in de lobby ging het brandalarm van het hotel al om 6:00 uur af. Slapen zat er vanaf dat moment niet meer in dus ben ik de dag al vroeg met de laptop open gestart.
Het ontbijt was net als de dag ervoor goed geregeld en toen we de koffie op hadden hoefden we maar +- 300 meter te lopen naar het congrescentrum van BrightonSEO. Ps. Het is heel lekker om in de ochtend even langs de kustlijn te lopen. Zeker als je al twee uur wakker bent…
Eenmaal binnen nog even de talks met Jan Willem afgestemd en ik kwam tot de conclusie dat als je me vandaag zou zoeken, ik in Syndicate 1-2 zou zitten. Alle lezingen die ik interessant vond waren klaarblijkelijk in deze zaal.
Op vrijdag bezocht ik:
Updates van Google, er is al zoveel over geschreven en gezegd. Mede daarom was ik extra benieuwd wat er nog meer over te zeggen viel.
Wist je bijvoorbeeld dat Google gemiddeld 14x per dag een update doet, dit komt neer op 4000 updates per jaar. Enkele daarvan worden gedeeld en kunnen grote impact hebben op je rankings. Drie grote updates zijn:
Belangrijkste leerpunten zaten voor mij niet in “wat te doen bij een Google update”, maar meer in het vertalen naar de klant toe. Communicatie hierbij is echt key! Haar advies van contactpunten waren(die je bijvoorbeeld per mail deelt:
Als een update wordt aangekondigd dan deel je dit zodra dit bekend is. Tijdens de update kunnen we alvast opvallendheden delen. Na de update kijken we naar stijgers en dalers en hierbij kunnen we analyseren wat er voor de verschuiving gezorgd heeft.
Een week of twee weken na het uitrollen kunnen we eventuele insights per sector, type cms of dienst/product delen.
Ed deelde niet zozeer inzichten of learnings maar gaf vooral onderbouwd inzicht in de werking van Algoritmes en dat niet alles wat de Social kanalen en Google delen waar is. Zo had hij meerdere beweringen van Google werknemers die zichzelf binnen de maand tegenspraken op fora en social posts. Dit gold ook voor werknemers van TikTok, Instagram en bijvoorbeeld Facebook. Goed om te weten om altijd een nuance te behouden bij een gedane bewering van deze of gene.
Imogen sprak over de toekomst van Ai, hierbij focust zij zich met name op RAG.
Retrieval-Augmented Generation (RAG) combineert het ophalen van relevante informatie uit externe bronnen met het genereren van tekst om nauwkeurigere antwoorden te geven op zoekvragen. Zij zocht uit dat Google de volgende bronnen gebruikt voor de Shopping Graph; Manufacturer Center, fabrikanten websites, online winkels en productpagina’s (PDP’s), Google Merchant Center, producttesten, YouTube-video’s en productreviews. Dit om een compleet beeld van producten te schetsen.
Door deze informatie te benutten, kan je dus de content en aanwezigheid optimaliseren in voorbereiding op de opkomst van AI-overviews (AIO).
Leuke stof om alvast over na te denken, zeker zolang het er in Nederland nog steeds niet is.
In haar presentatie ging Naomi dieper in op het belang van een goed gestructureerde en geoptimaliseerde gefacetteerde navigatie voor e-commerce websites.
Ze besprak 3 stappen om deze navigatie effectief te benutten:
Door bijvoorbeeld een heatmap te draaien met Hotjar en Clarity kun je inzichtelijk maken welke filters veelgebruikt worden. Leg dit vast in bijvoorbeeld een Google Sheet, op basis van deze Sheet kun je dan een zoekwoord onderzoek opzetten binnen dat onderwerp om te kijken of jouw data overeenkomt met de zoekvraag op bijvoorbeeld Google.
Door op basis van deze data je filters wel indexeerbaar te maken voor Google(met een gekaderde en gefaceerde aanpak) kun je snel aan zichtbaarheid winnen.
Onderzoek hierbij altijd hoe nieuwe subcategorieën binnen de huidige structuur passen, bepaal hoe deze zullen samenwerken met de bestaande navigatie, en vergeet zeker niet te evalueren of ze daadwerkelijk waarde toevoegen.
Met name de laatste maanden interesseer ik me bovenmatig in de keuzes voor een bepaald CMS’. Ik denk namelijk dat het succes qua vindbaarheid en optimalisatie mogelijkheden grotendeels samenhangen met het type website en cms keuze. Omdat WooCommerce veel gekozen is, wekte deze titel dus direct ook mijn interesse.
Tijdens de presentatie van Ahmed benoemde hij de verschillende tools en technieken om de prestaties van een WooCommerce te optimaliseren. Belangrijke tools zoals MariaDB, Redis, Memcached, PageSpeed Insights, en GTmetrix kunnen worden gebruikt om de snelheid en efficiëntie van websites te verbeteren.
Deze optimalisaties vinden deels binnen WordPress plaats maar ook op server niveau. Het inschakelen van Gzip-compressie en Varnish Cache werd daarom ook besproken, inclusief stapsgewijze handleidingen voor zowel Apache als NGINX om de laadtijden te verkorten en caching correct in te stellen.
Daarnaast werden plugins als WP Rocket, NitroPack en Cloudflare aanbevolen voor extra optimalisaties, evenals tools zoals Hotjar en Microsoft Clarity voor het analyseren van gebruikersgedrag.
Ook Ahmed knipoogde naar de eerdere presentatie van Naomi en gaf aan dat het belangrijk is om je productcategorieën en navigatie te optimaliseren door je gefacetteerde navigatie bij te houden en deze aan te passen aan de behoeften van de klant.
“Shopify” in de titel, snap je na vorig stukje waarom ik hier zat? Juist… Wederom een CMS en een spreker die ingaat op het goed gebruiken van Shopify functionaliteiten. Of, naja het omzeilen van de beperkingen. Ik heb enkele weken geleden al eens geschreven over de beperkingen die Shopify biedt qua SEO.
Peter gaf aan dat door het opzetten van een headless Shopify omgeving, tal van deze beperkingen aan te passen zijn en dat je hiermee direct je rankings en prestaties binnen Google Search kan verbeteren. En nog een leuk weetje, voor Headless Shopify heb je geen Shopify+ account nodig.
Digital PR, Linkbuilding… Mooie woorden waarbij we als SEO specialist ook direct een vermoeden hebben van de bijpassende aanpak. Roni Shehu presenteerde een vijfstappenproces om organische backlinks te verkrijgen via statistische linkbuilding:
*De template heb ik kunnen downloaden.
Shehu benadrukt dat links worden verdiend en niet zomaar worden gegeven (Links are earned, not given). Naast de uren die erin gestopt wordt is dit proces een kostenbesparende strategie met een hoge ROI.
Ik denk vooral dat het delen van statistieken of een onderzoek hierin niet zozeer vernieuwend is, maar met name de grafische aanpassing van de landingspagina bijdraagt aan het verkrijgen van links.
In de talk van Szymon ging ik in mijn hoofd even weer terug naar de eerste talk van gisteren. Liv Day gaf al aan dat het van “subjectief naar objectief” interessant is. Szymon ging hier verder op in en gaf daarbij voorbeelden en handvatten voor het gebruik van Bazoom, Whitepress en bijvoorbeeld Collaborator. De echte waarde zat voor mij in de berekening “ratio in/out” hierbij deel je het aantal referring domains door het aantal Linked domains.
Deze ratio kan ik goed mee nemen in het zoeken naar kwalitatieve links, ik had daar al een bepaalde aanpak voor en die is met deze formule erbij alleen nog maar beter geworden.
Het was een waardevolle talk, maar toch ook veel herhaling uit veel andere talks die ik bezocht heb. Het ging wederom over relevantie, topical en intentie.
Mooi om te zien hoe ook een platform zoals Bazoom al bezig is met het steeds relevanter (willen) maken van de links.
Andor gaf tijdens zijn presentatie belangrijke inzichten over het crawlen en indexeren van websites, evenals het belang van logfiles. Omdat het mega-technisch werd en het lastig is uit te leggen kies ik toch even voor een opsomming van enkele learnings:
Deze punten gaven mij eens te meer aan dat serverbeheer en het correct instellen van crawlbudgetten nodig zijn om goede indexering te waarborgen. Zeker als het gaat om grote (10.000+ pagina’s) domeinen.
Ik heb niet op mijn toetsenbord zitten rammen, dit is namelijk echt zijn naam! Gelukkig gaf hij op slide 3 ook aan dat “Saji” ook goed is. Waar ik dacht dat Andor het al behoorlijk technisch maakte, deed Saji er nog een schepje bovenop. Het fijne voor mij was wel dat hij dit stapsgewijs deedt en heel duidelijk aangaf hoe hij zijn Python script opbouwt en waar ik de stappen terug kon vinden.
Saji gebruikt Python om op een efficiënte manier Google Search Console (GSC) properties op te zetten. Hij demonstreerde hoe je met behulp van een script snel en gemakkelijk tot 1000 GSC-properties kunt creëren in slechts 3 seconden. Dit automatiseringsproces bespaart tijd en vereenvoudigt het beheer van grote hoeveelheden websites of subdomeinen binnen Google Search Console.
Met Python en de juiste API-integraties kun je grootschalige SEO-taken automatiseren, zoals het instellen van GSC-properties, wat normaal gesproken een tijdrovend handmatig proces zou zijn. Dit soort automatisering is nu en wordt in de toekomst een krachtig hulpmiddel is voor SEO-specialisten die dagelijks met meerdere grote websites werken.
Gianna Brachetti-Truskawa had misschien wel de sterkste presentatie van de vrijdag(van diegene die ik bezocht heb) zij ging de diepte in, met name over sitemap.xml’s en de Robots.txt. Ze benoemde belangrijke aandachtspunten en valkuilen met betrekking tot het aanbieden van je sitemap.xml, het gebruik van het robots.txt-bestand en Google Search Console (GSC):
Gianna ging ook dieper in op de juiste configuratie en dat een onjuist geconfigureerd robots.txt-bestand verborgen valkuilen kan bevatten die het organische verkeer kunnen saboteren. Het is dus mega belangrijk voor website-eigenaren en SEO-specialisten om de robots.txt-bestanden regelmatig te controleren en ervoor te zorgen dat ze de juiste instructies geven aan zoekmachines om ongewenste gevolgen te voorkomen. Hierbij kun je niet blind sturen op de melding/weergave in GSC.
Ze gaf een mooi voorbeeld van https://brightonseo.com/ waarbij de /private/ map in de robots.txt staat. Dit is natuurlijk JUIST een signaal voor Google om wel even erin te kijken wat er staat.
———
User-Agent: *
Allow: /
Disallow: /private/
Sitemap: https://brightonseo.com/sitemap.xml
———
Bij deze conferentie is er zoveel te leren dat het de lengte van dit blog uitstekend verklaart! Ik ben blij dat ik aanwezig was en heb zeker 7 tot 8 concrete handvatten opgedaan waarmee ik verder kan. Het algehele niveau van de talks viel me echter iets tegen; misschien had ik er van tevoren te veel van verwacht. Desondanks waren het twee intensieve dagen vol SEO, interessante ontmoetingen en gezellige gesprekken. Ik hoop volgend jaar in het voorjaar of najaar weer Brighton te bezoeken, zodat ik nog specifieker bepaalde lezingen kan bijwonen en mijn kennis verder kan uitbreiden. Als je nog nooit bij BrightonSEO bent geweest, raad ik je zeker aan om er een keer naartoe te gaan!
Neem contact op! :) wij helpen je graag verder met al je SEO vragen
SEO vraag stellenMeld je aan voor onze nieuwsbrief en mis geen enkele SEO tip
"*" geeft vereiste velden aan
Het team van SEO bureau Onder bestaat uit enthousiaste SEO specialisten die graag samen met jou voor het beste resultaat gaan.
Of het nu over content of technische aanpassingen gaat, dat maakt niet uit. Martijn brieft dit op een hele heldere manier zodat dit lokaal of door ons hoofdkantoor in Frankrijk doorgevoerd kan worden. […] Sinds de start van onze samenwerking hebben we mooie resultaten behaald. Keep it up!
Wanneer je online onderneming groeit groeien de verwachtingen vaak ook, op elk gebied. Voor een groot gedeelte hadden we zelf de controle over SEO en de invulling hiervan. We kwamen er achter dat onze eigen “algemene blik” niet meer toereikend was en hebben daarom Bureau Onder ingeschakeld. Verrassend en helder. We hebben een fijne samenwerking opgebouwd, mede omdat Martijn ook met regelmaat met Eline of Mariska (afhankelijk van de case) bij ons op kantoor komt wat voor ons erg waardevol is!
Martijn en Mariska maken het SEO verhaal begrijpelijk voor de leek en denken graag met ons mee. Het is fijn dat er elke maand een persoonlijk contact moment is met een uitgebreide rapportage en de mogelijkheid om alles te doorspreken. Na enkele maanden is het Onder al gelukt om met enkele van onze webshop pagina’s de nummer 1 posities te verkrijgen op Google. Wij zijn zeer tevreden over Onder.
Sinds enkele jaren is Onder is een gewaardeerde partner van Stella. Martijn is mijn sparringpartner voor complexe SEO vraagstukken en het extra paar kritische ogen dat ons scherp houdt. Samen hebben we een mooie groei gerealiseerd in online zichtbaarheid, bezoekersaantallen en leads. Onder onderscheidt zich door haar korte communicatielijnen en vakkundigheid. Ze spreken onze taal: niet zeuren, maar aanpakken. Daar houden we van!
"*" geeft vereiste velden aan
Meer weten over onze privacy of algemene voorwaarden?
Noodzakelijk (verplicht) Zonder deze cookies kan de website niet naar behoren werken. |
|
Statistieken Deze cookies helpen ons (anoniem) te begrijpen hoe onze bezoekers de website gebruiken. |
|
Marketing Deze cookies helpen ons relevante advertenties weer te geven aan onze bezoekers. |
|