Tien technische aspecten die bijdragen aan een betere vindbaarheid (SEO)

Lees het in deze blog

Vindbaarheid is een van de negen bouwstenen voor een goede website. Je website kan er nog zo mooi uitzien en nog zo gebruiksvriendelijk zijn, maar als hij niet goed kan worden gevonden heb je daar weinig aan. Daarom bespreken we in dit artikel tien technische aspecten die bijdragen aan een betere vindbaarheid.

 

Wat is vindbaarheid en SEO?

Wanneer we spreken over vindbaarheid, dan bedoelen we daarmee met name de vindbaarheid van de website via online zoekmachines. Veruit de belangrijkste zoekmachine is Google. Dat is namelijk de meest populaire zoekmachine (zeker in Europa) en de plek waar veel online verkeer begint. Wanneer je website niet goed gevonden wordt door Google, betekent dit dat je heel veel mogelijke bezoekers en dus veel potentiële klanten misloopt.

SEO is de afkorting voor Search Engine Optimization, oftewel: zoekmachineoptimalisatie. SEO betreft alle activiteiten die je kunt ondernemen om de vindbaarheid van jouw website via zoekmachines te verbeteren.

 

Welke aspecten dragen bij aan een goede vindbaarheid?

Verschillende aspecten dragen bij aan een goede vindbaarheid via zoekmachines. De meeste mensen weten wel dat het belangrijk is om voldoende goed geschreven teksten op je website te hebben, waarin belangrijke zoekwoorden moeten terugkomen. Aspecten waar vaak minder aandacht voor is als het gaat over SEO, zijn de technische aspecten. Toch zijn ook technische aspecten van groot belang bij het verbeteren van de vindbaarheid van jouw website.

 

Crawlen en indexeren

Voordat we ingaan op de technische aspecten waaraan je website moet voldoen, is het goed om twee begrippen uit te leggen die van belang zijn als het gaat om de technische kant van SEO: crawlen en indexeren.

  • Crawlen is het proces van het doorzoeken van een website door de robot van een zoekmachine, ook wel een crawler, crawlspider of crawlbot genoemd. Zoekmachines maken gebruik van dit soort ‘crawlers’ om zoveel mogelijk URL’s te vinden. De robot begint bij al bekende URL’s die tijdens eerdere crawls zijn gevonden en sitemaps die door website-eigenaren zijn verstrekt via Google Search Console. Vervolgens gebruikt de crawler links op deze pagina’s om nieuwe pagina’s en websites te ontdekken. Hij gaat van link naar link en stuurt informatie over de gevonden pagina’s terug naar Google.
  • Indexeren is het verzamelen van informatie op een webpagina. Een webpagina die door de crawlbot kan worden gevonden en die door Google Index kan worden gelezen is ‘indexeerbaar’. Wanneer de crawler zo’n pagina tegenkomt, geeft hij de URL door aan Google Index. Google Index analyseert de content op de pagina (probeert, met andere woorden, te begrijpen wat er op de pagina staat) om zo de juiste pagina’s te kunnen koppelen aan zoekopdrachten, zodat de zoekmachine voor de gebruiker relevante zoekresultaten toont.

 

Voldoet jouw website aan deze tien technische punten voor een goede vindbaarheid?

Hieronder een opsomming van tien zogenaamde ‘basisoptimalisaties’: de minimale vereisten waaraan een website technisch gezien moet voldoen om goed te kunnen scoren op vindbaarheid. Kijk je mee of jouw website aan onderstaande punten voldoet?

1. Geef Google toegang tot jouw sitemap via het robots.txt-bestand

Het robots.txt-bestand is de eerste pagina die de crawler bezoekt als deze op je website terechtkomt. In dit bestand geef je aan welke pagina’s geïndexeerd mogen worden en welke niet. Met andere woorden: hiermee kun je ervoor zorgen dat Google bepaalde pagina’s niet bekijkt en dus ook niet meeneemt in zijn zoekresultaten.

Dit is van belang wanneer je bepaalde pagina’s hebt waarvan je niet wilt dat iedereen ze kan zien. Bijvoorbeeld die waarop mensen zich moeten inschrijven voor een nieuwsbrief, voordat ze een e-book kunnen downloaden. Je wilt dan niet dat bezoekers ‘per ongeluk’ via Google op de pagina terechtkomen en het e-book kunnen downloaden, zonder zich te hebben ingeschreven voor de nieuwsbrief. Ook kan het zijn dat je bepaalde pagina’s wilt ‘verstoppen’ voor Google, omdat ze te veel lijken op andere pagina’s op je website (zie ‘Voorkom duplicate content’ hieronder).

  • Check of je robots.txt-bestand goed is ingesteld door /robtos.txt achter je website URL te zetten. (Bijvoorbeeld: https://www.mindworkz.nl/robots.txt) Als deze link niet bestaat, krijg je een lege pagina of een foutmelding.
  • Bestaat de pagina wel, kun je hierin aangeven welke pagina’s geïndexeerd mogen worden. Ook kun je zien of een link naar de sitemap is toegevoegd in het bestand.
  • Is er nog geen link naar de sitemap toegevoegd? Doe dit dan alsnog. Hierdoor kan de ‘crawler’ van Google de website beter vinden en worden nieuwe pagina’s sneller geïndexeerd.

2. Meld je sitemap bij Google aan en zorg ervoor dat de URL’s op je sitemap kloppen

Wanneer je in het robots.txt-bestand een link naar de sitemap hebt geplaatst, is dit de tweede pagina die de crawler bezoekt. Een sitemap is een soort inhoudsopgave van je website, waarin alle pagina’s waarvan je wilt dat ze in de zoekresultaten verschijnen netjes zijn gecategoriseerd.

  • Meld je sitemap aan bij Google via Google Search Console. Hierdoor kunnen de crawlers van Google je site direct vinden. (Ze hoeven je site dan niet via een link op een andere website te vinden.)
  • Zorg ervoor dat in de sitemap geen foutieve URL’s staan, want daarmee stuur je de crawler naar een pagina die niet (meer) bestaat.

3. Zorg ervoor dat je een SSL-certificaat hebt

Een SSL-certificaat is een bestand dat zorgt voor een betere beveiliging van gegevens tussen de server (van jouw website) en een internetbrowser (zoals Chrome of Internet Explorer). Dit is bijvoorbeeld van belang wanneer je een contactformulier hebt waarop mensen persoonlijke gegevens achterlaten zoals hun naam, hun e-mailadres en hun telefoonnummer. Het certificaat zorgt ervoor dat deze gegevens veilig ingevoerd kunnen worden, zonder tussenkomst van externe systemen die de gegevens proberen te stelen. Behalve dat dit daadwerkelijk veiliger is voor bezoekers die gegevens invullen en je er betrouwbaarheid mee uitstraalt, is het ook belangrijk voor je SEO, omdat Google zijn gebruikers liever naar beveiligde websites stuurt. Je krijgt dan ook een groen vinkje naast de paginatitel in de zoekresultaten.

  • Wanneer je website een SSL-certificaat heeft, begint je URL met https:// in plaats van http://. Heb je dit niet, dan is het belangrijk dat je een SSL-certificaat aanvraagt.

 4. Voorkom duplicate content

Als er iets is waar Google een hekel aan heeft, dan is het duplicate content (dubbele inhoud). Wanneer twee (of meerdere) pagina’s (grotendeels) dezelfde content bevatten, wordt dit gezien als duplicate content, of dit nu twee pagina’s op twee verschillende websites zijn of twee pagina’s op één website.

  • Zorg ervoor dat op een pagina nooit te weinig content staat; dit leidt namelijk sneller tot overeenkomsten met andere pagina’s.
  • Zorg ervoor dat je niet per ongeluk twee (nagenoeg) identieke pagina’s op de website hebt staan.
  • Kopieer nooit zomaar teksten van andere websites. Niet alleen is dit slecht voor je SEO, het is ook plagiaat (en dus strafbaar).

5. Voorkom een trage laadtijd van de website

Een ander belangrijk aspect voor SEO is de snelheid waarmee de pagina’s op je website laden. Google stuurt zijn gebruikers het liefst naar websites waarvan de pagina’s snel laden, omdat het wil dat gebruikers snel antwoord kunnen krijgen op de vragen die ze hebben, snel de informatie kunnen vinden die ze nodig hebben of snel een product kunnen vinden dat ze zoeken. Daarnaast is SEO ook belangrijk voor je conversie: als bezoekers je pagina wel vinden, maar lang moeten wachten voordat deze laadt, sluiten ze de website en gaan ze naar een concurrent. De laadtijd van je pagina’s is dus erg belangrijk.

  • Meet de snelheid van je pagina’s met Pagespeed Insights van Google. Je kunt dan zien hoe Google den snelheid van jouw pagina beoordeeld.
  • Zorg ervoor dat je website voldoet aan de minimale snelheidseisen. Een pagina laadt idealiter binnen 3 seconden.
  • Zorg ervoor dat je website in elk geval net zo snel of zelfs sneller is dan die van jouw concurrenten.

6. Voorkom interne ‘broken links’

Een interne ‘broken link’ is een link op een van je webpagina’s naar een van je andere pagina’s die niet (meer) werkt. Dit kan bijvoorbeeld gebeuren wanneer er een URL-wijziging is of wanneer bepaalde pagina’s offline zijn gehaald. Alle links naar deze ‘oude’ pagina geven vervolgens een 404-fout (‘Page not found’). Het is zowel voor je SEO als voor je conversieratio van belang om deze links zo snel mogelijk te vervangen.

  • Verwijder alle ‘ links’ en/of vervang ze met de juiste link.

7. Voeg ‘structured data’-markering toe

Sommige inhoud op je pagina’s is moeilijker te indexeren voor Google. Een voorbeeld hiervan is een telefoonnummer. Google ziet dit gewoon als een reeks cijfers en begrijpt niet direct dat dit om een telefoonnummer gaat. Ook bijvoorbeeld een bedrijfsadres, reviews van klanten, of prijzen zijn moeilijk voor Google Index om te ‘begrijpen’ en te koppelen aan een bepaalde zoekopdracht. Met structured data leg je aan Google uit waar een bepaald stuk tekst over gaat of wat een bepaalde reeks cijfers betekent. Dit doe je door middel van een markering.

  • Help Google om de informatie op je pagina te begrijpen door structured data te markeren.

8. Voorkom problemen met de trailing slash

Een trailing slash is de forward slash (het schuine streepje) op het einde van een URL. Veel URL’s zijn toegankelijk met en zonder deze schuine streep op het einde. De website: www.mindworkz.nl/blog en www.mindworkz.nl/blog/ werken bijvoorbeeld allebei.

Wanneer beide opties beschikbaar zijn, kan Google deze pagina’s zien als duplicate content. Het zijn twee verschillende URL’s, maar ze hebben exact dezelfde content en lay-out.

  • De oplossing voor dit probleem is om ervoor te zorgen dat de pagina zonder slash aan het einde een redirect heeft naar de pagina mét slash op het einde. Zo kan je bezoeker wel via beide links op je pagina terechtkomen, maar voorkom je dat Google dit ziet als duplicate content.

9. Voorkom redirect chains

Redirect chains zorgen ervoor dat een bezoeker te vaak wordt omgeleid. Wanneer de bezoeker op een interne link op de website klikt, wordt hij eerst doorverwezen naar URL A, daarna naar URL B, etc. Een redirect chain kan oneindig doorlopen, wat een negatieve invloed heeft op je SEO.

  • Zorg ervoor dat elke link op je website direct naar de juiste URL verwijst, zonder ‘tussenstops’.

10. Gebruik geen meta keywords

Meta keywords (niet te verwarren met metatitels en metaomschrijvingen) zijn woorden die je kunt toevoegen aan een pagina. Hiermee kun je aan Google aangeven waar de website over gaat. Vroeger was dit een belangrijke ranking factor, maar omdat er veel misbruik van is gemaakt, heeft Google ze als zodanig verwijderd. Tegenwoordig worden ze meer gezien als spamtechniek en hebben ze dus eerder een negatieve dan een positieve impact.

  • Gebruik géén meta keywords.

 

Beter scoren in Google? Laat een uitgebreide technische scan uitvoeren!

Zoals gezegd zijn bovenstaande tien punten de minimale vereisten waar een website aan moet voldoen om goed gecrawld en geïndexeerd te kunnen worden door Google. Er zijn echter meer dan 150 technische punten die invloed hebben op de plaats waarop jouw webpagina’s scoren in de zoekresultaten van Google.

Wil je beter scoren in Google? Laat ons dan een uitgebreide SEO-scan uitvoeren. Maak een afspraak voor een kennismakingsgesprek om de mogelijkheden voor jou te bespreken.

 

De andere bouwstenen voor een goede website

Naast vindbaarheid hanteren wij nog acht andere bouwstenen bij het ontwerpen, opleveren en onderhouden van websites. Meer daarover lees je hier.

Heb je interesse om een website door ons te laten maken? Of wil je meer informatie over onze werkwijze? Neem dan contact met ons op voor meer informatie.