Geschreven door mariska op

Duplicate content, 301 redirect en robots.txt

Veel website eigenaren hebben deze termen al vaak voorbij zien komen. Op het moment dat dergelijke dingen ter sprake komen, worden ze veelal doorgestuurd naar de programmeurs/ontwikkelaars. Maar wat betekenen deze termen nou precies? Hoe belangrijk zijn ze?

Duplicate Content

Pagina’s die zoekmachines op een site tegenkomen die erg lijken of exact hetzelfde zijn als andere pagina’s. Dit kan onder andere komen door verkeerde instellingen of een verkeerde manier van intern en extern linken. Een belangrijke factor, die de oorzaak kan zijn van slechte resultaten in de zoekmachines. Het is dus zaak om dit goed te laten screenen en op orde te hebben.

301 redirect

‘Redirect’ is een veel voorkomend begrip dat erg belangrijk is als je wilt dat verplaatste content door zoekmachines wordt gevonden. Ze worden vaak gebruikt ten behoeve van zoekmachine optimalisatie.

Wanneer de inhoud van een pagina wordt verplaatst, moeten zoekmachines op de hoogte gehouden worden van waar deze pagina te vinden is. Dit gebeurt door middel van een permanente 301 redirect. In feite is dit niet meer dan het automatisch doorsturen van bezoekers en zoekmachines naar de locatie waar de content te vinden is. Toch gaat dit op veel websites niet altijd goed en worden er geen redirects ingesteld waardoor duplicate content ontstaat. Terwijl dit een belangrijke factor is om hoog te scoren in de natuurlijke resultaten.

Canonical tag

Een vrij nieuwe term die steeds vaker terugkomt. De canonical tag doet voor de zoekmachines ongeveer hetzelfde als een 301 redirect, alleen wordt de bezoeker niet doorgestuurd naar een andere pagina. Met de canonical tag geef je aan de zoekmachines aan dat de pagina bijna of exact hetzelfde is al een andere pagina en wordt er in de bron verwezen naar de “voorkeurs url”. Wanneer je bijvoorbeeld twee pagina’s hebt zoals:

duplicate content paginas

kun je op de tweede url aangeven dat dit een duplicaat is van de bovenste url door de volgende canonical tag te gebruiken.

canonical-tag

Hiermee geef je aan dat alle inkomende links, pagerank en andere waarde doorgegeven moeten worden aan de voorkeurs URL en voorkom je dat dubbele pagina’s met elkaar concurreren om hoog in de natuurlijke resultaten te komen.

Robots.txt

Klinkt heel ingewikkeld maar het is niet meer dan een tekstbestand waarin je bijvoorbeeld bepaalde mappen/urls kunt aangeven die zoekmachines moeten negeren. En dit doen ze dan ook, maar niet als andere websites linken naar deze urls, dan negeren de zoekmachines de robots.txt en verschijnen deze gewoon in de zoekresultaten en heb je dus duplicate content.

Vaak als wij klanten attenderen op duplicate content krijgen wij de volgende vraag “kunnen wij de dubbele pagina’s niet blokkeren in de robots.txt”?, ons antwoord hierop is dan ook “Nee”. Tenminste, het is niet de beste manier.

Zoals ik al heb aangegeven is het erg belangrijk dat je website GEEN duplicate content heeft. Ben je benieuwd of je site dubbele content heeft? Neem contact met ons op zodat wij dit voor je kunnen nakijken.

| Contentmarketing | Conversie Optimalisatie | Display Advertising | Google AdWords | Google Analytics | Google overig | Klantcases | Nieuws | Social Media | Webdesign | Webshops | WordPress | Zo Zeo | Zoekmachine optimalisatie |

Geef een reactie