Geschreven door sjoerd op

Ongeveer 1,5 maand geleden rolde Google Panda 4.0. uit. Google Panda is onderdeel van het Google algoritme en bestaat sinds 2011. Na het uitrollen van Panda 4.0 zijn er veel websites die getroffen zijn en meer dan 50% van hun organische verkeer verloren. Vooral in Amerika verloren grote websites veel verkeer. Enkele grote verliezers waren Ebay.com (33%) en Cheapflights.com (33%). Natuurlijk waren er ook winnaars zoals shopstyle.com (+250%) en medterms.com (+500%).

Ben jij zelf ook slachtoffer geworden van een daling in je organische verkeer? Merk je ook dat je posities/verkeer dalen? Is dit allemaal gebeurd in de periode 1 mei – 1 juni? Dan kun je er vanuit gaan dat dit komt door de nieuwe Panda update. Wat moet je doen om deze daling te stoppen en om te laten keren?

Een van de mogelijkheden die ik de afgelopen weken tegenkwam is het blokkeren van Javascript en CSS bestanden. Als je namelijk de Google Webmaster Tools van je website induikt heb je de optie om een pagina te fetchen als Google. Sinds kort hebben ze daar een functie toegevoegd: ophalen en weergeven (zie afbeelding).

Fetchen als GoogleHierdoor krijg je inzicht in hoe Google de pagina fetcht. Bij een aantal websites kwam ik tegen dat Google deze pagina’s niet goed kon weergeven (zie onderstaande afbeelding).

Fetchen als google

 

Dit komt doordat CSS en JS bestanden worden geblokkeerd in de robots.txt. Google roept elke keer als hij een website bezoekt het robots.txt bestand op. In deze robots.txt staan regels die het Google-bot moeten begeleiden. Om ervoor te zorgen dat Google de pagina juist kan weergeven, moet in de robots.txt GEEN JS en CSS bestanden uitgesloten worden. Google heeft dit zelf ook bevestigd op de SMX liveblog.

SMX blog Google

Natuurlijk is voorkomen altijd beter dan genezen en heb je liever dat je organische groei bewerkstelligt. Hieronder een aantal onderdelen van SEO waar elke website aan moet voldoen:

  • Zorg voor relevante content op je website die van goede kwaliteit is.
  • Presenteer je content op een manier die interessant is voor de gebruiker. Schrijf richting de gebruiker!
  • Pas pagina’s met content van lage kwaliteit aan of verwijder deze pagina’s.
  • Zorg ervoor dat je relevante meta data hebt om zo relevant mogelijk pagina’s te krijgen.
  • Verwijder links naar “slechte” kwaliteit websites.
  • Gebruik niet onnodig veel het zoekwoorden in teksten.

Op zoek naar een SEO specialist die jouw robots.txt controleert? Zeo kan voor jouw website een server log analyse uitvoeren. In een server log analyseren wij alle verzoeken van Google aan de server en aan de hand daarvan wordt er een robots.txt. opgesteld. Wil je weten wat wij kunnen betekenen? Neem dan contact met ons op!

| Contentmarketing | Conversie Optimalisatie | Display Advertising | Google AdWords | Google Analytics | Google overig | Klantcases | Nieuws | Social Media | Webdesign | Webshops | WordPress | Zo Zeo | Zoekmachine optimalisatie |

Geef een reactie