Waarom marketeers de acties van klanten moeten controleren: 5 mini-cases

Wanneer een ondernemer geconfronteerd wordt met een sterke daling van het zoekverkeer en de oorzaak niet alleen kan vinden, neemt hij contact op met een internetmarketingbureau. In dergelijke gevallen beginnen zoek marketeers te werken met een auditsite. Uitgebreide inspectie is nodig om de oorzaken van dalende aanwezigheid te bepalen en manieren te vinden om problemen op te lossen.

Bij het uitvoeren van een audit controleren searchmarketeers herhaaldelijk de site met behulp van verschillende services en hulpmiddelen om technische problemen op te sporen. Deze problemen leiden vaak tot een scherpe daling van het organische verkeer.

Na het voltooien van de test, bieden marketeers klanten een rapport over de gevonden fouten en een plan om ze te elimineren. Theoretisch begint vanaf dit punt het herstel van de positie van de site. Als de site-eigenaren het foutcorrectieplan zelf uitvoeren, kunnen ze echter extra moeilijkheden ondervinden. Onjuiste uitvoering van het plan levert niet alleen niet het gewenste resultaat op, maar verergert ook de situatie. Het is opmerkelijk dat de eigenaren van de site hun fouten misschien niet opmerken en beschuldigen het internetmarketingbureau van de ineffectiviteit van het audit- en resourceontwikkelingsplan.

Om dit probleem op te lossen, moeten marketeers de acties van site-eigenaren volgen. Dit kan worden gedaan met behulp van speciale services en programma's, evenals handmatig testen van de bron. Hoe helpt dit om fouten te corrigeren en serieuze tegenslagen te voorkomen? Lees hieronder.

Hoe re-checks helpen bij het snel vinden van technische problemen: 5 voorbeelden

Herhaalde scans en handmatige controles maken het mogelijk om technische problemen tijdig te vinden en op te lossen. De volgende voorbeelden uit de praktijk van internetmarketingbureau G-Squared Interactive tonen het belang van het gebruik van het principe van "vertrouwen maar verifiëren":

  1. Cloaking en heroptimalisatie van interne links

In het Amerikaanse internetmarketingbureau werd G-Squared Interactive eigenaar van een grote site met een nummer van enkele miljoenen pagina's. Tijdens de audit hebben bureauspecialisten vastgesteld dat de problemen met zoekresources gepaard gaan met een te grote hoeveelheid en heroptimalisatie van interne links. Experts aanbevolen om navigatie te vereenvoudigen en het aantal links te verminderen.

Na verloop van tijd vertelde de site-eigenaar aan zoekmarketeers dat het natuurlijke verkeer van de site laag was, ondanks de implementatie van aanbevelingen. Na de site te hebben bezocht, zagen experts van het bedrijf dat navigatie echt eenvoudiger werd en het aantal links afnam. De zoekmachines hebben de positie van de site in het probleem echter niet vergroot na het aanbrengen van wijzigingen. Daarom hebben experts besloten om de site te bekijken met tools voor webmasters Google.

Uit de controle bleek dat de eigenaar van de site complexe navigatie en geoptimaliseerde links van gebruikers had verborgen, maar ze niet van de site verwijderde. Links blijven zichtbaar voor zoekmachines.

Zoekmachines leggen strenge sancties op aan middelen die verhulling of de weergave van verschillende gegevens voor zoekrobots en gebruikers mogelijk maken. In dit voorbeeld hebben de site-eigenaren sancties vermeden, omdat de experts van het bureau tijdig een schending van het beleid van zoekmachines hebben geconstateerd. Verborgen koppelingen en navigatie zijn binnen een paar uur verwijderd, waarna de positie van de site in het probleem is hersteld.

  1. Affiliate marketing

De eigenaar van de informatiebron, die 1,5 miljoen pagina's heeft, wendde zich tot het bureau vanwege de sancties die zijn ontvangen na de implementatie van het Google Panda-algoritme. De eigenaar verdiende geld door advertenties weer te geven en partner (affiliate) marketing. Het staat open voor indexering van gelieerde links veroorzaakt Panda straf.

Na het voltooien van de audit stelden de experts van het bureau voor om de gelieerde links van de site in twee groepen te combineren. In de eerste groep werd voorgesteld om links op te nemen die geen inkomsten genereren. In de tweede groep zouden er links moeten zijn die voor de eigenaar belangrijk zijn vanuit financieel oogpunt. Volgens zoekmarketeers zouden alle links van de eerste groep moeten zijn verwijderd. Links van de tweede groep werden voorgesteld om te sluiten met het nofollow-attribuut. Het bureau heeft ook aanvullende stappen aanbevolen om de kwaliteit van de bron te verbeteren.

Na een paar weken hebben searchmarketeers de site opnieuw gecontroleerd. Op het eerste gezicht belichaamde de eigenaar van de bron nauwkeurig de aanbevelingen van experts. Hij heeft de oude gelieerde links verwijderd en het nieuwe nofollow-kenmerk gesloten. Deskundigen hebben echter verschillende pagina's gevonden met veel open naar indexerende externe links.

Tijdens het gesprek met de eigenaar van de bron bleek dat hij ooit zijn eigen catalogus met partnerlinks had gemaakt en gepubliceerd. Dan is de eigenaar deze links veilig vergeten. Na een aanvullende discussie heeft de eigenaar van de bron enkele links uit zijn catalogus verwijderd en de rest is afgesloten met het kenmerk nofollow. Dat was genoeg om de Panda-sancties op te heffen.

  1. Robots metatag-duplicatie

Onjuist gebruik van de Robots-metatag kan rampzalig zijn voor een SEO-site. Dit wordt bevestigd door het volgende voorbeeld uit de praktijk van het bovengenoemde bureau. Zoekmachinemarketeers werden benaderd door de eigenaar van een online winkel die niet alle pagina's van de site kon laten indexeren door zoekmachines. Tijdens de audit kwamen de experts er snel achter dat de crawlers die pagina's van de site omzeilden, in de robots-metatag waarvan de waarde is ingesteld op noindex, nofollow. Experts raadden de site-eigenaar aan om pagina's voor indexering te openen.

Als u wilt dat zoekmachines pagina's indexeren, moet de metatag voor robots de waardenindex hebben, gevolgd door :. Als u de pagina wilt sluiten van indexering, gebruikt u de waarden noindex, nofollow :.

Nadat de aanbevelingen waren voltooid, indexeerden de zoekrobots de pagina's echter niet. Herhaalde handmatige verificatie van de HTML-code van de site bracht duplicatie van de Robots-metatags aan het licht. In dit geval was de index in de eerste metatag open en in de tweede was deze gesloten.

Zoals u weet, kiezen robots bij het dupliceren van opdrachten de meest beperkende regels. Daarom bleven de pagina's van de site in dit geval niet-geïndexeerd. Door dubbele Robots-metatags te verwijderen, bereikte de site-eigenaar snel pagina-indexering.

  1. Paginakoppen dupliceren

Heroptimalisatie of onjuist gebruik van headers en metadata zijn enkele van de meest voorkomende redenen om de positie van sites in het probleem te verminderen. Dit is te zien aan het voorbeeld van een informatiesite waarvan de eigenaar lange tijd de redenen voor de daling van het zoekverkeer niet kon begrijpen. Bovendien slaagden accountants van marketingbureaus er ook niet in om fouten van de eerste keer te vinden.

Uiteindelijk heeft het analyseren van de resultaten van een sitescan met Screaming Frog geholpen om de duplicatie van paginakoppen te bepalen. Vanwege technische onvolkomenheden had CMS in elke categorie van de pagina op het tweede niveau een gemeenschappelijke titel, die samenvalt met de titel van de categorie van het eerste niveau.

Aldus werden honderden of zelfs duizenden pagina's met identieke koppen de reden voor de lage ranglijst van de site. In dit geval leidde deze fout niet tot een boete. Zoekmachines hebben echter geen rekening gehouden met pagina's met niet-unieke, titelrelevante gebruikersverzoeken.

De site-eigenaar heeft de nodige wijzigingen aangebracht in de CMS, waarna elke pagina op het tweede niveau een unieke titel heeft gekregen. Daarna herstelde het natuurlijke verkeer naar de site.

  1. Canonical url

Het gebruik van canonieke URL's helpt dubbele inhoud te voorkomen. Onjuist gebruik van het kenmerk rel = "canonical" leidt echter soms tot rampzalige gevolgen voor sites.

De eigenaar van de online winkel wendde zich tot een marketingbureau met een traditionele klacht over de daling van het verkeer. Tijdens de audit identificeerden searchmarketeers het inconsistent gebruik van canonieke URL's. Sommige pagina's van de site hadden een bijbehorend attribuut en op andere pagina's ontbrak het.

Experts hebben aanbevolen dat de broneigenaar canonieke URL's aan elke pagina toevoegt. Veranderingen veroorzaakten geen moeilijkheden: de eigenaar voegde eenvoudigweg één regel toe aan de HTML-code van de pagina's. Het verkeer naar de site is echter niet hersteld.

Bij het opnieuw controleren van de bron werd een fout aangetroffen: de links in de canonieke URL-tag bevatten hoofdletters en kleine letters, terwijl de originele links slechts kleine letters bevatten.

Als gevolg van deze fout werden alle pagina's weergegeven als canonieke URL's die naar niet-bestaande pagina's leiden. Het is niet verrassend dat de online winkel vrijwel geen organisch verkeer ontving. De site-eigenaar loste het probleem snel op door de fout in de links te corrigeren.

Vertrouw maar verifieer

Vertrouwen is een voorwaarde voor succesvolle samenwerking tussen marketeers en site-eigenaren. Als klanten echter zelf plannen voor de ontwikkeling van de site willen implementeren, moeten zoekexperts voor zoekmachines hun acties volgen. Dit is noodzakelijk om beschuldigingen van slechte audits te voorkomen en ondoeltreffende stappen te suggereren om de site te optimaliseren.

Marketeers kunnen sites controleren met behulp van services en software. Ze kunnen bijvoorbeeld de hulpprogramma's gebruiken voor Google en Yandex webmasters, Google Analytics en Yandex.Metrica, Netpeak Spider, Screaming Frog en andere hulpmiddelen. Ook moeten specialisten de handmatig aangebrachte wijzigingen evalueren, door selectief de paginacode en de resultaten van het probleem te controleren.

Denkt u dat site-eigenaren onafhankelijk kunnen werken met sites op aanbeveling van marketeers? Moeten marketeers in dit geval klanten controleren?

Bekijk de video: 20 Feiten en Fabels over Afvallen en Gezond leven. OPTIMAVITA (November 2019).

Loading...

Laat Een Reactie Achter