Har du någonsin loggat in på Google Analytics 4 (GA4) och blivit förvånad över en plötslig, oförklarlig trafikökning? Om trafiken verkar komma från "direkt trafik" och inträffar med regelbundna intervall (t.ex. samma dag varje månad) är det högst troligt att du har besök av en SEO-crawler.
Vad är SEO-crawlers och varför stör de GA4?
SEO-crawlers, som de som används av verktyg som Semrush, Ahrefs och Screaming Frog, är automatiserade bots som systematiskt besöker webbplatser för att samla in data om dem. Denna data används sedan för att bland annat ta fram tekniska SEO rapporter.
Även om dessa crawlers är ovärderliga för SEO-analys kan de orsaka problem i GA4. Problemet är att GA4 inte alltid korrekt identifierar dem som crawlers, och istället registrerar deras besök som "vanlig" trafik. Detta leder till missvisande data och gör det svårt att få en korrekt bild av din webbplats faktiska data.
Varför är detta ett problem?
När SEO-crawlers registreras som vanlig trafik kan det leda till en rad problem, inklusive:
- Förvrängd trafikdata: Trafiktoppar orsakade av crawlers kan göra det svårt att identifiera verkliga trender och mönster i din trafikdata.
- Missvisande målgruppsinsikter: Crawlers beter sig inte som riktiga användare, så deras data kan ge en felaktig bild av din målgrupp.
- Felaktiga konverteringsdata: Om crawlers utlöser händelser som spåras som konverteringar kan det leda till felaktiga konverteringssiffror. Framför allt om du har satt upp konverteringsspårning som sidvisningar av tacksidor.
GA4:s inbyggda botfiltrering - och varför det inte alltid räcker
GA4 har en inbyggd funktion för att filtrera bort bottrafik, inklusive kända crawlers. Men tyvärr är denna filtrering inte perfekt. Vissa crawlers, särskilt de från mindre kända verktyg, kan slinka igenom och registreras som vanlig trafik.
Så här kan du filtrera bort SEO-crawler-trafik
Det finns för närvarande inget bra sätt att filtrera bort SEO-crawler-trafik i GA4. I samband med lanseringen av GA4 så försvann möjligheten att filtrera trafik på ett utökat sätt. Numera kan du endast filtrera bort interntrafik med hjälp av IP nummer.
Då t.ex. Semrush inte använder en fixed IP kan du inte lägga in bottrafiken som filter där. Men om man tittar på trafiken som registreras i GA4 kan man se ett mönster som man kan filtrera bort i rapporter.
Det som är utmärkande för trafiken är att dimensionen “country” i GA4 är (not set).
Se nedan bild:
Så lösningen blir att att filtrera bort trafik där "land" är inställt på "(not set)".
SEO-crawlers identifierar sig ofta inte med ett specifikt land, vilket resulterar i att deras besök registreras med "(not set)" i GA4:s landdimension. Genom att exkludera denna trafik kan du eliminera en stor del av crawler-relaterade besök.
Så här gör du:
- Gå till rapporten du vill titta på
- Klicka på “add filter” (lägg till filter) uppe i vänster hörn
- Lägg till ett filter som bilden nedan:
Ett annat alternativ är att skapa en målgrupp och sedan alltid använda det istället för all trafik. Dock ska du komma ihåg att den målgruppen börjar samla in data från den dagen du startar målgruppen och kommer därför inte att ge någon meningsfull information innan du faktiskt har samlat in data i målgruppen under en lång period.
Viktigt att tänka på
- Denna lösning är inte perfekt: Vissa legitima användare kan också ha "(not set)" som land, så du kan förlora en liten mängd verklig trafik.
- Övervaka effekten: Håll ett öga på din trafikdata efter att du har tillämpat filtret för att se hur det påverkar dina siffror.
Fördelarna med att filtrera bort SEO-crawler-trafik
Genom att filtrera bort SEO-crawler-trafik från GA4 kan du:
- Få mer exakt trafikdata: Du får en tydligare bild av hur riktiga användare interagerar med din webbplats.
- Förbättra din målgruppsanalys: Du kan fatta mer välgrundade beslut om din marknadsföring och innehållsstrategi.
- Få mer tillförlitliga konverteringsdata: Du kan spåra dina konverteringar mer exakt och identifiera vilka kanaler som ger bäst resultat.
Slutsats
SEO-crawlers är ett viktigt verktyg för alla som arbetar med SEO, men de kan också orsaka problem i GA4 genom att förvränga din data. Genom att filtrera bort trafik där "land" är inställt på "(not set)" kan du minska påverkan av crawlers och få en mer korrekt bild av din data.
Kom ihåg att ingen lösning är perfekt, och det är viktigt att övervaka effekten av eventuella filter du tillämpar. Men genom att ta kontroll över din data kan du fatta bättre beslut och förbättra din webbplats resultat.
Vill du ha hjälp med GA4? Ta kontakt med någon av oss på Contitude!