Startsida › Forum › E-handelsforumet › Marknadsföring › Vad beror google trafikförändringar på?
- Detta ämne har 3 svar, 3 deltagare, och uppdaterades senast för 12 år, 5 månader sedan av blogtraction.
-
FörfattareInlägg
-
11 juli, 2012 kl. 20:38 #98431blogtractionDeltagare
Hej. Vi har haft stadig trafik ett tag på http://www.dandyville.se, men i maj så sjönk den till ca 10% av normaltrafiken. Idag gick den upp på normala nivåer igen. Se bild. Är det någon som har koll på varför det blir så? Vi har inte ändrat något på siten. Det måste ju bero på att google på något sätt begränsar trafiken för att sedan slå på den igen. Det är alldeles för tydliga ändringar för att det ska bero på något annat. Det är också googletrafiken som fluktuerar enligt analytics. Tacksam för svar. SEO börjar ju bli så pass avancerat nu att man måste göra användarvänliga webbsidor med intressant innehåll…
11 juli, 2012 kl. 21:39 #148647DanDeltagareHar du analyserat sökorden som ger trafik innan och efter? Sett hur du rankar på dem innan och efter?
Spontant är det sommar/sol men känns iofs långsökt att du får så abrupt trafiktapp men inte teoretiskt omöjligt med säsongsvariationer som ser ut så.
Sitens ålder osv o trafik innan grafen börjar är ju också intressant.
11 juli, 2012 kl. 21:51 #148648ParvelitoDeltagareNu skriver jag som om du vore nybörjare, vilket jag inte alls tror att du är, men många verkar glömma bort basen till vad Google gör.
Google har som princip att de sidor som det är troligast att en person som söker vill ha upp i sitt sökresultat skall stå överst. På en massa olika språk. Och de är rätt duktiga på att känna av vilka sorts ord man söker på. Söker man t.ex. på ”postdiligens” så får man upp kunskapsorienterade sajter först, med wikipedia i topp. Söker man däremot på ”sockerskål” så får man upp webshopar som säljer just det, och ingen wikipediaartikel som förklarar vad det är.
Google har en väldig massa olika parametrar för att försöka ranka vilken sida den sökande troligen helst vill se. Det gör de utifrån sidans innehåll, hur ofta den uppdateras, hur snabbt den laddas och inte minst om någon annan rekommenderat sidan genom att länka till den.
Google inser naturligtvis att det finns en massa sätt att försöka lura dem, så att sidor som de sökande inte alls är så intresserade av hamnar överst. Därför använder man olika filter som då och då uppdateras i större eller mindre grad. Målet torde vara att få en så låg andel bounce som möjligt från sina sökresultat, för en bounce tyder ju på att den som sökte inte fann vad denne ville ha där.
Jag har förstått att Google testar mycket, slår på ett antal parametrar i filtren, mäter och blev det inte bra så ställer man tillbaka några parametrar och testar något annat. Tyvärr är de ju inte så transparenta med att berätta hur algoritmen ser ut.
Men en personlig åsikt är att om man har en sida som åker jojo i SERP:en så har man pysslat med något som Google identifierat som möjligt försök att få en bättre placering än vad de sökande tycker att man skall ha. Även om man får tillbaka sin position efter en tid när Google tyckte att det inte blev bra med den förändring man gjorde så finns det all anledning att börja ställa sig frågan varför man hamnade i ett filter från början. Sannolikheten är stor för att Google putsar lite på uppdateringen och lägger ut den igen.
11 juli, 2012 kl. 23:10 #148651blogtractionDeltagareSka kolla mer på om det skiljer sig i sökord före och efter. Tack för tipset Dan.
Vad gäller jojo i serpen så är det här ett enstaka trafiktapp och är därför mycket intressant ur seo perspektiv för oss. Vi har inte sysslat med några fulknep vad vi vet. Förutom att kopiera allt innehåll på siten från product feeds förstås. Så egentligen förtjänar vi väl inte mycket trafik då vi egentligen kannibaliserar på andras innehåll. Dock så ger vi bra trafik till våra annonsörer och mervärde för besökaren med nya sätt att sortera, prisbevakning etc.
Trodde först att det var penguin-filter eftersom det är tänkt att slå mot kopierat innehåll. (har jag läst på nätet iaf. Googla på penguin duplicate content) Dvs att det klassas som en thin affiliate site. Men börjar undra nu när trafiken kommer tillbaka. Jag var helt inne på att automatiskt redigera produkttexter med search and replace för att undvika kopierat innehåll-filter. En manuell article spin på vår egen site med eget editerat innehåll. Men vet att google har avacerade algoritmer för att hitta just detta. Var dock värt ett försök då trafiken var nere på så låga nivåer.
Nu struntar vi nog i det. Dock är det här exemplet lysande för att påvisa det svåra med seo. Siter dippar och kommer sen tillbaka, utan att man ändrat någonting. Hyggligt dynamisk miljö att verka i om man jobbar med seo.
Är inget seo-proffs själv men försöker att undvika misstag i möjligaste mån. Är en slarver med vissa projekt pga tidsbrist. Så det här exemplet ska bli mycket intressant att följa. Pga att den fått sån skarp upp och nedgång och att den är nästan helt uppbyggd på product feeds.
-
FörfattareInlägg
- Du måste vara inloggad för att svara på detta ämne.