linkowanie stron pytania i odpowiedzi

Ściągamy filtr algo lub ręczny. Czym się sugerować?

Ostatnim czasie pisałem o programie autorstwa Nanomedia o nazwie SEOodkurzacz. Po użyciu programu strona internetowa wraca na dawne pozycje, co prawda nie z takim impetem jak przed filtrem ale wraca z tygodnia na tydzień jest bliżej niż dalej top10.

Ręczne moderowanie linków prowadzących do strony internetowej i  przeglądanie z panelu GWT było by niemożliwe, ponieważ strona byłą silnie linkowana przez konkurencje i nieudolnie pozycjonowana przez firmę pozycjonerską. Posiadała bardzo dużo linków, które były bardzo złej jakości.

Filtr ustąpił po około 2 miesiącach po dodaniu linków do zarzeknięcia się linków w panelu GWT. I niestety mam wrażenie jak by na jedną z fraz nadal się utrzymywał, ponieważ pozycja lawiruje od 70 do 100 pozycji. Wygląda to tak, po dodaniu linków z daną frazą strona wskakuje na pozycje 70 potem, jakby magiczna siła ściągała ją na pozycje 100. Dziwne co nie? Na inne frazy jest wszystko ok. Pozycje utrzymują się na razie w top20 top50 po dołożeniu linków będę bacznie obserwował co się będzie działo.

Czy nastąpi progres czy regres? Ale to się okaże dopiero za około 1 – 2 miesiące. Czy dołożona ilość linków była odpowiednia?

 

Jak skutecznie ściągnąć filtr algorytmiczny?

Filtr algorytmiczny – nie wiadomo tak naprawdę czy istnieje i jak go rozpoznać. Jednak jak strona www padnie ofiarą to z cała pewnością tracimy ruch, tracimy pozycję, a dodawanie linków kończy się fiaskiem. Ponieważ pozycja zamiast rosnąć to spada.

Aby skutecznie korzystać z takich programów musimy wiedzieć że nie każdy link jest szkodliwy. Nawet te które mogą się wydawać na szkodliwe. Ja odniosłem sukces ponieważ kierowałem się wcześniej ustalonymi regułami.

  • W pierwszym etapie ściągnąłem linki które są na „SPAM stronach”, gdzie powtarza się nagminnie treść – gdzie teksty były bardzo złej jakości.
  • Drugim elementem jakim się kierowałem to to, ile na danej podstronie jest linków zwrotnych jeśli było ich dużo to taką stronę dodawałem do GWT.
  • Trzecim elementem było to gdzie prowadzą linki na danej podstronie, czy to nie strony o „viagrach”, „pilsach” i innych dziwadłach.
  • Czwartym elementem to było to na jaką frazę został zamieszczony link. Czyli jeśli nagminnie powtarzała się fraza to likwidujemy link, wysyłając do administratora i prosimy o usunięcie postu, wpisu.
  • Piątym elementem to dołożenie linków z innymi anchorami tak żeby było naturalnie. Tak aby fraza główna miała zaledwie kilka procent w linkach.
  • Szóstym dołożyłem około 35% nowej treści na stronie, pozmieniałem stronę, i meta znaczniki.

Po kilku miesiącach walki możemy odzyskać stronę i jej pozycję. Ja w pewnym momencie już nic nie robiłem bo ta domena już miała wszystko. Filtr ręczny z komunikatem o nienaturalnych linkach potem po 3 miesiącach załapała się na filtr algorytmiczny. I już myślałem że nie ma dla niej nadziei.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

CommentLuv badge