Jak w WordPress zablokować boty – digital ocean inc. z Google Analytics

Ostatnimi czasy Google Analytics nie wycina z ruchu organicznego, który widzimy w panelu całego ruchu botów.

Możemy temu zaradzić, dodając do pliku .htaccess w naszym głównym folderze listę IP botów, które nie powinny gościć na naszym serwerze:

Dodatkowo możemy wykluczyć też boty SEO, kradnące treści na naszych WordPressach:

I tak dla bonusowego uzupełnienia górna konstrukcja .htaccess wyglądać dla świętego spokoju (choć nie do końca) powinna tak (pamiętajcie o zmianie domain.tld na swoją domenę):

 

Jak osiągnąć wyższe pozycje w wynikach wyszukiwania Google dla małych stron

matt-cutts-formularz-zgloszenia-stronyMatt Cutts pochwalił się na Twitterze, stworzono formularz do zgłoszenia naszej strony www. Można zgłosić swoją stronę, aby algorytm Google lub zespół Google popatrzył na naszą stronę bardziej łaskawym okiem.
Należy umieszczać tam małe strony, ale definicji ‚małe’ już Matt nie przekazuje.
Dane, do umieszczenia w formularzu to adres strony do rozpatrzenia oraz uzasadnienie (tu trzeba wykazać się kreatywnością 😉 )
Jest to lek na macosze traktowanie małych stron przez indexer, a zarazem szansa na podbicie pozycji swojej strony w wynikach wyszukiwania.
formularz-zgloszenia-rozpatrzenie-strony-w-serp

tworzenie-zaplecza-linkow

Studium przypadku budowy zaplecza dla witryny z branży meblarskiej

Propozycja budowy zaplecza dla przedsiębiorstwa z branży meblarskiej. Aktualna strona stanowi wsparcie dla handlowo-wizerunkowe firmy Mebelskol, działającej na rynku lokalnym firmy, kompleksowo wyposażającej szkoły i biura w sprzęt i narzędzia.

Historia i status aktualny strony www Firmy

Firma istnieje od 1993, kontynuując tradycję ogólnopolskiej sieci zaopatrzenia szkół Mebelskol, która to sieć stanowiła monopol na tym rynku przed rokiem 1989. Dzięki długoletniej współpracy ze szkołami ma ugruntowaną markę. Z powodu łatwiejszego dostępu do sieci, większej świadomości istnienia konkurencji przez szkoły i sporej rosnącej konkurencji Firma musiała radykalnie ciąć koszty, przenosząc działalność niektórych działów do zewnętrznych podmiotów. Zadaniem powstałej w 1998 roku strony WWW, było przede wszystkim ułatwienie dotarcia potencjalnym klientom do oferty Firmy, a dotychczasowym klientom – zorientowanie się w nowościach, bez konieczności wykonywania połączeń telefonicznych. Do roku 2006 strona internetowa stanowiła jedynie wizytówkę firmy w Internecie, wraz z informacją o podstawowych obszarach działania Firmy i kilkudziesięcioma produktami. Całość strony stworzona była niechlujnie w zakresie kodu (m.in. blokowanie spiderów) jak i grafiki (całkowicie nieużyteczne i niespójne z identyfikacją graficzną Firmy kolory i prezentacja produktu). W roku 2006 została przygotowana i strona WWW wraz z 2000 produktów, która w 2009r. została przebudowana, zaktualizowana pod kątem wyszukiwarek i użyteczności, a jej start przewidziany jest na 1 lutego 2010r.

Cel, potrzeby i sposób budowy zaplecza strony www

Zarząd Firmy zauważył wzrost sprzedaży dzięki stronie WWW, która w 2008 roku stanowiła już 40% całości obrotu, pomimo istniejącej grupy tzw. hard-userów, silnie związanych z Firmą w świecie off-line. Była to spora część przychodów zwłaszcza, że do tej pory aspekt udziału znaczenia strony WWW w dochodach był raczej marginalizowany. W 2009 roku została wydana decyzja o podjęciu działań zmierzających do rozszerzenia zaplecza linków, pozycjonowania strony na  zwiększenia rozpoznawalności marki.

Należało wypracować z Firmą cele, które ma spełniać witryna (konwersje, czyli kontakt z oddziałem w celu zamówienia produktów), a także ogólną strategię pozycjonowania, uwzględniającą określenie grupy docelowej, listę działań do podjęcia przy tworzeniu zaplecza i pozycjonowania strony. Stworzenie takiej strategii nie było wcale proste – klienci offline byli dobrze znani i byli to stali klienci; w odróżnieniu do nowej witryny klientów online należało zidentyfikować, sparametryzować i opisać psychograficznie. Założono, iż grupa docelowa to dyrektorzy techniczno-administracyjni placówek publicznych, edukacyjnych, kulturowych i oświatowych, biur, a także osoby odpowiedzialne za zamówienia publiczne. Wzięto pod uwagę osoby z miast powyżej 10000 mieszkańców, które wcale lub sporadycznie dokonują zakupów online. Dla określonej grupy docelowej została stworzona strategia działań SEM, których przeprowadzenie warunkowało wzrost pozycji strony docelowej w SERP, co miałoby przełożenie na konwersje – w tym przypadku skontaktowanie się z centralą firmy i dokonanie zamówienia:

  • Wybrano hosting zlokalizowany w Polsce (target to Polacy, więc ping i szybkość ładowania strony jest tu istotna), dokonano wyboru silnika pod przyszłą stronę pod kątem bezpieczeństwa, możliwości rozwoju i optymalizacji, elastyczności modyfikacji i częstotliwości aktualizacji – wybór padł na darmowy, charakteryzujący się bardzo dużą ilością wdrożeń i rozszerzeń – system WordPress
  • Dokonano monitoringu konkurencji – działań SEM, public relations, doboru słów kluczowych i działań on-site. Na tej podstawie została przygotowana strategia podobnych działań, zmierzających do przewyższenia ilości odwiedzin strony docelowej w porównaniu ze stronami konkurencji w okresie 12 miesięcy.
  • Dokonano analizy słów kluczowych – skupiono się na optymalizacji przyszłego serwisu pod kątem strategii Long Tail – głównym źródłem odwiedzin strony z wyszukiwarek wybrano hasła 2-5 wyrazowe. Do budowy słów użyto narzędzi (m.in. Google External Tool, SEOmoz tools, Keyword Elite). Do wygenerowanej listy słów kluczowych stworzono zoptymalizowane strony – landing pages (pod kątem możliwości nawiązania kontaktu) – z odpowiednią ilością zagęszczenia i zaakcentowania (pogrubienie, kursywa) słów kluczowych, zoptymalizowaną konstrukcją tytułu, meta-tagów, grafik, zdjęć i formatowaniem treści (użycie znaczników html). Long tail dotyczył pozyskania ruchu z zapytań w wyszukiwarkach o konkretne produkty lub ich funkcjonalności – w tym miejscu klient wie czego potrzebuje, więc pozyskanie takiego użytkownika bliskie jest 100% prawdopodobieństwu, że ten dokona konwersji.
  • W oparciu o wygenerowaną listę słów kluczowych została stworzona mapa strony WWW, której podstrony rozbudowano o kolejne podstrony zależne, docelowo przejmujące ruch z długich zapytań wyszukiwania (long tail – np. „nauczanie zintegrowane pomoce dydaktyczne”, czy „anatomia człowieka modele narządy wewnętrzne”)
  • Dla uzyskania wejść z wyszukiwarek na zapytania na krótkie – 1-2 wyrazowe zapytania (short tail / head) wybrano kombinacje haseł związanych z marką, lokalizacją i kategorią towaru (np. „globusy”, „meble Warszawa”, „wyposażenie szkół”, „krzesła Nowystyl”)
  • Zoptymalizowano kod pod kątem szybkości ładowania, łatwości penetracji przez spidery i łatwości indeksowania przez indexer. Niektóre strony (formularze, instrukcje ogólne, strony tematycznie nie związane z treścią odpowiedzialną za konwersje) zostały wyłączone z indeksacji, a odwołania do stron niepożądanych zostały  oznaczone znacznikiem rel=”nofollow”.
  • Stworzono mapy stron – nawigacyjną dla użytkowników oraz dla spiderów, która została podłączona do systemów indeksujących i społecznościowych (Friendfeed, Google Webmaster Tools, Twitter, Blip), przygotowano plik robots.txt
  • Przygotowano strony błędów oraz miejsca nawigacji i zoptymalizowano je pod kątem użyteczności
  • Zrealizowano organizację i strukturę linkowania wewnętrznego i na tej podstawie rozpoczęto realizację budowy zaplecza linków zewnętrznych

Podstawowym zadaniem było zwiększenie zasięgu w dotarciu do  nowych klientów na terenie całej Polski, w zakresie krytycznych obszarów działalności Firmy. Do realizacji tego celu zostały podjęte następujące działania:

Działania online

Działania związane z optymalizacją witryny (w tym naturalne pozyskiwanie zaplecza)

  • Stworzenie nowej strony, opartej na silniku WordPress (darmowy, łatwa instalacja, obsługa, elastyczność, bezpieczeństwo, możliwości aktualizacji i rozwoju, wsparcie tysięcy programistów i posiada wersję polską)
    • Optymalizacja kodu pod kątem SEO (odpowiednie tytuły, meta tagi , opisy grafik i linków, przyjazne linki, nagłówki h1-h6, optymalizowanie kodu wg wskazówek Google Webmaster Tools, szybkość ładowania strony, optymalizacja struktury treści) z systemem wewnętrznego linkowania
    • Utworzenie kilku możliwości nawigacji (menu, okruszki/breadcrumb, mapa strony, tagi, wyniki wyszukiwarki wewnętrznej, podpowiedzi stron podobnych (produkty powiązane), tworzenie stron ulubionych
    • Optymalizacja użyteczności witryny (typografia, widoczność linków, modyfikacja arkuszy stylów, spójność identyfikacji wizualnej, czytelność grafik i treści, światło wokół modułów, intuicyjne nawigowanie użytkownika do miejsc, których poszukuje)
    • Tworzenie treści czytelnych dla ludzi i spiderów – pisanie prostym, zrozumiałym językiem z odpowiednim nagromadzeniem słów kluczowych na stronie, używanie znaczników html do akcentowania najważniejszych treści, tworzenie tekstów reklamowych
    • Tworzenie materiałów atrakcyjnych do przekazywania między użytkownikami (atrakcyjne promocje, niestandardowe produkty) i uzyskiwanie odwołań do strony docelowej

Działania zewnętrzne

  • Stworzenie sklepów tematycznych, w których nowi i obecni klienci Firmy mogą bezpośrednio zamawiać towary – daje to możliwość odciążenia działu obsługi klienta w procesie zamawiania
  • Skierowanie do zarejestrowanych użytkowników cyklicznego mailingu z informacją o promocji, zawierającego kod umożliwiający otrzymanie rabatu na zakupy w sklepie – częstszy kontakt z marką, gratyfikacja użytkowników – istotna dbałość o kontakt z marką
  • tworzenie-zaplecza-linkow

    przykładowy sposób linkowania w stronach tworzących zaplecze do siebie i do strony

    Stworzenie podstron ściśle tematycznie związanych z kategorią oferty, stanowiące zaplecze

  • strony z ofertą przeznaczoną dla danego regionu typu: meble.warszawa.pl (wsparcie dla wirtualnych biur w różnych miastach z lokalnymi numerami telefonów, które przekierowują rozmowy do centrali Firmy) – stwarza to potencjalną chęć konwersji użytkownika ze względu na stworzeniu wirtualnej bliskości klienta i sprzedawcy (klienci bardziej ufają firmom mającym siedzibę w tym samym mieście lub regionie)
  • strony z zawężoną ofertą produktową – wszystkie z różnymi adresami IP, oparte na różnych skryptach, zróżnicowane pod kątem treści, anchorów, miejsc wstawianie linków, optymalizacji kodu strony,
  • strony z niszową ofertą dla szkół prywatnych z wyposażeniem sprowadzanym z Norwegii i Wielkiej Brytanii – stworzenie niszy dla produktów o podwyższonej trwałości i estetyce, które są nieco droższe od ich standardowych odpowiedników (wyższe marże)
  • inne strony, skupione na najskuteczniejszych wyrażeniach typu long-tail w branży
  • katalogi stron (stanowiące przegląd zakresu oferty Firmy, odwołujące się do oferty producentów z branży)
  • Podłączenie niektórych ze stron, stanowiących zaplecze do systemów SWL (podłączenie strony głównej jest ryzykowne, a w przypadku nałożenia filtru na SERP strony zaplecza – zmniejsza prawdopodobieństwo nałożenia filtra na stronę docelową)
  • Katalogowanie strony w płatnych i bezpłatnych katalogach, branżowych listach firm, webowych spisach firm i innych centrach prezentujących firmy lokalne (wiele osób wciąż korzysta z katalogów zamiast wyszukiwarek, poza tym katalogi stanowią źródło linków do strony docelowej)
  • Zlecenie poprzez portal zlecenia.przez.net napisania kilkudziesięciu tekstów z branży – wysyłka tych tekstów do strony typu Presell pages oraz do portali z dziedziny tzw.  dziennikarstwa obywatelskiego np. sfora.pl, wiadomosci24.pl (rozpowszechnienie informacji o produktach, na które Firma ma wyłączność i wymuszenie na użytkownikach poszukiwanie tych produktów)
  • Kanały RSS strony firmy Mebelskol zostały umieszczone w kilkudziesięciu systemach listujących najnowsze informacje z tych kanałów – np. technorati.com, friendfeed.com (łatwiejsza indeksacja przez wyszukiwarki, zdobywanie kolejnych linków. Kanały RSS są nagminnie wykorzystywane przez spamerów jako źródło treści – linki z RSS są często przenoszone, więc dzięki temu strona docelowa zyskuje jeszcze więcej odwołań – choć niestety niezbyt wartościowych)
  • Założenie profili w serwisach społecznościowych, połączonych z systemami wysyłania informacji o nowych wpisach na stronie typu ping.fm (kampanie w serwisach społecznościowych zyskują coraz bardziej na znaczeniu, korzysta z nich wielu klientów Firmy – Firma musi docierać z informacją tam, gdzie są jej klienci)
  • Stworzenie kanałów w serwisach wideo z filmami dostarczonymi od producentów oraz własne instrukcje montażu zestawów oraz prezentacje nowinek z branży (odwołania do filmów bardzo często znajdują się pośród SERP, dzięki czemu klienci mogą dowiedzieć się poprzez wideo opatrzone logiem Firmy czegoś więcej o produktach. Obecność form wideo w tym miejscu wspomaga strategię długiego ogona – long tail)
  • Stworzenie darmowego ebooka dot. ergonomiczności mebli biurowych, zawierający porady dot. zdrowego trybu użytkowania mebli – tworzenie użytecznych treści jest dobrze postrzegane przez wyszukiwarki, dzięki czemu na znaczeniu zyskuje cała witryna
  • Stworzenie kampani PPC w najatrakcyjniejszych pod względem obrotu okresach
  • Śledzienie linków zwrotnych konkurencji (przez Yahoo! Site Explorer i dodawanie linka do strony korporacyjnej z tych samych miejsc (konkurencja nie śpi – często korzysta z nowych rozwiązań, które szybko Firma może wdrożyć we własną strategię działań)
  • Prezentacja informacji o nowościach dostarczonych od producentów na łamach serwisu korporacyjnego (prezentowanie Firmy jako branżowego źródła informacji o produktach)
  • Współpraca z serwisami branżowymi typu meble.pl i publikacja reklam i treści sponsorowanych na łamach tych vortali oraz ich newsletterach
  • Pozyskanie linków ze stron producentów, dystrybutorów i innych firm, z którymi współpracuje Mebelskol
  • Sprzedaż wizerunkowa w serwisach aukcyjnych

Działania offline

  • Darmowe szkolenia dla poddystrybutorów z zakresu nowych trendów i rodzajów sprzętu do wyposażenia szkół i biur z materiałami dostępnymi jedynie na stronie  firmowej
  • Sponsoring zawodów szkolnych (koszty wynajęcia sali i opłacenia organizacji zawodów) z informacją na banerach dot. strony www
  • Wydawnictwo 10 rodzajów katalogów produktów – ogólnego i tematycznych i wysyłka tychże katalogów, w których na każdej stronie po szczegóły widnieje odwołanie do strony WWW
  • Udział pracowników Firmy w sympozjach i spotkaniach przedstawicieli branży commerce
  • Oklejanie niewielkimi naklejkami z adresem strony i innymi materiałami reklamowymi każdego towaru, który przechodzi przez magazyn Firmy


[1] Baoing Wu, Brian D. Davison – Identifing Link Farm Spam Pages – http://www.cse.lehigh.edu/~brian/pubs/2005/www/link-farm-spam.pdf, 28.11.2009

[2] Rand Fishkin – SEOmoz Whiteboard Friday – How the Link Graph Works  – http://vimeo.com/1529679, 28.11.2009

Monitoring budowy zaplecza linków

W zależności od wyżej wymienionych strategii, istnieje możliwości kontrolowania działań podejmowanych przez firmy lub osoby, których zadaniem jest tworzenie zaplecza. Najtrudniejszy do monitorowania są działania podejmowane offline, które utrzymują kontakt z marką i wpływają na późniejsze działania online, jednak tutaj można mówić o monitoringu w zakresie wzrostu zainteresowania marką, zwiększeniu ilości zapytań bezpośrednich ze strony klientów oraz przełożenia tego na monetyzację tych działań.

Działania online są znacznie łatwiejsze do monitoringu poprzez dostępne narzędzia. Ważny w tym kontekście jest sposób ich wykorzystania, bez znajomości którego można mówić jedynie o sporej aproksymacji wyników.

Zapytania wpisywane w wyszukiwarki

Wyszukiwarki dostarczają na bieżąco informacji o odwołaniach prowadzących do strony docelowej. Oto przykłady konstrukcji zapytań wpisywanych w wyszukiwarki:

  • inanchor:slowokluczowe – pokazuje wszystkie odwołania do słowa kluczowego na wszystkich zaindeksowanych stronach
  • inanchor:slowokluczowe site:domena.pl – pokazuje wszystkie odwołania do słowa kluczowego na konkretnej stronie
  • Intext:slowokluczowe  – pokazuje strony zawierające poszukiwane słowo kluczowe
    – Intitle:slowokluczowe  – pokazuje strony zawierające poszukiwane słowo kluczowe w tytule
    – Inurl:slowokluczowe  – pokazuje strony zawierające poszukiwane słowo kluczowe w linku URL
  • linkdomain:http://www.domena.pl/ -site:domena.pl slowokluczowe – wpisywane w Yahoo! – pozwala na sprawdzenie wszystkich linków prowadzących do strony docelowej (oprócz linków na stronie docelowej), zapytania przydatne zwłaszcza w sprawdzaniu sposobów budowy linków przez konkurencję
  • linkdomain:domena.pl site:.edu „slowokluczowe” – wpisywane w Yahoo!, pozwala na wylistowanie stron w najbardziej wartościowej domenie .edu, które linkują do Strony Docelowej używając określonego odnośnika.
  • Domena.pl  -site:domena.pl, z parametrem &as_qdr – pokazuje listę stron, które rozpoczęły linkowanie do Strony Docelowej w ciągu ostatnich 24h. Można zmodyfikować nieco parametr &as, sprawdzając odwołania z ostatniego tygodnia (&as_qdr=w (past week)), miesiąca (&as_qdr=m (past month)) lub roku (&as_qdr=y (past year)).
  • linkdomain:konkurent1.pl linkdomain:konkurent2.pl -linkdomain:twojadomena.pl- wpisywane w Yahoo!, pozwala na sprawdzenie przez wydawcę która strona odnosi się do stron konkurenta 1 i konkurenta 2, ale nie odnosi się do strony wydawcy
  • intext:domena.pl – tego typu zapytanie umożliwia identyfikację stron, które zawierają odniesienie do Strony Docelowej, jednak nie w postaci linka lecz tekstu. Tego typu zapytanie pozwala określić tzw. linki stracone, na których tworzenie została wykonana nieefektywna praca. W kilku przypadkach po zwróceniu się do wydawcy strony odwołującej się do Strony Docelowej – istnieje szansa na podlinkowanie tekstu.

 

Narzędzia do monitoringu strony docelowej i związanego z nią zaplecza

1. Google Analytics [1]– łatwe w implementacji narzędzie analityczne, pozwalające na stały i wielopoziomowy monitoring zaplecza, z którego użytkownicy wchodzą na Stronę Docelową. Pozwala analizę i podjęcie działań, które zwiększą ruch użytkowników z miejsc, z których można pozyskać jeszcze większy ruch do Strony Docelowej bezpłatnie lub ponosząc nieznaczne koszty.

2. Narzędzia dla Webmasterów Google[2]– proste narzędzie, wspierające informacje uzyskane z Google Analytics, dzięki któremu Wydawca strony widzi m.in. listę Stron Docelowych, które zostały zaindeksowane przez wyszukiwarkę Google i do których istnieją odwołania zewnętrzne

3. Bing Webmaster Tools[3] – narzędzie bardzo podobne do Google Webmaster Tools, które umożliwia podgląd odwołań do Stron Docelowych jednak jedynie w obrębie Witryny Docelowej

4. Yahoo! Site Explorer [4]– narzędzie, które umożliwia śledzenie linków zwrotnych do Strony Docelowej, dające podobny podgląd jak Google Webmaster Tools – jednak narzędzie grupuje odniesienia do Strony Docelowej, a użytkownik ma możliwość rozwijania informacji o odniesieniach w obrębie danej witryny.

5. Linkscape[5] – narzędzie firmy SEOmoz, umożliwiające śledzenie odwołań do Strony Docelowej nie tylko z zewnątrz, lecz także śródlinkowania. Wprowadza pojęcia mozTrust i MozRank (podobna zasada jak w przypadku PageRank), które przypisane są do każdej zaindeksowanej przez to narzędzie strony. Umożliwia ono także przegląd informacji dotyczący linków, zawierających atrybuty.

6. Link Diagnosis [6]– kompleksowe narzędzie do podglądu ilości zaindeksowanych przez wyszukiwarki Stron Docelowych – umożliwia czytelny podgląd, eksport danych, a także przygotowanie wykresów obrazowo pokazujących odnośniki do Strony Docelowej.

7. Backlink Watch [7]– narzędzie umożliwia śledzenie odwołań do Strony Docelowej z uwzględnieniem treści Odnośnika, ew. parametru i PageRanku strony, z której występuje odwołanie

8. Domain Inbound Links Checker [8]– umożliwia wylistowanie stron, które odnoszą się do Strony Docelowej w rozbiciu na klasy domen takie jak: .mil., .com, .net, .gov, regionalne i inne.



[1] Http://www.google.com/analytics; 07.11.2009r

[2] https://www.google.com/webmasters/tools/home?hl=pl; 07.11.2009r

[3] http://www.bing.com/webmaster; 07.11.2009r

[4] http://siteexplorer.search.yahoo.com/; 07.11.2009r

[5] http://www.seomoz.org/linkscape; 07.11.2009r

[6] http://www.linkdiagnosis.com/; 07.11.2009r

[7] http://www.backlinkwatch.com/; 07.11.2009r

[8] http://www.online-utility.org/webmaster/backlink_domain_analyzer.jsp; 07.11.2009r

Najczęściej popełniane błędy przy tworzeniu zaplecza i kary z tym związane

Samodzielna budowa zaplecza narażona jest bardzo często na zagrożenia, które przy błędnych zagrożeniach mogą spowodować wykluczenie z indeksacji całej dotychczasowej pracy poświęconej na wspieranie strony docelowej.

1     Nieumiejętne korzystanie z SWL

  •  wyświetlanie linków z systemu na stronie, która jest pozycjonowana – do takich zadań właśnie tworzy się zaplecze
  • Dopisanie do SWL na stronach będących w domenie lub subdomenie strony docelowej – istnieje duże prawdopodobieństwo, iż napotkane przez spidera linki systemowe zostaną skorelowane z linkami trafiającymi do strony docelowej. Takie działanie zostanie uznane za niedozwolone i obie strony zostaną usunięte z SERP.
  • Używanie młodych domen do budowy zaplecza, które nie mają jeszcze historii – takie strony są bacznie obserwowane przez indexery, a prawdopodobieństwo padnięcia w filtr jest wysokie.
  • Korzystanie z rotacyjnych systemów – częsta zmienność linków na stronie – w szybki sposób eliminuje stronę z SERP
  • Korzystanie z tych samych odnośników oraz tytułów
  • Duża ilość szybko dodawanych linków

2     Masowa promocja strony docelowej

Korzystanie z oprogramowania masowo dodającego stronę docelową do wielu katalogów, stron, bezużytecznych presli z pewnością spowoduje nałożenie filtra lub całkowite wykluczenie z SERP linkowanej strony. Ta sytuacja tyczy się także płatnych stron i katalogów – wyszukiwarki nie interesuje fakt, iż link do strony docelowej został umieszony za opłatą. Nagły wzrost linków w krótkim czasie  do jednej strony powoduje zdecydowane negatywne działanie indexera.

W tej strategii należy także zaliczyć wszelkiego rodzaju:

  • kampanie mailingowe, w których albo brak odnośnika, albo jest on nieklikany
  • pozostałe kampanie reklamowe, które całkowicie nie trafiają do właściwej grupy docelowej, albo przekaz tych kampanii jest na tyle mało wyróżniający się, że użytkownicy nie zauważają materiałów w niej użytych.

3     Spamowanie forów i blogów

Fora nie są zbyt dobrym miejscem do tworzenia zaplecza. Z pewnością nie jako miejsce do podwyższenia pozycji w SERP. Linki zamieszczane na formach są traktowane po macoszemu przez indexery. Podobnie jak wyżej – masowe dodawanie postów, które analizują wypowiedź główną i dodają rzekomą odpowiedź stworzoną przez automat, zawierającą link do strony docelowej. Osoby dokonujące tego typu działań mają ułatwione działanie. Istnieje 5 głównych skryptów[1] wraz z ich modyfikacjami, na których są oparte fora, więc stworzenie mechanizmu automatycznego dodawania stron jest bardzo proste, a dzięki temu nadużycie może być przeprowadzone na dużej ilości forów. Podobne nadużycie dotyczy dodania linku do strony docelowej w sygnaturze postu w forach. Wynik działania powodującego nagłe pojawienie się linku do strony docelowej przy każdym wpisie użytkownika jest nieco niezależnym mechanizmem od intencji dodającego link, toteż wyszukiwarki zwykły ignorować tego typu odnośniki – zwłaszcza jeśli pojawiają się w forach zmieniający dodawany tekst z konstrukcją http:// na linki. Dodawanie treści typu „ja też” lub „nie masz racji” wraz z podanymi obok linkami jest bardzo szybko usuwane przez administratorów forów, więc jest duża szansa, że nawet spider nie dotrze do tego wpisu. Ewidentnym przykładem błędnego budowania zaplecza linków na forach jest dodawanie tej samej, unikalnej treści na wielu różnych forach.

Najczęstszą metodą prób budowania zaplecza linków na blogach jest podpisywanie wypowiedzi w komentarzach słowem kluczowym. Skrypty blogów najczęściej tworzą linka z pola „imię i nazwisko” i „adres strony www”, więc podmienianie tych danych słowem kluczowym może, w zamyśle autorów takiego działania, przynieść efekty.

4     Wymiana linków z mało znaczącymi serwisami

Często zdarza się sytuacja, iż webmasterzy otrzymują propozycję bezkosztowej wymiany linków od innych webmasterów. Są to zazwyczaj propozycje tworzenia zaplecza w:

  •  słabo wypozycjonowanych w SERP serwisach
  •  serwisach o wysokim PageRanku, lecz objętych filtrem lub wykluczonych z SERP (najczęstszy sposób naciągania)
  •  serwisach o całkowicie innej tematyce

Webmasterzy stron, które zostały usunięte z SERP lub SA objęte filtrem w ten sposób starają się odbudować swoje zaufanie względem Indexera. Najczęściej tego typu propozycje są wysyłane przy użyciu zautomatyzowanych skryptów do dużej grupy osób.

Do tej grupy także należy zapisać serwisy, strony, katalogi, presle, które w zamian za link na odnośnik do ich strony oferują link w postaci nieprzenoszącej parametru PageRank (link w JavaScript, użycie znacznika rel=”nofollow”, czy też wstawienie linka w technologii Adobe Flash).

5     Duplikacja treści, kradzież treści

Treści na stronach internetowych chronione są prawem autorskim – zgodnie z art. 25 us. 1 pkt 1. lit. b ustawy o prawie autorskim i prawach pokrewnych. Do października 2009 kradzież treści była zjawiskiem bardzo powszechnym, a osoby dokonujące kradzieży były praktycznie nietykalne. Ten status rzeczy zmienił (oby skutecznie) to wyrok[2] z 12 października 2009 Sądu Okręgowego w Białymstoku, nakazujący wypłatę przez wydawcę serwisu moje prawo.pl prawie 104.000zł odszkodowania na rzecz INFOR Biznes za bezprawne kopiowanie materiałów wydawcy. Jest precedens, więc jest szansa, że użytkownicy popełniający błąd duplikowania treści ogólnodostępnych i wstawiania tam swoich linków oraz reklam przestaną popełniać ten proceder. Z doskonałego założenia wyszedł Piotr Waglowski pisząc w dziale FAQ[3] o wykorzystaniu treści z jego strony: „Wychodzę z założenia, że internet jest takim medium, w którym wystarczy raz opublikować treści. Będą one dostępne dla zainteresowanych na całym świecie. Jeśli uważasz, że w serwisie VaGla.pl Prawo i Internet znajduje się interesujący artykuł lub opracowanie – zamiast go kopiować (i prawdopodobnie naruszać w ten sposób prawo autorskie) – umieść do niego link na swojej stronie.”

Wiele osób dokonujących kradzieży treści korzysta z kanałów RSS mieszając je w ramach jednego tematu celem stworzenia zupełnie nowego artykułu. Dlatego ważne jest podczas dodawania nowych artykułów aby były one zauważone przez boty wyszukiwarek oraz zaindeksowane. Dopiero w po paru godzinach warto uzupełnić kanały RSS i poinformować sieć o nowych artykułach.

6     Sandbox, Trustbox, filtry i odzyskanie dawnej reputacji strony docelowej

Domeny, które naruszyły Wskazówki dla webmasterów są filtrowane w SERP. Algorytm Google, jak i algorytmy stosowane prez inne wyszukiwarki: Bing, Yahoo, MSN oceniają wartość analizowanej strony uwzględniając jej wiek, historię i linki kierujące do niej. Związane jest to bezpośrednio z poziomem zaufania do witryny docelowej. Każde podejrzenie naruszenia zasad (zwłaszcza dla młodych wiekiem domen) powoduje filtrowanie strony – czyli przesunięcie strony o kilkadziesiąt pozycji w dół w SERP, aż do czasu wyjaśnienia podejrzenia. Jeśli było ono słuszne – strona całkowicie zostaje usunięta z SERP, natomiast w przypadku błędnego podejrzenia – strona zazwyczaj wraca na swoją dawną pozycję. Trzeba zaznaczyć, iż filtr dotyka całe domeny lub subdomeny, zaindeksowane przez indexer po roku 2003[4]. Nałożony filtr nie dotyczy zaawansowanych sposobów wyszukiwania – np. przy użyciu allinanchor, allintitle. Na szczęście można w pewnym stopniu przewidzieć wcześniej takie działanie Algorytmu Google poprzez śledzenie informacji w narzędziu Google Webmaster Tools i jeszcze przed nałożeniem filtra na domenę – usunąć wszystkie problemy powodujące niezgodność ze Wskazówkami dla Webmasterów. Analiza strony przez indexer potrafi trwać wiele tygodni, więc w przypadku spóźnienia się z usunięciem sugestii narzędzi Google Webmaster Tools trzeba liczyć albo na wejścia bezpośrednie na stronę albo też na inne systemy linkujące. Jednak będąc świadomym , iż Google odpowiada za 6% całego ruchu w sieci[5] – takie podejście jest krótkowzroczne.

Dla użytkowników, których strona trafiła do filtra Google – m.in. poprzez używanie SWL zostało wydane przez Google dyplomatyczne wyjaśnienie, mówiące o sposobie powrotu do SERP:

Nieustannie ulepszamy metody wykrywania systemów wymiany linków, które wykraczają poza nasze Porady dla Webmasterów i jest bardzo prawdopodobne, że korzystanie z nich nie opłaci się w dłuższej perspektywie. Webmasterzy, którzy brali udział w SWL-ach i którzy sądzą, że wpłynęło to negatywnie na widoczność ich stron w indeksie Google, mogą po usunięciu wszystkich SWL-ów wystąpić o ponowne rozpatrzenie witryny. Wystarczy w kilku słowach wyjaśnić sytuację. Zapewniam, że zgłoszenia te są traktowane bardzo poważnie. Ci, którzy się spotkają z linkowaniem, które ich zdaniem wychodzi poza wytyczne Google, mogą skorzystać z formularza do zgłaszania płatnych linków w konsoli narzędzi dla webmasterów. Podobnie do podań o ponowne rozpatrzenie, także te zgłoszenia są traktowane bardzo poważnie i przeglądane manualnie.
Aktualizacja: można by pomyśleć, że skoro SWLe przekazujące PageRank wychodzą poza zasady Google, to wykupując na przykład rotacyjne linki i zgłaszając raport spamu można zaszkodzić konkurencji. Ponieważ jednak bierzemy większą ilość sygnałów pod uwagę, takie działanie na niekorzyść innych webmasterów jest skuteczne wyłącznie w teorii.[6]

Aby szybciej zdobyć zaufanie wyszukiwarek dla zaplecza linków, które linkują do strony docelowej uruchamia się zaplecze równolegle na nowej i na starej domenie, która szybka zdobędzie zaufanie wyszukiwarki. Po pewnym czasie kiedy obie domeny zyskają wysoki poziom zaufania ustawiane jest przekierowanie 301 domeny starej na nową. Strony wartościowe, użyteczne, dobrze zaprojektowane, oferujące jakąś korzyść lub wartość dodaną użytkownikom, a także zdobycie linków ze stron tematycznie powiązanych, a notowanych wysoko przez wyszukiwarki w SERP, powodują szybkie zyskanie „sympatii” indexera wyszukiwarki



[1] miniBB, PunBB, MyBB, SMF (Simple Machines Forum) oraz phpBB3

[2] Michał Fura – Za kradzież treści w internecie należy się odszkodowanie- http://wolnemedia.net/?p=17913; 07.11.2009r

[3] http://prawo.vagla.pl/vagla_faq; 06.11.2009r

[4] Mariusz Gąsiewski – Sandbox, Trustbox i filtry- http://www.ittechnology.us/sandbox-trustbox-i-filtry/; 07.11.2009r

[5]Artur Małek – Google odpowiedzialne za 6% ruchu w sieci- http://www.idg.pl/news/351538/Google.odpowiedzialne.za.6.ruchu.w.sieci.html; 06.11.2009r

[6] http://googlepolska.blogspot.com/2008/11/jak-google-postrzega-linkowanie.html; 07.11.2009r

Zdobywanie linków przez programy partnerskie i lojalnościowe

Jednym z prostszych sposobów do zbudowania zaplecza linków jest dywersyfikacja źródeł pozyskania linków, poprzez naturalne wywołanie inicjatywy tworzenia linków do strony docelowej przez użytkowników. Dokonuje się tego za pomocą stworzenia programu partnerskiego w procesie sprzedażowym w najpopularniejszych modelach: partycypacja dochodów ze sprzedaży np. przez CPA, wynagradzanie za przekierowanie CPC z referalem przekierowującego itp. Użytkownicy wstawiają na swoje strony linki specjalnej konstrukcji np.:

<a href=”http://www.strona.pl?ref=111„>Referal</a>

a skrypt na stronie docelowej zapisuje w pliku Cookie referal przekierowania, dzięki czemu przez określoną ilość czasu po przekierowanie, osoba która dokonała przekierowania może liczyć na partycypację w dochodach z zakupu dokonanych przez osobę przekierowaną.

Jednak używanie tego typu programów na stronach partnerów może dość radykalnie wpłynąć na SEM, co podkreślali wielokrotnie pracownicy Google[1].



[1] Matt Cutts Interviewed by Eric Enge  – http://www.stonetemple.com/articles/interview-matt-cutts-061608.shtml; 06.11.2009r

Strategia ręcznego lub automatycznego dodawania strony do katalogów.

Automatyczne dodawanie (zwłaszcza masowe) jest bardzo szybko zauważane przez crawlery wyszukiwarek, przez co tego typu techniki w praktyce są nieskuteczne w procesie budowania zaplecza.

Ręczne, sukcesywne dodawanie strony docelowej do niewielkich i wartościowych katalogów z dnia na dzień może znacząco przyczynić się do wzrostu zaufania przez indexer, co wpłynie na wysokość indeksacji strony docelowej w SERP. Warto tu wykorzystać długo istniejące oraz płatne katalogi stron:

  • buzzle.com,
  • ezinearticles.com,
  • work.com,
  • articleblast.com,
  • articlecity.com,
  • articlesbase.com,
  • mastersmba.com,
  • trans4mind.com,
  • pandecta.com ,
  • promotenews.com,
  • a1articles.com,
  • articleclick.com,
  • articlesphere.com,
  • bestmanagementarticles.com,
  • buildyourownbusiness.biz ,
  • ibizresources.com,
  • isnare.com,
  • marketingseek.com,
  • redsofts.com,
  • sbinformer.com,
  • valuablecontent.com
  • DMOZ,
  • katalog Onet,
  • katalog WP.

Ze względu na sposób przenoszenia wartości PageRank wyróżniamy 3 rodzaje katalogów stron:

  • Katalogi pozwalające przenosić PageRank
  • Katalogi potencjalnie przenoszące PageRank
  • Katalogi nie przenoszące PageRank na stronę docelową

Pierwsze z nich posiadające spore zaufanie Indexera pozwalają na standardowe

dodanie linka do strony docelowej. Tego typu katalogi są zazwyczaj płatne – zwłaszcza te z wysokim PageRanku (np. wpis do katalogu Yahoo kosztuje 299$[1] na rok). Przynależność katalogu do tej grupy można sprawdzić poprzez specjalny sposób konstruowania zapytania do wyszukiwarki i sprawdzania, czy wyniki SERP odwołują się ze katalogu do strony docelowej.

Katalogi potencjalnie przenoszące PageRank to te, które umożliwiają przejścia Spiderowi do strony docelowej, lecz nie uzyskały jeszcze wysoko dużego zaufania ze strony Algorytmu do znalezienia się w grupie pierwszej, bądź są to katalogi, które dokonywały niedozwolonych praktyk.

Trzecia grupa – najobszerniejsza – to katalogi, które zawierają nieatrakcyjne dla Indexera i użytkowników treści, blokują działanie Spiderów lub są to katalogi występujące przedtem w dwóch pierwszych grupach, lecz przez dokonywane w przeszłości nadużycia, znalazły się w grupie trzeciej.

Należy również tutaj wymienić także katalogi, które mają duże znaczenie regionalne – czyli katalogi firm typu YellowPages – zazwyczaj katalogi  z informacjami zawężonymi do firm instytucji z szukanej branży w określonym regionie (Centrum Firm Lokalnych Google[2], Zumi[3], Mapy PKT[4])



[1] https://ecom.yahoo.com/dir/reference/cost; 05.11.2009r

[2] https://www.google.com/accounts/ServiceLogin?hl=pl&service=lbc; 03.11.2009r

[3] http://zumi.pl; 03.11.2009r

[4] http://pkt.pl/mapy.html; 03.11.2009r

Zdobywanie linków poprzez media i public relations

Przenikanie szeroko pojętych mediów i public relations jest faktem wykorzystywanym zwłaszcza przez duże koncerny mediowe i grupy kapitałowe do budowania zaplecza dla wsparcia promocji nowych marek.

W tej branży najlepszy sposób na zbudowanie dobrego zaplecza linków są uwarunkowane dobrymi, bezpośrednimi kontaktami z dziennikarzami i ludźmi ze świata PR. Tak naprawdę ci ludzie wpływają na opinię narodu prezentując odpowiednie treści, więc znajomość z osobami odpowiedzialnymi za media z tej samej kategorii co tematyka strony docelowej – może mieć przełożenie na większą znajomość marki, zainteresowanie produktem, co w przełożeniu wpływa na zmonetyzowanie działań wspierających kontakty z ludźmi pracującymi w tej branży.

Atrakcyjnie napisane artykuły stanowią dobry materiał do indeksacji przez wyszukiwarki, a także bardzo silnie wspierają strategię naturalnego zdobywania linków, opisaną powyżej. Popularne artykuły są stosowane także pośrednio w pozostałych strategiach, więc siła dobrze napisanego artykułu może być tzw. Killer Content[1], który cytowany będzie intermedialnie. Praktycznie każdy artykuł, na każdy temat można zredagować w taki sposób, aby jego tytuł i pierwsze wiersze zaintrygowały czytelnika do przeczytania go do końca. W mainstreamowych portalach dziennikarze (i copyrighterzy redagujący teksty pod potrzeby SEO) prześcigają się aktualnie w bardziej chwytliwym i krótkim artykule, którego przeczytanie nie zajmie czytelnikowi więcej niż minutę, a ich intencją jest wykonanie przez użytkowników jak największych ilości odsłon, dzięki którym wydawca portalu jest w stanie wyświetlić większą ilość reklam (dlatego publikuje się artykuły powiązane z danym tekstem, które jeszcze bardziej zatrzymują użytkownika w portalu i tym sposobem buduje się przenikające się między sobą zaplecze linków) . Najistotniejsze w tego typu strategii jest powiązanie mediów między sobą, poprzez budowę zaplecza linków w ramach jednego kapitału inwestycyjnego. Doskonałym przykładem są działania firmy ITI[2]: w programach stacji TVN promowani są prowadzący inne programy w tej stacji[3] – prowadzący program Kuba Wojewódzki zaprasza do swojego studio reprezentantów jury programu Taniec z Gwiazdami, a programy filmowe oparte są na nowościach, które można obejrzeć w kontrolowanym przez koncern Mariusza Waltera Multikinie.



[1] Stephan Spencer – Killer Content – http://www.netconcepts.com/killer-content/; 06.11.2009r

[2] http://www.iti.pl/; 06.11.2009r

[3] Dorota Kalinowska – Kto tu jest gościem – http://www.press.pl/press/pokaz.php?id=1383; 06.11.2009r

Strategie budowy zaplecza

Istnieje wiele definicji zaplecza, niemal każda z osób próbujących usystematyzować to pojęcie miałaby swoją definicję.

Niemniej jednak należy założyć, iż jest to działanie zmierzające do umieszczenia linku do konkretnej strony WWW w miejscu, które pozwoli na bezpośrednie lub pośrednie przejście do tej strony WWW. Zaplecze tworzy się dla Spiderów, Crawlerów i botów wyszukiwarek, jak i dla samych użytkowników.

Tworzenie zaplecza linków – obok optymalizacji kodu strony docelowej (SEO) wpisuje się w proces pozycjonowania strony internetowej.

Generalną zasadą przewodnią koncepcji budowy zaplecza jest umieszczenie linka do strony docelowej, wzbudzenie zainteresowania, przejście do strony docelowej i zatrzymanie odwiedzającego jak najdłużej celem zmonetyzowania bezpośredniego lub pośredniego (użytkownik może trafić w terminie późniejszym dzięki zaindeksowanej w SERP stronie) tego ruchu.

1 .     Bezpośrednie przejście do strony WWW

Użytkownik przechodzi do strony docelowej natrafiając na link do strony WWW (będąc w trybie online) na innej  stronie WWW, oprogramowaniu, reklamie, prezentacji, widżecie, grze i innych produktach elektronicznych

2.      Pośrednie przejście do strony WWW

2.1     Przejście poprzez zapamiętanie, zapisanie i odtworzenie

Użytkownik trafia na stronę WWW poprzez odtworzenie z pamięci, zapisu lub obrazu adresu strony WWW, wpisując ten adres w przeglądarce w terminie późniejszym.

2.2     Przejście bezpośrednie poprzez użycie narzędzi przekierowujących [referral]

Najczęstszą formą obrony przed nadużyciami dokonywanymi przez osoby próbujące jest przekierowanie użytkownika z adresu A do adresu docelowego B. Do tego celu stworzonych zostało wiele narzędzi i skryptów mających funkcje:

  •  skracające adres WWW (dzięki czemu np. więcej tekstu użytkownik jest w stanie dołączyć do wiadomości wpisywanej w serwisach mikroblogowych, w tym przejścia z SERP, katalogów stron, presell pages itp.)
  •  parametryzujące – link prowadzi do skryptu odczytującego np. ustawienia sprzętowe użytkownika, po odczycie kierowany jest do właściwej strony z odpowiednimi parametrami
  •  spamoodporne – ich działanie ma na celu eliminację przenoszenia linkjuice na stronę docelową, co ma zniechęcać użytkowników do nadużyć
  •  korekty adresów URL: poprzez zastosowanie bezpośrednio w serwisie, do którego trafił użytkownik – przekierowań z zastosowaniem komend serwera lub języków kodowania stron www (m.in. przekierowanie portów, meta, JavaScript, htaccess, przekierowania  301/302)

Możliwe jest pozyskanie linków ze stron, które bardzo często nie podlegają administracyjnej edycji. Są to m.in.: fora, blogi, komentarze w blogach, Księgi gości, strony społecznościowe, komunikatory (oraz opisy statusu), strony typu Wiki, grupy dyskusyjne, strony z ofertami pracy. Tego typu miejsca nie podlegają zazwyczaj przeglądom przed publikacją i są doskonałym miejscem do rozszerzenia działań związanych z budową zaplecza linków. Jednak tego typu strony są praktycznie nieodwiedzane przez Indexery z powodu nadużyć stosowanych w tego typu miejscach lub przez brak możliwości technicznych (np. komunikatory). Twórcy stron bronią się przed nadużyciami poprzez wprowadzenie znacznika rel=”nofollow” do linków zewnętrznych, umieszczanych w serwisie, lub pozostawiają linki w formie tekstowej. Dodawanie linków do tego typu serwisów może zostać zmechanizowane poprzez budowanie skryptów/botów wykrywających adresy for korzystających z tych samych silników, a następnie poprzez automatyczne wypełnienie pól formularza przez mechanizm dokonujący nadużycia.

Inną , często spotykaną strategią jest tworzenie wartościowych tekstów, wzbogaconych o filmy, grafiki, zdjęcia, dźwięki, oprogramowanie, prezentacje, które są oznakowane w sposób. Mając materiał, który nie jest możliwy do pozyskania od firm lub osób trzecich, jest często wykorzystywany przez konkurencję, która zgodnie z prawem prasowym powinna odwołać się do źródła podczas cytowania. Dzięki temu wydawca zyskuje odniesienie do swojej strony źródłowej, choć najczęściej są to informacje tekstowe, które jedynie stanowią o kontakcie z marką.

Wszelkiego rodzaju działalność edukacyjna, aktywny udział w prezentacjach, szkoleniach, wystąpieniach, wywiadach – wpływa znacząco na budowę wizerunku eksperta w danej dziedzinie, a to w znaczący sposób determinuje postrzeganie marki oraz strony WWW, którą ekspert reprezentuje. Udzielanie się na innych blogach, forach, wypowiedzi dla mediów i częste odniesienia do wypowiedzi ekspertów wpływają na pozytywne postrzeganie reprezentanta Strony Docelowej i stanowią istotny czynnik w budowie zaplecza linków.

Tworzenie zaplecza linków – obok optymalizacji kodu strony docelowej (SEO) wpisuje się w proces pozycjonowania strony internetowej. Większość właścicieli stron internetowych dąży do jak największej promocji strony docelowej tak, aby pozyskać jak największą liczbę użytkowników. Przejście użytkowników na stronę oznacza, iż poszukują informacji w jakimś zakresie powiązanym z naszą stroną lub chcą dokonać zakupu. Rolą strony internetowej (chyba, że z założenia jest deficytowa) jest dokonać zwrotu z inwestycji poniesionych na stworzenie strony docelowej wraz z jak największą nawiązką.

Rozproszone w różnych mediach linki do strony docelowej stanowią są silnikiem dla ich rankingu w SERP – nie jest to jednak sukces zastosowania których z przedstawionych strategii. Pamiętać tu należy także o optymalizacji kodu samej strony, budowy stron, struktury, wyglądzie, wartościowej i unikalnej treści i innych czynnikach, które wpływają na pozycję w wynikach wyszukiwania. Oczywiście można próbować zastosować którąś ze strategii bez optymalizacji samego kodu, jednak w takim przypadku docelowo większość źródeł ruchu na stronie docelowej będą stanowiły media, które nie są wyszukiwarkami. Można to porównać do próby sprzedaży samochodu. Podczas jego sprzedaży, uczciwy właściciel upewnia się, że wszystkie części pojazdu są sprawne. Wszystkie udokumentowane zmiany, które właściciel samochodu przeprowadził – takie jak wymiana niektórych części mechanicznych, które ulegają naturalnemu zużyciu – teoretycznie podwyższają wartość sprzedawanego samochodu. Wymiana tych części, bez których samochód nie byłby w stanie wykonywać swych podstawowych funkcji nie zmieniają ceny radykalnie, lecz potencjalni nowi nabywcy kupią  sprawny samochód za tą samą cenę – gdyby mieli wybrać samochód niesprawny. Podobnie jest ze strategią budowy linków – nie jest możliwym aby przyciągnąć i zatrzymać użytkowników na stronie docelowej jeśli strona nie działa prawidłowo, lub użytkownicy nie znajdują celu swoich poszukiwań, choć do strony zostały zastosowane któreś z powyższych strategii.

Sposobów zdefiniowania, tworzenia, przyjęcia strategii budowy zaplecza linków, wpisującej się w proces pozycjonowanie strony jest tyle, ilu jest osób zarządzających projektem budowy zaplecza czy też pozycjonowania. Praca wymienia jedynie najbardziej popularne obszary, które były najpopularniejszym miejscem realizacji projektu. Wybór właściwych strategii budowy zaplecza linków jest również niemożliwy do uogólnienia dla wszystkich witryn, do których tworzy się zaplecze. Można co prawda przytoczyć wspólne strategie dla witryn społecznościowych i blogowych, lecz zastosowanie na tych witrynach tych samych tekstów, fragmentów kodu wyglądającego podobnie może skutkować wyrzuceniem stron z SERP, co jest niepożądanym wynikiem działań w strategii budowy zaplecza strony docelowej.

Strategię budowania linków należy pojmować jako część biznesu, której poświęca się jak najwięcej czasu. Tak jak codziennie zagląda się do narzędzi monitorujących poprawność działania serwera, ilość wejść na stronę, tak rytuałem powinno być permanentne i aktywne budowanie zaplecza. Nie należy tego zadania traktować jak kampanię, którą się przygotowuje, uruchamia, wypuszcza i nagle pauzuje, przerywa bądź nie monitoruje. Takie podejście ułatwia konkurencji zdobycie przewagi. Brak determinacji w dążeniu do celu nie tylko może zatrzymać rozwój strony docelowej, lecz może spowodować radykalne obniżenie ilości odwiedzin na stronie. Z drugiej strony podobnie sytuacja ma się z nadgorliwością – dodawanie dużej ilości jednorodnych linków do strony docelowej, zwłaszcza ze stron całkowicie nie powiązanych treścią lub ze stron spamerskich – może wywołać podobne skutki. Wykorzystanie zdobytej wiedzy popartej doświadczeniem lub przekazanie projektu certyfikowanej i wartościowej firmie może (ale nie musi) przynieść profity stronie docelowej w dłuższej perspektywie czasu.

Przyszłość rozwoju strategii budowy zaplecza uwarunkowana jest przede wszystkich czynnikami technologicznymi i technicznymi, a także modyfikacją algorytmu wyszukiwarek, które zapewne będą jeszcze szybciej reagować na zmiany zachodzące w sieci, będą bardziej inteligentne wykorzystując chociażby sieci semantyczne. Dokładne kierunki rozwoju nie są znane, jednak tendencje pozostają niezmienione – wyniki wyszukiwania będą jak najbardziej wartościowe i dopasowane do wysłanego zapytania.

Bibliografia:

  • Benicewicz – Miazga Anna, Nowakowski Michał: Webpositioning, Mikom 2005
  • Calishain Tara, Dornfest Rael, Bausch Paul: 100 sposobów na Google, Helion 2005
  • Danowski Bartosz, Makaruk Michał: Pozycjonowanie i optymalizacja stron WWW. Jak to się robi, Helion 2007
  • Frontczak Tomasz: Marketing internetowy w wyszukiwarkach, Helion 2006
  • Frontczak Tomasz, Cezary Lech, Bartosz Berliński, Mikołaj Adamczak, Paweł Chwalibóg, Rafał Kowalewski; Twój biznes w internecie. Podręcznik e-marketingu, Axel Springer Polska 2009
  • Kobis Paweł: Marketing z Google, PWN 2007
  • Ledford Jerri L.: SEO: Biblia, Helion 2007
  • Karwatka Tomasz: Usability w e-bizesie, co kieruje twoim klientem, Helion 2009
  • Krug Steve: Nie każ mi myśleć, o życiowym podejściu do funkcjonalności stron internetowych, wydanie II, Helion 2006
  • Sosna Łukasz, Nowaczyk Robert: Sekrety pozycjonowania w Google, Nakom 2006

Strategia naturalnego zdobywania linków

naturalne-zdobywanie-linkow

Wpływ treści wysokiej jakości na naturalne sposoby zdobycia zaplecza linków . http://searchengineoptimization.elliance.com/search-marketing-resources/seo-infographics.aspx?title=The-Power-of-Link-Baiting&Category=; 06.11.2009r

Strategia naturalnego zdobywania jest najprostszą, a zarazem najbardziej powszechną metodą budowy zaplecza. Jeśli strona docelowa autora ma dobrą treść, przedstawia korzyść lub wnosi różnicującą względem konkurencji wartość dodaną – jest kwestią czasu, aby zadowoleni  z użytkowania tej strony użytkownicy dodali do niej link w swoich serwisach. Przy odpowiednio dobrych relacjach, aby nieco wspomóc tą strategię istnieje możliwość wysłania prośby do rodziny, znajomych, którzy prowadzą podobne tematycznie serwisy o publikację linka na swych witrynach do strony docelowej.

naturalny-sposob-zdobywania-linkow

Naturalny sposób zdobywania linków dla wartościowego materiału, który jako pierwszy pojawił się w sieci

Stworzenie wartościowej strony, posiadającej atrakcyjną wartość dodaną dla użytkowników związane jest często ze zjawiskiem Digg Effect[1]. Wiele prób wyświetleń strony docelowej, dokonywanych przez wiele osób w jednym czasie może spowodować przeciążenia serwera hostującego witrynę, a co za tym idzie braku wyświetlenia się strony docelowej. Można się zabezpieczyć przed tym efektem stosując skrypty zapamiętujące stronę w postaci cache, która nie wymaga tworzenia zapytań do bazy danych ani wykonywania dodatkowych skryptów.

Zamiast tanich i podejrzanych rozwiązań lepiej skorzystać z linków tematycznych ze stron o dobrej renomie. Takie linki sprawdzają się z biegiem czasu, co jest brane pod uwagę przy ustalaniu ich wartości przez Google. Najlepszą metodą pozyskiwania takich właśnie linków jest regularne dodawanie treści wysokiej jakości oraz/lub przydatnych narzędzi dla użytkowników, które uatrakcyjniają zarówno naturalne linkowanie, jak i rozpowszechnienie ich off-line. Warto dodać, że nawet kilka linków ze stron o wysokiej renomie może być dużo bardziej przydatne niż ich masowe zbieranie z dowolnych stron. [2]


[1] http://www.ndesign-studio.com/blog/updates/the-digg-effect/; 03.11.2009r

[2] http://googlepolska.blogspot.com/2008/11/jak-google-postrzega-linkowanie.html; 05.11.2009r

[3] http://searchengineoptimization.elliance.com/search-marketing-resources/seo-infographics.aspx?title=The-Power-of-Link-Baiting&Category=; 06.11.2009r

[4]http://searchengineoptimization.elliance.com/search-marketing-resources/seo-infographics.aspx?title=People-Streams&Category=; 06.11.2009r