Jest wiele czynników, które mogą utrudniać lub uniemożliwiać indeksację Twojej strony internetowej lub jej fragmentów. Wiele z nich wynika z racjonalnego działania wyszukiwarek, by wykluczać treści, które nie powinny zainteresować użytkowników lub po prostu będą zaśmiecać indeks wyszukiwarki.

Zawsze warto unikać sytuacji, w których moglibyśmy dawać wyszukiwarce powód do ukarania naszej witryny za na przykład, któryś z poniżej prezentowanych błędów.

Zduplikowany kontent

Korzystając z adresów z parametrami, czy wogole serwisów generowanych dynamicznie jesteśmy narażeniu na ryzyko zduplikowanego kontentu. Problem ten polega na tym, że jedna i ta sama treść jest dostępna w pełni z dwóch lub więcej miejsc w serwisie.

Wyszukiwarki mogą jedną z naszych podstron wykluczyć z indeksu, gdyż dwie strony wewnątrz jednej domeny o takiej samej zawartości nie są atrakcyjne dla użytkowników. Unikaj sytuacji, w której treści będą się powielały na kilku stronach twojego serwisu.

Jednak, nie tylko adresy z parametrami są powodem do uznania zduplikowanej treści. Drugą możliwością, do wygenerowania zduplikowanej treści jest udostępnienie strony z dwóch subdomen:http://www.adres.pl oraz http://adres.pl

Najlepiej błąd ten wyeliminować stosując przekierowanie stałe (301) przy użyciu pliku .htaccess lub .php. Więcej na ten temat przeczytasz w podrozdziale, dotyczącym ujednoliceniu adresu URL.

Innym sposobem wskazania wyszukiwarce, która z dwóch lub kilku podstron jest tą właściwą jest skorzystanie z tagu wersji kanonicznej. Ten tag umożliwia wskazanie robotowi wyszukiwarki, która wersja danej strony jest aktualnie uznana za najważniejszą, zawierającą właściwą semantycznie treść.

Na podstronach twojego serwisu, na których wstawiasz zawartość innej kanonicznej wersji danej strony ( taka sytuacja może wystąpić szczególnie, gdy korzystasz z bazy danych w serwisie) wstaw:

<link rel="Canonical" href="adres właściwego dokumentu" />

Dzięki temu zapisowi, możemy zasugerować, który adres dokumentu jest jego podstawową wersją, jednocześnie unikniemy oskarżenia o duplikowanie treści. Podstrony w ten sposób wykluczone i wskazujące na swoją wersję bazową, nie będą występować w indeksie.

Słowa kluczowe

Słowa kluczowe to elementy strony, które oczywiście mogą pomóc w zdobywaniu upragnionej pozycjina daną frazę. Wyszukiwarki, poprzez swoje roboty sprawdzają jednak nasycenie słów kluczowych, występujących w treści strony. Jest to prosty sposób, by uniemożliwić przesycanie stron zbędnymi frazami.

Wyróżnienie na stronie wszystkich wyrazów danej frazy nie musi, ale może zostać uznane za niekorzystne. Dlatego lepiej wyróżniać semantycznie (strong lub Em, a także stosując nagłówki) tylko pierwsze wystąpienie danego słowa. Staraj się nie nasycać strony maksymalną ilością słów, wyróżniając wszystko co Ci wpadnie w oko. Czasami lepiej zostawić niedosyt niż przesadzić.

Uważaj również z używaniem atrybutów ALT oraz TITLE występujących przy linkach i obrazach. Nie nasycaj ich słowami kluczowymi, staraj się by były to rzetelne opisy a nie zlepki słów.

Złym pomysłem jest też wpychanie słów kluczowych do adresu, w takiej formie by wielokrotne i bezużytecznie powtarzać te same wyrazy czy frazy. Staraj się w adresie URL nie powielać tych samych wyrazów, może to zostać uznane za nieetyczne.

Innym zagrożeniem, są nieodpowiednio odbrane słowa kluczowe. To jest kolejny krok by nie zyskiwać wzrostu pozycji. Jeśli słowa na które chcesz się pozycjonować są źle dobrane nie uzyskasz dobrej pozycji, na te naprawdę atrakcyjne frazy, które przyniosły by Ci prawdziwy ruch.

Pamiętaj, by w razie potrzeby regionalizować swoje frazy. Niekiedy nieopłacalne jest pozycjonowanie się na frazy ogólne, kiedy na przykład świadczysz usługi jedynie w swoim małym miasteczku i okolicy. Oferując naprawę samochodów w Rzeszowie, warto skupić się na frazach naprawa samochodów Rzeszów – pozycjonowanie ogólne, może przyciągnąć „pustych klientów”, którzy pochodzić mogą z drugiego końca Polski. Taki klient zazwyczaj nie przyjedzie do nas w celu zakupu usługi.

Wykluczenie z indeksowania

Często, przez pomyłkę lub z zapomnienia webmasterzy nie usuwają zapisu wykluczającego stronę z indeksacji. Zapis taki warto stosować podczas testowania serwisu, by jego jeszcze nie gotowa wersja nie zagościła w wynikach wyszukiwania.

Przed otwarciem serwisu lub startem jego oficjalnej wersji nalepiej sprawdzić czy zawartość plikurobots.txt oraz metatagu dotyczącego robotów wyszukiwarek są ustawione na prawidłowe, pozytywne wartości.

Linkowanie

GoogleBot, jak i inne roboty wyszukiwarek sieciowych analizują nasz serwis przechodząc z podstrony na podstronę wewnątrz naszego serwisu. Dzięki temu, może przebadać nasz serwis w sposób systematyczny i sprawny. Gdy na stronie występują błędne linki, zawierające literówki bądź błędne znaki, zarówno użytkownicy jak i robot wyszukiwarki zostaną skierowane do błędnych lub nieistniejących podstron.

Nieco wskazówek o konstruowaniu adresów URL, przeczytasz w rozdziale Hiperlinki.

Zwracaj szczególną uwagę na strukturą adresów, wewnątrz serwisu korzystaj z adresowania względnego – ułatwia to ewentualną możliwość przenoszenia serwisu. Więcej o adresach względnych i bezwzględnych przeczytasz, w tym podrozdziale.

Drugim aspektem, który może przysporzyć nam problemów z indeksacją jest Linkowanie do stron o wadliwej reputacji, zwanych w środowisku pozycjonerów Złym sąsiedztwem.

Do stron takich należy zaliczyć strony, które są już aktualnie wykluczone z indeksu wyszukiwania, co możesz sprawdzić używając zapytania site. Inne strony, których linkować nie należy, to te stosujące nieetyczne techniki pozycjonowania i optymalizacji witryn internetowych lub zawiera zbyt duże ilości odnośników prowadzących do innych stron w porównaniu do treści, co może sugerować, że dana strona jest typową farmą linków.