|
Jak zbudować stronę dla
wyszukiwarek?
Wstęp
Dzięki wyszukiwarkom
generuje się całkiem spory ruch na stronach.
Prawie żaden właściciel małej strony
prywatnej nie może liczyć na wysoką pozycję
w wynikach wyszukiwarek. Ich strony pojawiają
się zazwyczaj gdzieś pod koniec wyników
wyszukiwania. Dlaczego? Bo stronę zrobili
bezmyślnie. Ten tekst ma przybliżyć
webmasterom sztukę tworzenia stron, dobrze
ocenianych przez wyszukiwarki.
Polski rynek wyszukiwarek
Według serwisu www.ranking.pl
z dnia 30.10.2003. Polacy najchętniej używają
wyszukiwarki Google (38,4%). Jest to
wyszukiwarka z największą bazą
zaindeksowanych stron, dużo większą niż
posiada konkurencja. Na następnym miejscu
plasuje się wyszukiwarka Onetu (27,4%), a
zaraz za nią wyszukiwarka Wirtualnej Polski
(25,6%). Reszta wyszukiwarek to dość mały
procent udziału, ale nie można o nich
zapominać. I tak: z polskojęzycznych
wyszukiwarek godne zauważenia są: interia.pl
(2%), szukacz.pl (1,8%), netsprint.pl (1%) i
gooru.pl (0,3%). Trzy pierwsze wyszukiwarki
mają ponad 90% rynku. Są największymi
"polecaczami" naszych stron. Warto
na nie zwrócić największą uwagę.
Mit pierwszy - Słowa
kluczowe
Często pada pytanie:
dlaczego nie widzę swojej strony w wynikach
wyszukiwania dla słowa kluczowego, które
podałem w keywords? Są dwie możliwe
odpowiedzi. Pierwszą jest, że strona nie
została zgłoszona do wyszukiwarki (tzn.
wyszukiwarka jeszcze o niej nic nie wie), a
druga odpowiedź jest zawsze prawdziwa jeśli
strona została już zgłoszona i
zaindeksowana. Mianowicie nowoczesne
wyszukiwarki nie zwracają uwagi
na słowa kluczowe w <meta name="keywords"
content="..." />. Dzisiaj
liczy się treść! Bo to treść
jest najbardziej obiektywnym elementem strony,
z którego tworzone są rankingi (właściwie
to słowa kluczowe są brane pod uwagę, ale
tylko wtedy gdy ich zawartość pokrywa się z
treścią strony). Bo co z tego, że w słowach
kluczowych wystąpi słowo "jabłko"
jeśli nie wystąpi ono ani razu w treści
strony, bo strona dotyczy czegoś innego.
Wyszukiwarki kierowały na taką stronę, myśląc,
że jest o jabłkach, a potem były
przeklinane przez użytkowników, ponieważ
dawały złe, bezużyteczne wyniki. Samo występowanie
słów kluczowych w treści strony też nie
jest gwarancją sukcesu. Nie mogą one występować
zbyt często i zbyt blisko siebie, bo
wyszukiwarki mogłyby potraktować to jako
"spamowanie" i usunąć stronę z
wyników. Dodatkowo niektóre elementy na
stronie mają wyższy priorytet od zwykłego
tekstu. Na przykład słowo kluczowe, które
wystąpi w nagłówku <h1> jest
dla wyszukiwarki ważniejsze niż wystąpienie
tego słowa w zdaniu. Wiadomo, że nagłówki
są dobrym sposobem na krótkie oddanie
zawartości następnych akapitów.
Wyszukiwarki też to wiedzą i nagłówki u
nich są dużo ważniejsze niż zwykły tekst.
Wiele osób całkowicie zapomina o nagłówkach
i zastępuje je odpowiednimi obrazkami lub
sformatowanym tekstem. Należy pamiętać, że
pajączki wyszukiwarek są po prostu
tekstowymi przeglądarkami i nie zwracają
uwagi na grafikę i formatowanie. Zwracają
natomiast uwagę na logiczny układ strony,
czyli właśnie gdzie są nagłówki, gdzie
akapity, gdzie hiperłącza, a gdzie powinien
zostać wstawiony tekst alternatywny zamiast
obrazka. I kolejny problem. Masa webmasterów
nie umieszcza tekstu alternatywnego w tagu <img
/>. Skąd więc pajączki mają
wiedzieć, co na tych obrazkach jest? Zawsze
lepiej jest umieszczać tekst alternatywny,
szczególnie przy obrazkowych odnośnikach.
Wszystkie te zalecenia potwierdzają, że
rozdzielenie treści od formy (XHTML + CSS)
jest słuszne i ułatwia pracę webmasterom, użytkownikom
i tym samym pajączkom przeszukującym strony.
Mit drugi - Aliasy
Wiele osób uważa adresy
stron, które posiadają za nieciekawe, zbyt długie,
albo trudne do zapamiętania. Nie można się
temu dziwić, ale należy pamiętać, że nie
powinno się zgłaszać do zaindeksowania
aliasów. Cały problem polega na tym, że
najczęściej alias to po prostu ramka, która
ładuje stronę docelową. Nikt nie może
zagwarantować, że pajączek wyszukiwarki podąży
za odnośnikami w tagu <frame>.
Tym samym nie powinno się serwować
wyszukiwarkom całych stron zbudowanych na
ramkach. Pajączek zapisze sobie tylko adres,
tytuł strony i ewentualnie słowa kluczowe z
sekcji <head>. W wynikach
wyszukiwania nie pojawi się kawałek tekstu,
który odnosi się do zadanych słów
kluczowych, ten sam kawałek tekstu, który
pomaga na odróżnienie potencjalnie dobrej
odpowiedzi od błędu wyszukiwarki. Poza tym,
jeśli już nawet pajączek zaindeksuje
wszystkie podstrony, to użytkownik
wyszukiwarki, który zobaczy w wynikach jedną
z podstron i kliknie na odnośnik do niej, nie
zobaczy głównego dokumentu zawierającego
opis ramek, tylko pojedynczy, wyrwany z
"kontekstu graficznego" plik. Jak
widać używanie ramek upraszcza pracę nad
witryną tylko pozornie.
Mit trzeci - Moja strona
jest najlepsza!
Jeśli uważasz, że Twoja
strona jest najlepsza, to dlaczego nie jest
popularna? Warto zadbać o popularność
swojej strony. Można to zrobić na dwa
sposoby: zgłaszając stronę do katalogów,
wymieniając się linkami z zaprzyjaźnionymi
autorami stron o podobnej tematyce (chociaż
tematyka nie jest wcale taka ważna) oraz
serwując czytelnikom taką zawartość, której
nigdy nie zapomną i będą polecać znajomym
albo na grupach dyskusyjnych. Duże przeglądarki
zazwyczaj mają powiązany ze sobą katalog
stron WWW. Polska czołówka nie jest tutaj
wyjątkiem. Google premiuje wyższymi
pozycjami w wynikach strony, które znajdują
się w katalogu dmoz.org,
Onet premiuje strony z katalogu OKO (Ogólnopolski
Katalog Onetu), a Wirtualna Polska z żadnego
innego, tylko Katalogu Wirtualnej Polski. Nie
zaszkodzi zgłaszać stron do wszystkich
znanych katalogów ogólnotematycznych albo
specjalizowanych. W końcu ich ideą jest
stworzenie listy stron WWW. Wyszukiwarki (a w
szczególności Google) "gloryfikują"
strony do których prowadzi dużo odnośników
z innych stron. Warto zadbać o taką
popularność wymieniając się na przykład
ze znajomymi adresami do stron. Wiele
prywatnych, a czasem nawet i strony firmowe
zawiera dział z linkami, a wsród nich linki
z wymiany. Zapewnienie sobie sporej liczby
hiperłącz z innych stron wymaga trochę
czasu i poświęcenia, ale daje zazwyczaj
spore efekty. A jak znaleźć strony, które
chcą się wymieniać linkami? No cóż,
trzeba skorzystać z wyszukiwarki ;-).
Jednak autorowi strony
najbardziej sprawiają radość
bezinteresownie umieszczone linki na innych
stronach. To one najrzetelniej ukazują to jak
strona jest postrzegana w Internecie: czy jest
warta odwiedzin, czy też nie. Niestety,
uzyskanie tego typu odnośników wymaga najwięcej
pracy. Na stronie musimy zamieścić coś, co
spodoba się odwiedzającym, co zostanie przez
nich uznane za rzetelną informację. Dlatego
nikt nie powinien liczyć, że zdobędzie
niesamowitą popularność dla swojej strony,
jeśli nie będzie publikował dobrych, świeżych,
interesujacych i nie skopiowanych znikąd
artykułów. Sama tematyka strony też jest ważna.
Nikt nie powinien liczyć, że jego nowa
strona o zarabianiu w Internecie będzie
generowała dziesiątki megabajtów ruchu
dziennie.
Mit czwarty - Jestem mądrzejszy
od wyszukiwarki!
Oj, jak wiele osób uważa,
że wyszukiwarka to tylko automat i swojego
rozumu nie ma. Wyszukiwarka jest automatem i
swojego rozumu nie ma, to prawda, ale rozum
mają ludzie, którzy tą wyszukiwarkę
stworzyli. Wszelkie próby oszukiwania
wyszukiwarki, czyli spamowania wyszukiwarek, są
zazwyczaj źle traktowane przez obsługę
wyszukiwarek i dają efekty co najwyżej krótkotrwałe.
Pierwszym sposobem, już
dawno wyeliminowanym przez wyszukiwarki, jest
duplikowanie słów kluczowych oraz wpisywanie
słów, które są popularne, a nie są zupełnie
związane z tematyką strony. Meta
keywords jest na tyle mało wiarygodnym
źródłem danych dla wyszukiwarki, że większość
wyszukiwarek już całkowicie omija tą linijkę
(jeszcze tylko onet.pl zwraca uwagę na słowa
kluczowe, ale nie daje się nabrać na ich
duplikowanie).
Sposobem, który teoretycznie
ma przechytrzyć wyszukiwarki, które zwracają
uwagę na zawartość strony, jest
umieszczanie ukrytego tekstu. W ukrytym polu
formularza (<input type="hidden">)
lub w paragrafie napisanym bardzo małymi
literami w kolorze tła umieszcza się słowo
kluczowe, dla którego strona powinna być
wysoko w wyszukiwarkach. Ten sposób można
spotkać na naprawdę wielu stronach
internetowych. Jednak metoda jest dość
prosta do namierzenia. Wystarczy, że
wyszukiwarka nie będzie indeksowała tekstu w
ukrytych polach formularza albo będzie
sprawdzać jak często występują obok siebie
jakieś słowa kluczowe lub ich kombinacje.
Metoda ta jest jedną z prostszych i tym samym
jest tak popularna, że aż blokowana i surowo
karana ;-)
Bardziej zaawansowanym
sposobem na oszukiwanie wyszukiwarki jest cloaking
(ang. cloak - płaszcz, przykrywka). Metoda ta
polega na wykryciu pajączka (na przykład po
adresie IP, z którego pochodzi, lub po ciągu
znaków identyfikującym przeglądarkę) i
przedstawieniu mu odpowiednio spreparowanej
strony. Jednak szkopuł tkwi w tym, że strona
musi być naprawdę dobrze złożona, a i tak
większość wyszukiwarek posiada pajączki,
które nadają z różnych IP oraz
"podszywają się" pod popularne
przeglądarki. Porównanie zebranych danych
przez pajączka zakamuflowanego i
niezakamuflowanego w prosty sposób demaskuje
oszukańczą stronę. Nie należy się jednak
obawiać, że jeśli stosujemy wykrywanie
przeglądarki i serwujemy im różne wersje możemy
zostać potraktowani przez pajączka jako oszuści.
Jeśli rozpoznawanie przeglądarki oraz cały
mechanizm dynamicznego tworzenia strony zostaną
przemyślane (np. serwowanie przeglądarkom różnych
arkuszy stylów, bez zmiany treści strony)
nie powinniśmy się obawiać dyskwalifikacji.
Niektórzy stosują strony
przejściowe, zawierające "wabik na
wyszukiwarki", które normalne przeglądarki
prawie natychmiast przekierowują do
rzeczywistych stron. Ale jaki to stwarza
problem dla twórców pajączków? Praktycznie
żaden.
Ostatnio spotkałem się (a
zapewne nie tylko ja) z dziwną, bo moim
zdaniem nie przynoszącą żadnych pożytecznych
odwiedzin, metodą oszukiwania wyszukiwarek.
Pewien serwis na swoim serwerze tworzy
dokumenty o nazwach i tytułach takich jak
popularniejsze zapytania dla wyszukiwarek. Te
dokumenty najprawdopodobniej w ogóle nie
istnieją. Zapewne to serwer
"udaje", że takie posiada. Pajączki
to zaindeksowały, ustanowiły na dość
wysokich pozycjach, twórcy tego systemu
szybko wyedytowali procedury tworzące te
strony, tak, żeby przekierowywały na inną
stronę, już rzeczywistą i ludzie, zachęceni
wysokimi pozycjami "wpadają w pułapkę".
Jednak ten sposób jest zupełnie nieprzemyślany,
bo ogromne rzesze ludzi, którzy przypadkiem
trafiają na taką stronę zaraz z niej
wyjdzie. Ten sposób jest głupi i denerwujący.
Zapewne jego żywot będzie trwał tylko do
następnych odwiedzin pajączka.
-
Większość sposobów
oszukiwania wyszukiwarek jest karana
chociażby przez usunięcie strony z wyników.
Jedynie najnowsze, ukrywane przez swoich
twórców, metody mogą być skuteczne.
Ale przecież twórcy wyszukiwarek dokładnie
wiedzą co się dzieje w biznesie
pozycjonowania. Tak samo jak
administratorzy serwerów pocztowych i
producenci oprogramowania filtrującego
niechcianą pocztę wiedzą co się dzieje
u spamerów, jakie technologie aktualnie
wykorzystują. W tych konkurujących ze
sobą środowiskach szpiegostwo jest
nieuniknione. Osoby zajmujące się
pozycjonowaniem, można powiedzieć, są
pasożytami wykorzystującymi słabe
punkty wyszukiwarek. I jakoś ten świat
się kręci...
-
Kilka przydatnych linków:
- www.cneb.pl
- www.searchengines.pl
- www.robotstxt.org
- tanie strony internetowe
Autor: Krzysztof
Sawicki
www.antylameriada.net
<== WSTECZ
=
|