Strona przyjazna wyszukiwarkom internetowym
Co kryje się pod magicznym pojęciem - "strona przyjazna wyszukiwarkom"? Tworzenie strony internetowej to w głównej mierze efekt wizualny, funkcjonalny - w pełni widoczny dla człowieka. Oprócz człowieka, strony internetowe odwiedzają tzw. boty internetowe, których celem jest ocena strony pod względem merytorycznym, nadanie jej odpowiedniego priorytetu i zakwalifikowanie do wyświetlenia na określonej pozycji. Kiedy robot odwiedzi stronę internetową, trafia automatycznie do bazy wyszukiwarki. Warto mieć stronę przyjazną wyszukiwarkom ponieważ są głównym źródłem kierującym internautów na naszą stronę internetową.
Co robię Boty na stronie internetowej?
Będąc na stronie internetowej, robot wczytuje jej zawartość, indeksuje, po czym próbuje otworzyć każdy link który znalazł w serwisie. W taki sposób przechodzi przez poszczególne podstrony na które wskazuje link. Jeśli natrafi na link który wskazuje na inny serwis, odwiedza również inny serwis. Boty często nazywa się "pajączkami" przemierzającymi zasoby internetowe w charakterystyczny sposób, odnajdując "sieć powiązań" pomiędzy stronami. Roboty niestety nie widzą w pełni zawartości strony tak jak to widzi człowiek - np. zdjęcia. Wspomniana sieć powiązań jest jednym z istotnych kryteriów, biorących udział w ocenie przyjazności strony. Im więcej innych serwisów wskazuje na nasz serwis tym strona zdobywa większy autorytet a im więcej stron wskazuje na nasz serwis z większym autorytetem, tym lepszy wynik ma nasz strona. Z tego względu warto promować naszą stronę wśród innych serwisów, budując w ten sposób reputację serwisu internetowego.
Co zrobić aby strona była przyjazna wyszukiwarkom?
Należy spojrzeć na serwis od wewnętrznej strony, dokładnie tak jak widzą to boty internetowe. Czynność ta nazywa się niekiedy optymalizacją pod kątem wyszukiwarek (SEO), czyli tuż przed interpretacją kodu źródłowego strony. Istnieje wiele reguł i atrybutów których dostarczenie dla przeglądarki, pomaga zrozumieć zakres i treść strony internetowej. Wyszukiwarki naszą stronę internetową widzą mniej więcej w ten sposób:
<body><div class="header"> <a href="/" title="Do góry!" id="scroll-to-top"></a><div class="header_block"><div class="header_contact"><p class="contact">Kontakt: <span class="contact-number">600 300 079</span></p>
Przede wszystkim należy umożliwić robotom, łatwy sposób indeksowania zasobów internetowych. Jednym ze sposób klarownego pokazania co zawiera strona internetowa, jest utworzenie tzw. mapy strony. Hierarchiczne listowanie zawartości strony, pomaga zrozumieć istotność poszczególnych podstron, tym samym dotrzeć w łatwy sposób do każdej podstrony - dla robota internetowego to mapa, tak jak dla człowieka mapa drogowa.
Przyjazne nazwy adresów odnoszących się do poszczególnych podstron serwisu - łatwiej jest zapamiętać czy też przeczytać adres strony internetowej, jeśli napisana jest w zrozumiałym języku. Przykład tego samego adresu strony internetowej z użyciem nazwy oryginalnej, zrozumiałej tylko dla strony internetowej:
www.estrony-internetowe.eu/index.php?option=com_content&view=article&id=33
Oraz przyjaznej zarówno dla wyszukiwarki jak i człowieka:
www.estrony-internetowe.eu/projektowanie-stron-internetowych-trendy-2015
Powyższe adresy wskazują na tą samą stronę, jednak czytelny jest tylko drugi adres, który jest przyjazny. Zatem czytelna konstrukcja adresu zarówna dla robota jak i człowieka będzie korzystniejsza.
Roboty nie widzą również tekstu generowanego przez Flash czy Java Script, nie wiedzą dokładnie co jest na zdjęciach. W przypadku zdjęć stosuje się specjalny atrybut ALT który informuje przeglądarkę co dokładnie zawiera zamieszczona grafika.
To tylko niektóre z elementów które stosowane są przy optymalizacji strony internetowej - wszystko po to, by strona była lepiej zinterpretowana i zrozumiana przez przeglądarki, co zaowocuje trafniejszymi wynikami wyszukiwania. Wspomniane zabiegi, pozwolą na zwrócenie uwagi botów na ważne informacje o stronie, za pomocą wielu technik optymalizacyjnych. Pająki internetowe potrafią doskonale zweryfikować to co zostanie zadeklarowane jako zawartość strony z tym co jest faktycznie, przez zastosowanie wieli złożonych algorytmów.