Otwarcie Pon - Sob 09:00-18:00
Email info@westom.pl Zadzwoń +48 530 825 825
Otwarcie Pon - Sob 09:00-18:00
Email info@westom.pl Zadzwoń +48 530 825 825

Jak zbudować nawigację na stronie www?

Struktura nawigacji od zawsze była niezwykle ważna, nawet jeszcze wtedy, kiedy wyszukiwarki nie pełniły tak ważnej funkcji. Nawigacja od zawsze pomagała internautom dotrzeć do interesujących ich treści. Obecnie, odpowiednio zaprojektowana nawigacja ułatwia życie zarówno użytkownikom, jak i wyszukiwarkom.

Aby roboty indeksujące znalazły i zaindeksowały witrynę, to musi być ona dla nich czytelna. Jak wcześniej było wspomniane, wyszukiwarki nie są w stanie wszystkiego odczytać – napisy na obrazkach, pliki we Flashu itp. Z odczytywaniem treści też czasem mogą mieć problem. Niekiedy treść jest wyświetlana w taki sposób, że jest widoczna dla użytkowników, a dla wyszukiwarek już nie. Proste odnośniki tekstowe i w formacie HTML są czytelne dla ludzi i robotów indeksujących. Treść można zawrzeć na stronie na wiele sposobów, najczęściej zamieszcza się ją pod kątem użytkowników. Treść zrozumiała dla ludzi, a nie dla wyszukiwarek to dodatkowe problemy do rozwiązania.

Jest kilka trudnych kwestii:

  • Własne wyszukiwarki witryn – zadaniem takich wyszukiwarek jest znajdowanie, indeksowanie i udostępnianie wszystkich treści zawartych na danej witrynie. Duże serwisy często oferują takie rozwiązanie użytkownikom. Własna wyszukiwarka ma za zadanie ułatwić internautom poruszanie się na stronie i znalezienie tego, czego potrzebują. Własne wyszukiwarki posiadają np. porównywarki cen, portale podróżnicze, strony z nieruchomościami, z ofertami pracy itp. Takie wbudowane wyszukiwarki są dobre dla użytkowników, ale nie dla standardowych wyszukiwarek internetowych. „Tradycyjne” wyszukiwarki skanują strukturę linków w sieci i nie mogą wysłać zapytania za pomocą innej wyszukiwarki. Dlatego wszystkie treści i linki dostępne tylko poprzez wyszukiwarkę wewnętrzną, będą niewidoczne dla „zewnętrznych” robotów indeksujących.
  • Formularze internetowe – podobnie jak z wyszukiwarkami wewnętrznymi, jest z formularzami internetowymi. Adresy URL i treści dostępne tylko przez formularz, są dla wyszukiwarek internetowych niewidoczne. Najprostszym i najczęściej występującym rodzajem formularza, jest formularz kontaktowy. Wszystkie treści udostępniane po przesłaniu takiego formularza nie będą widoczne dla robotów indeksujących. Akurat w przypadku formularza kontaktowego nie ma to większego znaczenia, ale już w przypadku innych może być sporym utrudnieniem. Roboty indeksujące przecież nie są w stanie wypełnić i przesłać jakiegokolwiek formularza. Strony internetowe, do których dostęp jest ograniczony przez konieczność zarejestrowania się i logowania, muszą jakoś rozwiązywać takie problemy. Na przykład stosując mechanizm „First Click Free” lub udostępnić linki z tekstem poza ograniczonym dostępem, co jest znowu sprzeczne funkcją rejestracji i logowania.
  • Obrazy – tekst zamieszczony na obrazie jest niewidoczny dla robotów indeksujących. Używając atrybutu alt, można pokazać chociaż część informacji zawartych na obrazie. Warto również zamieszać podpisy pod obrazami w języku HTML.
  • Java i pliki Flash – zagnieżdżony aplet Javy oraz pliki Flash również nie są zrozumiałe dla wyszukiwarek.
  • Video i audio – wyszukiwarki jeszcze nie są w stanie zrozumieć zawartości plików video i audio. Google nieustannie jednak prowadzi badania nad możliwością odczytywania materiałów dźwiękowych i zrozumieniu przez wyszukiwarki zawartych w nich informacji. Wyszukiwarka Baidu umożliwia wyszukiwanie plików MP3, a aplikacje takie jak Shazam i Jsaikoz potrafią zidentyfikować fragmenty utworów muzycznych. Programy takie jak Dragon Naturally Speaking, MagicScribe+, Skrybot, Dictation Pro, umożliwiają transkrypcje mowy na tekst. Można to wykorzystać i część tekstu umieścić na stronie, gdzie są zawarte materiały multimedialne. To zwiększy widoczność witryny w sieci.
  • JavaScirpt – dzięki JavaScript można nadać stronie internetowej sporo niepowtarzalnych efektów, co może przyciągnąć wielu użytkowników, jednak na robotach indeksujących nie robią one większego wrażenia i nie będą przez nie odczytane. Są jednak pewne wyjątki. Niektóre strony za pośrednictwem JavaScript, dynamicznie wywołują treści na innych stronach np. komentarze na Facebooku. Gdyby przeanalizować kod źródłowy strony z komentarzami, to nie byłoby widać ich treści. Nie są zawarte w kodzie HTML. Treści znajdują się na Facebooku i są dynamicznie przenoszone z serwera na stronę zaraz po jej wczytaniu. To jest przykład dla treści, która nie została zaindeksowana. Jeszcze klika lat temu Google nie indeksował treści zawartej w komentarzach, ale od niedawna to się zmieniło. Teraz wyszukiwarka indeksuje treść zawartą w formularzu do wystawiania komentarzy i wiąże ją z witryną. Można samemu sprawdzić, czy treść naszego komentarza została zaindeksowana przez wyszukiwarkę Google. Wystarczy wpisać w polu wyszukiwania treść komentarza lub jego cześć w cudzysłowie, aby zobaczyć, co znajdzie wyszukiwarka. Google coraz sprawniej radzi sobie z JavaScipt, ale warto pomoc wyszukiwarce i umieścić cześć zawartości w formacie HTML.
  • Ramki – największą trudnością dla wyszukiwarki są ramki frame oraz iframe. Mogą one zawierać treści z kilku różnych adresów URL.
  • AJAX ( ang. Asynchronous JavaScript and XML – asynchroniczny JavaScript i XML) – treść może być dostarczana w taki sposób, że nie będzie możliwe jej wykrycie przez wyszukiwarki. AJAX pobiera dane bez odświeżania, bez zamiany adresu URL, dlatego te treści mogą nie być widoczne dla robotów indeksujących. Jakiś czas temu Google ogłosił, że strony w technologii AJAX prawdopodobnie nie będą w ogóle indeksowane przez wyszukiwarkę. Nie oznacza to, że trzeba od razu rezygnować z aplikacji. Choć wyszukiwarki mają problem z AJAX-em, to z drugiej strony jest on bardzo przyjazny użytkownikom. Dlatego można połączyć te dwie rzeczy. Z myślą o robotach indeksujących można wprowadzić inny system indeksowania. Wystarczy odpowiednio zadbać o dostarczanie linków wyświetlających całą treść strony lub stworzyć mapę witryny. Następnie trzeba się jeszcze upewnić, że będą one dostępne dla użytkowników. Adres URL znaleziony przez wyszukiwarki musi być taki sam, jak bezpośredni link do strony w zakładce. Aplikacje AJAX nie zwracają adresu URL do aktualnie pobranych i wyświetlanych treści, dlatego nie wskazują poprawnych treści w łączach.

 

Jak stworzyć zrozumiałą dla użytkownika nawigację? Nie jest to wcale takie trudne, wystarczy zastosować się do kilku wskazówek:

Alternatywna struktura linków w nawigacji – jeśli nawigacja jest w technologii Flash, JavaScript, AJAX itp., to warto pomyśleć o innym systemie indeksowania. Technologie, chociaż są przyjazne użytkownikom, to dla wyszukiwarek już nie. Warto stworzyć dodatkowe linki tekstowe w formacie HTML. Dzięki temu, roboty indeksujące bez problemu dostaną się na stronę, a także ta część użytkowników, która nie posiada odpowiednich wtyczek w przeglądarce.

Przemyślana architektura – przede wszystkim należy wystrzegać się pętli przekierowań kodów serwera HTTP 301 i 302. Plątanina linków między stronami witryny, może być wyzwaniem nawet dla „doświadczonych” robotów indeksujących. Zapętlone stronicowanie, kalendarz z linkami, za dużo opcji udostępniania i sortowania treści – nawet jeśli strona składa się tylko z kilku dokumentów, to dla wyszukiwarek może być zrozumiane jako witryna z wręcz nieskończoną ilością podstron.

Rozważne ograniczenie dostępu do treści poprzez pliki cookie i identyfikatory sesji – ograniczenie w jakikolwiek sposób użytkownikowi dostępu do witryny, oznacza jednocześnie ograniczenie dostępu dla wyszukiwarki. Przekierowania do innych treści poprzez ciasteczka czy identyfikator treści sprawiają, że roboty indeksujące nie są w stanie przeskanować zawartości strony internetowej. Wyszukiwarki nie korzystają z plików cookie. Nie rozumieją również identyfikatora sesji. Każde odwiedzenie strony przez wyszukiwarkę jest związane z nadaniem stronie nowego adresu URL z innym identyfikatorem sesji. Zatem ten sam adres URL z innym identyfikatorem sesji jest traktowany przez wyszukiwarkę jako zupełnie nowa strona internetowa.

Hosting – sieci CDN (ang. Content Delivery Networks) oferują wiele rozwiązań zwiększających wydajność witryny. Hosting w sieci CDN przyczynia się do częstszego indeksowania witryn.

Problemy z serwerem – przeciążenie, czy czasowe wyłączenie serwera oznacza, że wyszukiwarki nie będą mogły przeskanować zawartości witryny w tym czasie. Takie awarie rzadko kiedy wpływają na pozycję wyszukiwarki w rankingu.

Adres IP hosta – jeśli adres IP należał wcześniej do witryn odpowiedzialnych za spam, to może się zdarzyć, że wyszukiwarki nadal go będą w taki sposób traktować. Wpłynie to bardzo niekorzystnie na indeksowanie przez roboty i pozycję rankingową witryny.