Otwarcie Pon - Sob 09:00-18:00
Email info@westom.pl Zadzwoń +48 530 825 825
Otwarcie Pon - Sob 09:00-18:00
Email info@westom.pl Zadzwoń +48 530 825 825

Rozwój wyszukiwarek internetowych na przestrzeni lat

Rozwój wyszukiwarek internetowych na przestrzeni lat
Twoja ocena:

Rewolucja w wyszukiwaniu

Na przestrzeni lat internet zmienił się nie do poznania. Wraz z nim, ciągłej ewolucji podlegają także wyszukiwarki internetowe. Wręcz bardziej pasuje tutaj określenie „rewolucja”.

Zachodzące zmiany są znaczące zarówno dla całego obszaru SEO, jak i dla zwykłego użytkownika, któremu służą. Dość wspomnieć o faktach, które zostały wypowiedziane na konferencji Web Search and Data Mining już w 2009 roku. Przedstawiciel firmy Google wspomniał, że:

  • Ruch sieciowy w ciągu dziesięciu lat wzrósł tysiąckrotnie.
  • Średnie opóźnienie w transmisji spadło pięciokrotnie do około 200 milisekund.
  • Aktualizacja indeksu w 2009 roku zajmowała jedynie kilka minut w porównaniu do miesięcy, jakie musiały minąć, by przekalkulować indeks na nowo w 1999 roku.

Jakość i szybkość wyszukiwania

Gołym okiem widać, że Google doświadczył rewolucji: zwiększył szybkość wyszukiwarki, poprawił jakość wyników przez nią wyświetlanych i sprawił, że jest ona tym samym dużo bardziej przyjazna dla użytkownika.

Inni wiodący w tamtych czasach producenci jak Alta Vista, Info Seek czy Web Crawler, także rozpoczęli działalność w połowie lat dziewięćdziesiątych. Przypomnijmy, że wówczas wyszukiwanie polegało w głównej mierze na analizie słów kluczowych. Technika ta była prosta w implementacji i użyciu. Była też wystarczająca.

Wpływanie na wyniki wyszukiwania

Szybko jednak znaleźli się chętni, by zmanipulować wyniki wyszukiwania – chodziło przecież o duże pieniądze zarobione z pozyskanego w ten sposób ruchu sieciowego. Spamerzy szybko znaleźli sposoby na zawarcie na własnej stronie tysięcy słów kluczowych, ukrycie ich przed oczami użytkownika i wypromowanie witryny na pierwsze pozycje rankingowe.

Przykładową i prostą techniką było wtopienie w tło strony pola tekstowego wypełnionego frazami kluczowymi i pokolorowanie go wraz zawartością kolorem tła. Tekst nie przeszkadzał w przeglądaniu strony, a liczba istotnych z punktu widzenia wyszukiwarki słów stawała się nieporównanie większa od normalnie utrzymywanej witryny. W wyniku spamowania, wyszukiwarki zaczęły wyświetlać na pierwszych miejscach strony, które z punktu widzenia użytkownika w ogóle na to nie zasługiwały.

Google prekursorem

Powstanie i działalność firmy Google w 1999 roku zapoczątkowało nową erę w branży wyszukiwarek. Obecny lider najlepiej poradził sobie z weryfikacją i wartościowaniem odnośników z innych stron, czyli cytatów. W metodologii Google’a, każdy link był brany pod uwagę w ustalaniu rankingu wyświetlanych wyników. Inną jednak miał wagę link pochodzący ze strony zupełnie niezwiązanej tematycznie, a inną odnośnik pochodzący z uznanego i popularnego serwisu.

Idea ta mocno utrudniła życie spamerom, słowa kluczowe nie były już jedynym kryterium. Niektórzy jednak wcale się nie poddali i dość szybko nauczyli się omijać ten problem. Sposobem było kupowanie linków. Wystarczyło zaoferować mniej popularnym witrynom niewielką kwotę pieniędzy, by ta zgodziła się wstawić odnośnik do witryny płacącego. Odmianą tej metody jest także wymiana linków między jednym, a drugim webmasterem. W ten sposób strona A zamieszczała odnośnik do strony B, a strona B link do strony A. Dodatkowo niektórzy zaczęli tworzyć programy, które przemierzały internet w poszukiwaniu grup dyskusyjnych, forów i blogów. Następnie automatycznie dokonywały tam wpisów czy komentarzy zawierających linki do własnej strony.

Oczywiste luki w indeksowaniu zostały szybko załatane przez producentów większych wyszukiwarek. Problem rozwiązywano dwutorowo. Z jednej strony powstały specjalne algorytmy wspierane przez zespoły specjalistów, które miały analizować mapy odnośników, klasyfikować i usuwać nieprawidłowe linki z indeksowania. Z drugiej strony zatrudnieni specjaliści nakładali kary na witryny używające niedozwolonych przez algorytm praktyk. Skutkiem było wykluczenie z indeksu całej strony lub ręczne obniżenie jej pozycji w rankingu do czasu poprawy odnośników. Dodatkowym aspektem zmian był wzrost istotności takich elementów jak anchor text (tekst kotwicy), trafność i zaufanie, jakim darzona była dana witryna przez użytkowników.

Walka między producentami wyszukiwarek i stojących obecnie za nimi algorytmów, a spamerami nie skończyła się do dziś i nic nie wskazuje na to, że zakończy się w przyszłości.

Ciekawą inicjatywę podjął Yahoo!, który od 2008 roku rozpoczął, za zgodą użytkowników, zbieranie dane o czynnościach wykonywanych przez nich już po opuszczeniu strony wyszukiwarki.

W ten sposób mógł sprawdzić na przykład, jaką jakość dla użytkownika przyniósł kliknięty przez niego odnośnik. Jeżeli pozostał na odwiedzonej w ten sposób witrynie przez kilka minut, zwiedził jeszcze kilka podstron a następnie dokonał zakupu, to z pewnością taki link można określić jako istotny, ważny i godny wyświetlenia wysoko w wynikach wyszukiwania.

Metodologia ta, choć coraz bardziej skomplikowana, daje nadzieję na dużo bardziej dogłębną i skuteczną analizę zachowań użytkowników. Ma też olbrzymi potencjał w tworzeniu lepszych rankingów stron.

A co z mediami społecznościowymi?

Innym wątkiem rozwoju wyszukiwarek było zainteresowanie wielkich graczy uwzględnieniem informacji z sieci społecznościowych. Udostępnienia i odnośniki do stron zamieszczane na portalach takich jak Facebook czy Google+ liczone są także, jako ważne dla rankingu linki.

Ciężko jednak stwierdzić używanie przez producentów wyszukiwarek tych danych poza wpływem Google+ na personalizację wyników wyszukiwania. Jeżeli w profilu uzupełnisz pole z adresem, z pewnością zauważysz, że wyszukując hasła „pizzeria rynek”, większość wyświetlonych odnośników będzie właściwa Twojej lokalizacji. Mieszkając zatem we Wrocławiu, zobaczysz listę wrocławskich pizzerii zlokalizowanych w/lub blisko centrum.

Dużym wstrząsem w branży okazała się zmiana wprowadzona przez Google w 2007 roku. Polegała na wprowadzeniu modyfikacji nie do sposobu ustalania rankingu wyników, ale sposobu doboru wyników. Google pomieszał różne kategorie wyświetlanych na stronie wyników informacji. Obok zwykłych odnośników tekstowych zaczęły pojawiać się linki do filmów, GIFów, zdjęć czy lokalizacji na mapie.

To był dopiero wierzchołek góry zmian.

Obecnie Google wykorzystuje bardzo zaawansowane algorytmy do analizy obrazów i jest w stanie za pomocą swojej usługi Google Grafika (http://images.google.com/) zwrócić wyniki nawiązujące do wskazanej za pomocą linku fotografii. Zadając zatem zapytanie wyszukiwarce w postaci odnośnika do zdjęcia wieży Eiffel’a, w wygenerowanych rezultatach zobaczymy informacje o samej wieży, kiedy można ją zwiedzać i w którym hotelu się zatrzymać, by miło spędzić urlop w jej pobliżu.

Wyszukiwarki docierają coraz głębiej

Coraz większa ilość danych staje się dostępna dla wyszukiwarek. Ich producenci skwapliwie starają się z nich korzystać, by poprawiać jakość serwowanych rezultatów zapytań. I tak silniki wyszukiwarek używają danych pochodzących z rejestrów, co pozwala na przykład ustalić właściciela strony.

Dodatkowe dane analityczne, informacje pochodzące z przeglądarek internetowych, pasków narzędzi, wtyczek, dodatkowych aplikacji pozwalają śledzić dużo dokładniej poczynania użytkowników i ich reakcje na zaprezentowane wyniki.

Ich aktywność przestaje być tajemnicą, także po opuszczeniu wyszukiwarki. Analiza strumieni danych o lokalizacji, czasie spędzonym na stronie, głębokości jej przeglądania, mogą prowadzić do wniosków wpływających na optymalizację algorytmów indeksujących.

Wraz z rozpowszechnieniem dostępu do internetu do urządzeń domowych takich jak systemy sterowania monitoringiem, piecem centralnego ogrzewania, czy pralki, możliwe jest budowanie scenariuszy zachowań użytkownika już nie tylko jako surfera stron WWW, ale też jako istoty ludzkiej żyjącej w społeczeństwie. Taka rozbudowa profilu potencjalnego klienta pozwala znacznie lepiej dobierać dla niego reklamy, podsuwać mu dedykowane dla jego zainteresowań i przyzwyczajeń wyniki wyszukiwania. Jednoznacznie nikt nie jest w stanie stwierdzić, jaką część takich informacji wykorzystują wyszukiwarki internetowe. Nie ulega jednak wątpliwości, że dane te mają ogromny potencjał marketingowy i jest tylko kwestią czasu biznesowe ich użycie.

Precyzyjne wyniki

Wyszukiwarki ulepszane są nie tylko pod względem generowania dokładniejszych wyników, ale i po kątem coraz lepiej dopasowanych zestawów wyników. Chodzi o łączenie wielu kategorii materiałów i tworzenie z nich swoistych dashboardów. Google ukierunkował się na personalizację, która korzystając ze zbieranych o użytkowniku danych historycznych, lokalizacyjnych i relacji z innymi użytkownikami, bardziej precyzuje wyniki i dokładniej dopasowuje je do wprowadzonego zapytania. Dzięki temu Google może też tworzyć zestawy rezultatów bazujące na kontekście i trendach.

Historia ewolucji wyszukiwarek została bardzo trafnie opisana w 2008 roku przez Danny’ego Sullivana, znanego dziennikarza specjalizującego się w tematyce silników wyszukiwarek.

Podzielił on proces rozwoju wyszukiwania internetowego na cztery fazy:

  • Faza pierwsza: słowa kluczowe i tekst.
  • Faza druga: analiza linków.
  • Faza trzecia: integracja pionowych wyników wyszukiwania.
  • Faza czwarta: personalizacja.

Już dziś możemy mieć przypuszczenia, co do kierunku przyszłych zmian. Sądzi się, że faza piąta będzie dotyczyła znacznie większego wykorzystania mediów społecznościowych i informacji, które takie portale udostępniają.

Co to jest wyszukiwanie uniwersalne?

Obecnie jednym z największym wyzwań, przed jakim stoją silniki wyszukiwania jest wyszukiwanie uniwersalne. Polega ono na zwracaniu w wynikach treści różnego rodzaju – multimediów, obrazów, filmów itp.. wynika z tego, że pierwotnie wszystkie mechanizmy indeksujące były tworzone z myślą o treściach tekstowych i linkach także w postaci tekstu.

Jak zatem ustalać ranking muzyki czy lokalizacji na mapie? Ogólną ideą na radzenie sobie z tym wyzwaniem jest wykorzystywanie interakcji, w które użytkownik wchodzi z daną treścią. Samo kliknięcie lub jego brak w film w połączeniu z analizą jego częstości stanowi informację o popularności, użyteczności, przydatności, którą wyszukiwarka może wykorzystać do poprawienia wyników zapytań użytkownika. Pierwsze oznaki pozytywnego wpływu interakcji z treściami potwierdzono w roku 2011 w kontekście portalu YouTube. Dziś ten gigant zajmuje trzecią lokatę w na liście wyszukiwarek internetowych, a ponieważ wyszukuje ona tylko filmy (wyszukiwarka pionowa), fakt ten obrazuje też trendy w oczekiwaniach użytkowników, co do rodzaju treści, jakie ich interesują.

Najszerzej stosowane obecnie przez wyszukiwarki technologie bazują w głównej mierze na odpowiednio dobranych słowach i frazach kluczowych, jaki na dobrej jakości linkach. Zapewnia to dobrą jakość zwracanych wyników. Do tych dwóch filarów dołącza pomału trzeci – sygnały pochodzące z obszaru doświadczenia użytkownika (user experience), jego odczuć i wrażeń z zaproponowanych mu treści.

Jak precyzyjne są wyniki wyszukiwania?

Uważa się, że z im większej ilości różnych sygnałów korzysta wyszukiwarka, tym lepiej będzie w stanie dostosować swoje rezultaty do oczekiwań szukającego. Należy przypuszczać, że wymienione dwa fundamenty nadal pozostaną głównymi jeszcze przez przynajmniej kilka lat, ale ten trzeci jest rozwijany i implementowany coraz szybciej i coraz szerzej.

Jaki będzie kolejny krok w ewolucji wyszukiwarek?

Już dziś Sztuczna Inteligencja (ang. Artifical Intelligence, AI), odgrywa bardzo ważną rolę w wyszukiwaniu. Algorytm polegający na „uczeniu” maszyny pewnych zachowań lub właściwego rozumienia pewnej kwestii na podstawie próbki uczącej.

Metoda pozwala działać programom w warunkach niepewności i ryzyka, a także w środowisku niejasnych lub niedookreślonych definicji, czyli w warunkach ryzyka. Temat uczenia maszynowego poruszył sam Larry Page, jeden z założycieli Google. Na konferencji TED w 2013 roku, gdzie wyraził zainteresowanie firmy budową algorytmów pozwalających maszynom grać w gry z człowiekiem czy rozumieć i wyodrębniać byty złożone wraz z cechami ich charakteru, typowymi emocjami.

Ideą Larry’ego było nauczenie maszyn rozumienia proponowanych wyników wyszukiwania, by potrafiły je lepiej zaprezentować użytkownikowi.

Google Translate

Flagowym przykładem zastosowania technologii sztucznej inteligencji jest Google Translate, usługa błyskawicznie tłumaczące tekst z języka źródłowego na jeden z pięćdziesięciu ośmiu obecnie obsługiwanych. Tłumacz działa nie na zasadzie zadanych mu sztywnych reguł gramatycznych i słownika, a uczy się na podstawie zadawanych mu przez internautów pytań.

Adaptuje się do udzielonych odpowiedzi i w ten sposób jest w stanie reagować i poprawnie tłumaczyć nowomowę, nowe style językowe, wyrażenia slangowe a także całe wyrażenia i wypowiedzi. Jest pod tym względem bardziej responsywny od tradycyjnych słowników.

W podobny sposób działa usługa rozpoznawania głosu wykorzystywana przez Google do sterowania urządzeniami, ułatwieniem dostępu do komputera ludziom niepełnosprawnym i wszędzie tam, gdzie niewłaściwe jest użycie innego sposobu wprowadzania zapytań. Wcześniejsze systemy rozpoznawania mowy musiały zostać cierpliwie przyuczone do rozpoznawania głosu danego użytkownika.

Obecna wersja została wytrenowana użyciem i przetworzeniem 230 miliardów wyrażeń i pozwala ominąć żmudny proces uczenia.