Algorytmy wyszukiwarki Google
Internet w kraju i na świecie rozwija się w bardzo szybkim tempie. W Polsce liczbę internautów szacuje się na około 18 milionów. Usługa WWW, która dostępna jest w Polsce od 20 lat przeszła wiele zmian. W dzisiejszych czasach, za pośrednictwem Internetu można załatwić praktycznie wszystko (zakupy, rezerwacja biletów, konferencje). Zwiększone zainteresowanie usługami oferowanymi przez strony internetowe wpływa na wzrost liczby stron internetowych (w ciągu kwartału rejestrowanych jest około 300 tysięcy domen). Ciągły wzrost liczby stron www powoduje zwiększenie konkurencyjności na rynku stron internetowych. Właściciele stron coraz częściej szukają metod na polepszenie swojej pozycji w wyszukiwarce internetowej (ang. search engine) na dane słowo kluczowe. W sieci można znaleźć wiele firm zajmujących się polepszaniem pozycji w wyszukiwarce tzw. pozycjonowaniem. Przeanalizujemy, w jaki sposób Google ocenia strony i jakie ma do tego narzędzia.
Twórcy wyszukiwarki Google w czasach zwiększającej się liczby stron internetowych muszą zapewnić wysoki poziom zwróconych wyników w wyszukiwarce. Kluczowym założeniem Google jest przedstawienie internaucie strony najtrafniej opisującej jego zapytanie.
Działanie wyszukiwarki (Google) opiera się na tzw. robotach (ang. web crawler), które są odpowiedzialne za przeszukiwanie sieci według ściśle określonego algorytmu. Każda wyszukiwarka działa według innego algorytmu, ściśle chronionego. Częstotliwość wizyt robotów indeksujących na stronie jest zależna od wielu czynników, głównie od liczby linków prowadzących do naszej strony. Biorąc pod uwagę popularność wyszukiwarki Google, weźmiemy pod lupę jej algorytmy i opiszemy na co zwracają uwagę przy tworzeniu rankingu wyników wyszukiwania na podane słowo kluczowe.
Algorytm Panda
Algorytm został wdrożony w polskiej odsłonie wyszukiwarki w drugiej połowie 2011 roku. Jego podstawowym zadaniem jest ocena treści na stronie. Na podstawie analizy zawartości serwisu, algorytm stwierdza czy zawarta w nim treść jest użyteczna dla internautów. Strony zawierające krótkie opisy (bądź skopiowane z inne strony) są przez ten algorytm umieszczane niżej w rankingu na rzecz stron z rzetelną i unikalną treścią, która jest wartościowa dla użytkowników.
Algorytm Pingwin
Drugi z algorytmów wprowadzony został w 2012 roku. Bierze on pod lupę linki prowadzące do strony i ewentualne przeoptymalizowanie strony (przesycenie słów kluczowych, ukrywanie treści, itp.). Najlepszym sposobem na uniknięcie obniżenia rankingu przez algorytm Pingwin, jest rezygnacja z popularnych SWL-i, czyli systemu wymiany linków. Są one bardzo negatywnie oceniane przez algorytm i uznawane za linki bardzo niskiej jakości.
Algorytm Koliber
Algorytm stworzony został z myślą o zwiększeniu trafności wyników wyszukiwania. Opiera się w głównej mierze o semantykę. Algorytm jest „odporny ” na sztuczne nasycenie tekstu słowami kluczowymi. Potrafi natomiast odczytywać istotne słowa kluczowe z kontekstu całego bloku tekstowego.
Wszystkie algorytmy opracowane przez Google stale ewoluują i dążą do doskonałości, aby zwracać trafne wyniki wyszukiwania, które będą wiarygodne dla użytkownika. Zmiany algorytmów są dokonywane z różną częstotliwością i mniej lub bardziej wpływają na globalne zmiany w wynikach wyszukiwania. Rocznie Google wprowadza około kilkuset drobnych zmian w algorytmach i kilka bardziej znaczących.
Twórcy najpopularniejszej wyszukiwarki przekonują, że stosowanie się do ich wytycznych zapewni wysokie wyniki w wyszukiwarce na związane z branżą słowa kluczowe. Jedno jest pewne. Pozycjonowanie to proces żmudny i czasochłonny. Coraz doskonalsze algorytmy utwierdzają w przekonaniu, że drogi na skróty w SEO niestety nie ma.
Dodaj komentarz
Chcesz się przyłączyć do dyskusji?Feel free to contribute!