WordPress - motywy, wtyczki, informacje, programowanie

Dawna strona Google

Historia SEO i pozycjonowania cz.2 – PageRank i era nowożytna

W styczniu 1996 roku dwóch doktorantów uniwersytetu Stanforda w Kalifornii Larry Page i Siergiej Brin rozpoczęło projekt badawczy, rozpatrujący relacje pomiędzy stronami internetowymi i próbę zastosowania teorii grafów do oceny jakości stron. Projekt powstawał w słonecznej, buntowniczej Kalifornii w której pieniądze z show biznesu i pieniądze z pierwszych udanych biznesów internetowych tylko czekały na genialny wynalazek.

Przeczytaj najpierw pierwszą część artykułu: Historia SEO i pozycjonowania (1) – W epoce Internetu łupanego

Pierwsza wersja nowej wyszukiwarki nazywała się BackRub ale już wkrótce miała zmienić nazwę na Google – słowo, które ponoć powstało przez przekręcenie (przypadkową literówkę) słowa Googol oznaczającego liczbę 1 ze 100 zerami. Początkowo wyszukiwarka stała w domenie google.stanford.edu, ale we wrześniu 1997 została zarejestrowana domena google.com, a rok później powstała firma i rozpoczęła pracę w garażu jednej z przyjaciółek Paga i Bnina oraz zatrudniła pierwszego pracownika.

Firma w momencie powstawania miała tylko jedno dobro – to co było w głowach Page’a i Brina, algorytm PageRank. Właścicielem patentu jest zresztą Uniwersytet Stanforda, ale firma Google ma prawa wyłączności na jego użwanie. W zamian za to Uniwersytet otrzymał 1,8 miliona akcji firmy, które spieniężył w 2005 roku za 336 milionów dolarów.

Google1998

Strona Google z 1998 roku

Pomysł na wagę złota

U podstaw algorytmu Page Rank leży założenie, że strona internetowa jest wartościowa, jeśli inne strony do niej linkują. Im więcej stron linkuje do twojej strony, tym jest cenniejsza. Mogą być wyjątki, które przeczą tej regule, ale wyszukiwarki skupiają się na tym, żeby właściwie indeksować i wyświetlać miliardy stron, dzisiaj już miliardom użytkowników, a przy dużych liczbach, takie wyjątki tracą na znaczeniu.

Pomysł wydaje się z perspektywy czasu dziecinnie prosty i tak naprawdę w środowiskach akademickich nie był niczym nowym. Od zawsze wartość publikacji naukowych była oceniana według tego jak wiele innych artykułów, książek i opracowań je cytowało lub się do nich odwoływało. Założenie jest dość oczywiste –  jeśli tworzysz coś wartościowego, inni ludzie będą to wykorzystywać, cytować, umieszczać w przypisach. Podobnie ocenia się media. Gazetę, czy stację telewizyjną uznaje się za opiniotwórczą, jeżeli inne  media (najczęściej przecież konkurencyjne) cytują ją często, powołują się na nią w swoich programach czy artykułach.

Dobre wykonanie

Talent twórców Googla objawił się na trzy sposoby. Po pierwsze w ogóle doszli do tego, że powyższą logikę można zastosować do stron internetowych. Wszystkie genialne pomysły wydają się proste, kiedy już ktoś na nie trafił. Ileż to razy mówimy „że też ja na to nie wpadłem”.

Po drugie, Bnin i Page roszerzyli te proste reguły o kilka dodatkowych elementów. Połączyli je dobrze z normalną oceną stron według zawartości oraz przyjęli założenie, że nie tylko liczba stron linkujących ma znaczenie, ale również ich wartość. Przekładając na język publikacji naukowych moglibyśmy powiedzieć, że ważne jest nie tylko to, jak wielu naukowców cię cytuje, ale liczy się też jacy to są naukowcy. Jedno cytowanie przez noblistę warte jest tyle co tysiąc wzmianek w pracach magisterskich.

Po trzecie, samo wymyślenie tych wszystkich reguł nie wystarcza. Ich efektywna implementacja dla tak gigantycznego i tak szybko zmieniającego się zbioru danych jakim jest Internet to wielka sztuka i do dziś to właśnie jest jedną z najpilniej strzeżonych tajemnic firmy. Ludzie pracujący w dziale wyszukiwarek Google to prawdziwi geniusze, elita, najlepsi z najlepszych. Dla każdego informatyka praca tam to jak lot w kosmos, jak praca w CERNie dla fizyka, jak gra w Realu Madryt dla piłkarza.

Użytkownik przede wszystkim

Brin i Page od początku stawiali przede wszystkim na komfort i satysfakcję użytkownika. Wyrośli w buntowniczej kulturze Kalifornii, wśród wolnościowych i lewicowych ideałów i temu należy przypisać fakt, że od początku kategorycznie wykluczyli wyświetlanie bannerów na stronach swojej wyszukiwarki. Reklama już wtedy zaczynała pożerać sieć. Strony innych wyszukiwarek oraz strony portali, które były wejściem do nich, zaczęły zapełniać się reklamami, które były coraz większe, a ich rozwój wyprzedzał rozwój łącz, więc ładowały się powoli. Strona Googla była mała, prosta, ładowała się błyskawicznie, a sama wyszukiwarka od początku swojego istnienia była niezwykle szybka i wygodna.

Ten upór w kwestii reklam niemal doprowadził Googla do upadku, bo rósł błyskawicznie nic nie zarabiając, balansując na łasce inwestorów. Przetrwał dzięki atmosferze Doliny Krzemowej, ogromnym pieniądzom, które towarzyszyły boomowi Internetu i gwałtownemu rozwojowi domowych komputerów. Wielu inwestorów nie było finansistami, ani bankowcami, sami wywodzili się z małych firm, które na fali eksplozji technologicznej odniosły wielki sukces. Sami jeszcze niedawno żebrali o pieniądze, a teraz zrealizowali zyski i siedząc na górach pieniędzy zastanawiali się co robić dalej.

Gdyby nie ta atmosfera, Google być może by upadł, albo poszedł zupełnie inną drogą, być może kupiłaby go i zmarnowała jego potencjał jakaś niegramotna korporacja. Gdyby Larry Page i Siergiej Brin wpadli na swoje genialne pomysły w innym mieście albo kraju być może nigdy byśmy się o tym nie dowiedzieli. Ale stało się to w Kalifornii, dlatego Google przeżył bez bannerów i doczekał czasów gdy jego twórcy zaadaptowali i rozwinęli istniejący już na rynku pomysł reklamy kontekstowej. Google zaczął emitować reklamy systemu AdWords obok wyników wyszukiwania, mało uciążliwe dla użytkowników boksy tekstowe, których zawartość była związana z treścią zapytania użytkownika. Pomysł okazał się strzałem w dziesiątkę. W ciągu czerech pierwszych lat przychody firmy z 200 tys. dolarów wzrosły do 1,5 miliarda.

Stawka rośnie

Każdy kto pamięta tamte czasy, okolice roku 2000, każdy kto wtedy już intensywnie korzystał z Internetu, pamięta ten pierwszy raz,  kiedy skorzystał z Googla. To było jak olśnienie, choć dziś wydaje się zupełnie normalne. Po prostu działało. Zamiast fatalnie poukładanej listy wyników pełnej stron porno i pirackich, i takich które w ogóle nie wiadomo skąd się tam wzięły, otrzymywało się piękną treściwą, zupełnie pozbawioną spamu listę. Na samej górze była ta naprawdę najlepsza strona, a potem w dół coraz to mniej istotne.

Wyszukiwarka nagle stała się bardzo użyteczna, Internet w tym czasie rósł coraz szybciej, i te dwa zjawiska wzajemnie się napędzały. Okazało się, że można zrobić niewielką stronę, która jest poświęcona jakiemuś tematowi i zawiera rzetelne informacje i z czasem można przegonić nawet serwisy tematyczne wielkich i – jak się zdawało dotąd – niezwyciężonych portali. To napędzało dalszy rozwój, bo nagle autor dobrego bloga mógł dotrzeć do czytelników na całym świecie. Rozwinęła się blogosfera, w sieci pojawiało się coraz więcej treści i coraz więcej autorów, jednocześnie rosły możliwości techniczne Internetu, rosła przepustowość i spadała cena łącz.

Wraz z rozwojem i sieci rósł  także rynek reklamy internetowej, a odkąd Google wprowadził system AdSense, w którym reklama  kontekstowa wyświetlana jest na dowolnych serwisach internetowych, nawet niewielkie strony czy blogi, mogły zarabiać jakieś pieniądze. Znalezienie się na pierwszej stronie w wynikach wyszukiwania popularnych słów kluczowych stało się coraz cenniejsze, pozwalało zarobić realne pieniądze i to właściwie każdej stronie. Wyszukiwarkę znacznie trudniej było teraz oszukać, ale jednocześnie liczba potencjalnych kombinatorów wzrosła wielokrotnie, rosła tez pokusa finansowa. W tym samym czasie jednak reklama kontekstowa przynosiła już firmie Google naprawdę duże pieniądze, dzięki czemu było ją stać na szybki rozwój i walkę ze spamerami i oraz ekspertami od czarnego SEO.

Linki na wagę złota

Logika liczenia PageRanku rozwinęła cały rynek wymiany i handlu linkami. To linki podbijały PageRank, to one na koniec sprawiały, że stronę dało się wypozycjonować wysoko w wynikach wyszukiwania. Powstały niezliczone katalogi, płatne i darmowe oraz strony gdzie można umieścić artykuł linkując do własnego serwisu – tak zwane Presell Pages (zwane po polsku preclami). Powstały też rozbudowane techniki automatycznego generowania niezliczonej liczby stron. Ich jedynym celem było linkowanie do właściwych serwisów, które miały się znaleźć na pierwszej stronie wyników wyszukiwania dla wartościowych fraz, takich, które dało się łatwo zmonetyzować. W dalszym ciągu pewne znaczenie miała i ma zawartość strony, jej treść, tytuł, opis, do niedawna również słowa kluczowe, zatem powstawały automatycznie generowane serwisy i pseudo-blogi, które zawierały treści produkowane przez automaty, powstałe w wyniku permutacji słów i zdań w tekstach z innych stron, wzbogaconych o synonimy zaczerpnięte z ogólnie dostępnych słowników. Narodziła się cała klasa internetowych śmieci, pozornie sensownych, ale w rzeczywistości bezwartościowych serwisów, przez które użytkownik musi się przedrzeć aby dotrzeć do wartościowej informacji.

Ogólnie znana mechanika PageRanku i jego jawnie publikowana wartość ułatwiały życie spamerom, więc z czasem Google coraz bardziej zaczął polegać na dodatkowym czynniku czyli mierze zaufania dla poszczególnych stron, określanej jako TrustRank. Dziś jest to podstawowy czynnik warunkujących pozycję stron w wynikach wyszukiwania. Choć PageRank dalej jest podstawową metodologią, jego wyniki są filtrowane przez wiele algorytmów starających się odsiać internetowy śmietnik. Zaletą PageRanku jest jednak to, że każda większa strona poprawie zidentyfikowana jako wartościowa podnosi jakość nie tylko tej części wyników, w której występuje na pierwszych pozycjach, ale wpływa dodatnio na jakość wyników nawet bardzo odległych zapytań.

Algorytmy podobne do PageRanku i mechanizmy TrustRanku są dziś podstawą wszystkich liczących się wyszukiwarek, Binga, Baidu, Yandeksu. Narodziła się era wyszukiwarek nowoczesnych, ale być może i ona szybko przeminie, kiedy wraz ze wzrostem mocy obliczeniowej przeciętnych komputerów osiągalne staną  się mechanizmy rozpoznające znaczenie treści na stronach, uczące się, działające w oparciu o sztuczną inteligencję, potrafiące po prostu jak człowiek rozpoznać, że jeden tekst jest ciekawy a drugi jest bełkotem. Wszystkie firmy rozwijające wyszukiwarki wspierają rozwiązania tak zwanego semantic web, którego rolą jest skrócenie drogi od automatów, sprytnych ale działających schematycznie, do automatów, które naprawdę rozumieją co indeksują.

Obok dzieje się druga rewolucja. Coraz większe znaczenie na wyniki wyszukiwania ma to co się dzieje w społecznościach internetowych, na Facebooku, Twitterze i tysiącach podobnych serwisów. Coraz bardziej wyraźna staje się personalizacja, dwie różne osoby przy swoich laptopach na to samo zapytanie już dziś dostają różne, a przede wszystkim inaczej ułożone wyniki. Zmieniają się  reguły gry i być może niedługo cała wielka branża SEO podupadnie i straci na znaczeniu, bo będzie w stanie dostarczyć jedynie ułamka tej wartości, którą daje dzisiaj.

Póki co jednak, zarówno to białe jak i czarne SEO jest bardzo istotnym składnikiem Internetu i żaden twórca strony, który chce aby stała się ona popularna, nie może go ignorować.

Przeczytaj artykuł o tym jak działa SEO i o co w nim chodzi: Podstawy SEO – Jak to działa?

Powiadomimy Cię o nowych artykułach

1 komentarz

  1. Serdecznie dziękuję za obszerne i profesjonalne wytłumaczenie zagadnienia SEO. Tak ciekawie Pan pisze, że przeczytałam wiele Pana wpisów jednym tchem.
    pozdrawiam,
    Barbara