Większość kont w Google Analytics jest źle skonfigurowanych – wywiad z Maciejem Lewińskim

Wywiad z Maciejem Lewińskim – trzykrotnym zwycięzcą konferencji I Love Marketing, certyfikowanym trenerem Google Analytics i Google Ads, właścicielem agencji iSurvival. Z Cezarym Lechem porozmawiał o innowacjach systemów reklamowych i technologicznej rewolucji, która dzieje się na naszych oczach.

CL: Gościem wywiadu jest Maciej Lewiński, pierwszy, trzykrotny zwycięzca I Love Marketing, największej konferencji marketingowej w Polsce.

ML: Faktycznie udało mi się trzy razy wygrać konferencję. Dziękuję to za mało, ale naprawdę bardzo dziękuję za wszystkie oddane na mnie głosy. I jeszcze raz dzięki za zaproszenie.

CL: Maciej, czym tak naprawdę zajmujesz się zawodowo? Interesuje mnie biznesowy punkt widzenia.

ML: Bardzo trudno jest na to pytanie jednoznacznie odpowiedzieć, bo jakiś czas temu moim głównym zajęciem było prowadzenie szkoleń. A to dlatego, że zostałem certyfikowanym trenerem Google AdWords. W miarę, jak ten program rósł, ilość trenerów wzrosła tak znacznie, że trudno było zorganizować szkolenie, na którym można byłoby realnie zarobić. Postanowiłem zatem, że zmienię trochę kierunek i zejdę z tej adwordsowej drogi w stronę Analyticsa. Wtedy w moim życiu pojawił się Google Analytics. Zacząłem prowadzić kampanie AdWords z wykorzystaniem Analyticsa, ale zauważyłem, że jest na rynku potrzeba, żeby pokazać, jak działać z punktu widzenia analizy danych, kampanii i ich wyników.

Ten Analytics najpierw mnie niestety „położył”, bo stwierdziłem, że skoro jestem certyfikowanym trenerem Google, no to: „ja nie zdam oficjalnego certyfikatu Google Analytics Individual Qualification?!”. Podszedłem do niego i… nie zdałem. Miałem tydzień, żeby nauczyć się wszystkiego, czego nie wiedziałem, bo do egzaminu można było podejść ponownie po siedmiu dniach. Wtedy kosztował on jeszcze pięćdziesiąt dolarów, więc byłem zestresowany – jestem z Poznania – i liczyłem każdy grosz. Za drugim razem udało mi się zdać „na granicy”. Od tej pory przepadłem całkowicie w analitykę.

Analizowałem głównie swoje strony internetowe. Z czasem, gdy prowadziłem szkolenia z AdWords, pojawili się klienci i im też zacząłem analizować strony internetowe, przez co zaczęły się poprawiać wyniki z AdWordsów. Im więcej tego robiłem, tym wyraźniej widziałem potrzebę przeprowadzania szkoleń z Google Analytics, a nie z Google AdWords. Zatem zacząłem to robić. Google zobaczył, że szkolę zarówno z Google Analytics, jak i AdWords, a z racji tego, że byłem już „sprawdzonym człowiekiem”, bo miałem certyfikat, to zaufali mi na tyle, że zaprosili mnie do projektu pod nazwą „Akademia Google Partners”, w ramach którego szkoliłem agencje i domy mediowe w zakresie prawidłowego wykorzystania tych dwóch programów.

Ten projekt trwał bardzo długo i w pewnym momencie zaczęło się w nim pojawiać coraz więcej trenerów AdWords. Stwierdziłem, że robi się dosyć ciasno i postanowiłem zająć się tylko i wyłącznie analityką. Im więcej szkoleń z Analyticsa robiłem, tym więcej po szkoleniach zaczęło wpadać tzw. leadów. Gdy miałem dziesięciu klientów, którzy pozwolili mi się uwolnić z pracy na etacie – bo wtedy jeszcze równolegle pracowałem w wydawnictwie prawniczym Beck, w którym sprzedawałem książki przez internet – stwierdziłem, że nie mogę tych dwóch rzeczy ciągnąć na raz i to jest chyba ten moment, kiedy warto byłoby wyjść na rynek. Postanowiłem odejść z Becka, z którego odchodziłem ponad rok – to była naprawdę świetna praca, bardzo fajne budżety, miałem też świetny zespół.

wywiad z Maciejem Lewińskim

CL: Zatem robiłeś e-commerce na dosyć dużą skalę już osiem lat temu, zgadza się?

ML: Tak, ale czułem, że w tym nie do końca się spełniam i że to właśnie specjalizacja w analityce internetowej jest tym, co mnie kręci. Finalnie odszedłem z Becka. Pojawiłem się na rynku jako niezależny konsultant, ekspert, specjalista od kampanii AdWords i Analyticsa, miałem tych dziesięciu klientów, którzy regularnie mi płacili. Im więcej robiłem szkoleń, tym więcej pojawiało się klientów i w pewnym momencie przekroczyłem taką magiczną liczbę, do tej pory ją pamiętam – siedemnaście. To było siedemnastu klientów i pod koniec miesiąca już nie ogarniałem systemu raportującego. Uważam, że jedna osoba nie jest w stanie kontrolować siedemnastu kont tu i teraz, naraz. Znalazłem wspólnika i powiedziałem mu:

„Stary, mam dużą możliwość stworzyć agencję – małą, bo małą, ale na wejściu mamy prawie dwudziestu klientów, z każdym kolejnym miesiącem ja będę przynosił jeszcze dodatkowych”.

Liczba ta stopniowo rosła i teraz mamy agencję, w której jest prawie stu dwudziestu klientów i jedenastu pracowników.

CL: „iSurvival”?

ML: iSurvival, tak. Niewiele osób w ogóle wie o tym, że posiadam agencję. Wszyscy myślą, że jestem freelancerem, niezależnym ekspertem. W rzeczywistości tak jest tylko po części. Oprócz tego, że mam agencję, prowadzę kampanie, konta i analizuję dane, to jeszcze szkolę, m.in. szkolę też dla Was, dla sprawnego.marketingu. Równolegle prowadzę niektóre projekty dla Google’a, szkolenia dla ich klientów i zamknięte szkolenia dla firm. Jestem więc trochę rozdarty, bo teoretycznie szkolę, a z drugiej strony jestem praktykiem, bo mam też swoją agencję i z trzeciej strony jeszcze dochodzi biznes na boku, który nazywa się DoladujTelefon.pl. On jest raczej tylko i wyłącznie moim takim „poligonem doświadczalnym”.

CL: O jakiej skali biznesu, jeśli chodzi o agencję, mówimy?

ML: Dla mnie największym zaskoczeniem było to, że agencja urosła w tak krótkim czasie. To dla mnie do tej pory jest niesamowite. Nie chodzi tutaj o przychody ani o obrót, ale o strukturę wewnątrz agencji. Zacząłem się spotykać z tematami, które są dla mnie czymś zupełnie nowym. Mam tu na myśli zarządzanie pracownikami, system wynagrodzeń, zarządzanie pracą. To są realne problemy, z którymi także ja zaczynam się zderzać. Dlatego też bardzo dobrze rozumiem MŚP, bo sam tym MŚP jestem. Domyślam się też, z jakimi problemami borykają się niektóre firmy, natomiast mam taką wewnętrzną rozterkę polegającą na tym, że nie wiem, w którą stronę chcę pójść. Czy pójść w rozrost agencji? Nie wydałem w zeszłym roku, dwa lata temu i trzy lata temu ani złotówki na promocję mojej agencji. Klienci sami przychodzą.

CL: Czy jest to dobra reklama tego, czym się zajmujesz zawodowo, czy może wręcz przeciwnie, szewc bez butów chodzi? Czy może po prostu moc personal brandingu?

ML: Wydaje mi się, że tutaj główną rolę odgrywa personal branding i networking, po prostu kontakty z ludźmi ze szkoleń.

CL: Czy stoisz za niektórymi drobnymi innowacjami w panelu Google Analytics lub Ads?

ML: Tego nie mogę powiedzieć. Z racji tego, że współpracuję z firmą Google, nie mogę ujawnić, co robię z punktu widzenia rozwoju produktu, jakim jest Google Ads i Google Analytics. Mogę uchylić rąbka tajemnicy, że jako jedna z pierwszych osób w Polsce miałem dostęp do tego nowego panelu Google Ads, zresztą wywiad na ten temat zrobiliśmy z Bartkiem Berlińskim. Mam dostęp do rzeczy, o których świat może dowiedzieć się wkrótce lub też może nie dowiedzieć się wcale, bo te rzeczy bardzo często są w takiej pierwszej fazie inkubacji – kiedy ja to testuję, sprawdzam i weryfikuję m.in. na swoich klientach agencyjnych.

CL: Jakie są ciekawe trendy, na które mógłbyś zwrócić uwagę naszym czytelnikom z MŚP, ale też może i osobom z większych firm, które będą czytały ten wywiad? Jaki jest Twoim zdaniem najciekawszy kierunek rozwoju w najbliższych latach, na który my jako marketerzy powinniśmy zwrócić uwagę?

ML: Patrząc z szerszej perspektywy, wydaje mi się, że wszystkie firmy z obszaru technologii takiej jak Facebook czy Google, dążą do tego, aby całkowicie zautomatyzować proces prowadzenia kampanii reklamowych. Kiedyś – pięć, dziesięć lat temu – te automaty były tragiczne, słabe i wszystkim je odradzaliśmy, mówiliśmy: „zarządzaj tym ręcznie!”. Natomiast z czasem jak ta technologia się rozwinęła i mamy machine learning, te wszystkie funkcje stały się coraz lepsze, coraz bardziej doskonałe.

Ja już w zeszłym roku kilka razy dostałem takiego pstryczka w nos od Google’a, uruchamiając jakąś funkcję w becie, która była pięć razy lepsza niż kampania, którą kiedyś ustawiałem ręcznie. Gdy zacząłem uruchamiać te wszystkie zautomatyzowane kampanie, okazało się, że one po prostu działają. Zacząłem się zastanawiać, czy zawód, który mam teraz, semity, czyli osoby, która prowadzi kampanie Google’a, będzie w jakiejś perspektywie czasu jeszcze istotny. Wydaje mi się, że będzie to zmierzało w takim kierunku, że przestaniemy się rozliczać za procent od wydanego budżetu. Większość agencji rozlicza się w tym modelu. Moja agencja również, choć bardzo często przechodzę na model efektywnościowy. Działania mają zmierzać do tego, aby dowieść jakąś realną wartość i wydaje mi się, że z czasem pojawi się coraz więcej agencji, które zaczną przechodzić transformację polegającą na tym, że nie będziesz płacił już za prowadzenie kampanii, bo kampania będzie się robiła sama. Będziesz płacił za czas, jaki ta agencja poświęci na raportowanie, poustawianie rzeczy, których automat nie będzie mógł zrobić. Wydaje mi się, że automatyzacja wymusi dużą zmianę na rynku agencyjnym.

CL: Myślisz, że zapotrzebowanie na ekspertów w obszarze Google Ads będzie większe czy raczej zmaleje?

ML: Wydaje mi się, że będzie takie samo, jak jest teraz, tylko rola eksperta się zmieni i nie będzie polegała na tym, że tak jak teraz, zna on wszystkie funkcje, wie, jak one działają i co można z ich pomocą zdziałać – bo część z nich będzie po prostu przed nami ukryta. To automat będzie nimi zarządzał. Ekspert będzie dochodził tego, jak ustawić początkowe założenia, bo to on będzie musiał je wklepać do platformy – trzeba przecież podać jakieś wytyczne. Z drugiej strony to on będzie musiał raportować wyniki i podejmować decyzje, w jakim kierunku ten automat ma się rozwijać.

CL: Czyli mówisz, że jeśli chodzi o system Google Ads, będzie on w coraz większym stopniu oparty o sztuczną inteligencję…

ML: Już jest, to tak działa: mamy reklamy w pełni elastyczne, które dopasowują się rozmiarem, mamy reklamy, które same wrzucają dodatkowy nagłówek do tekstu reklamowego, niektóre opcje zarządzania stawkami, które nie są jeszcze może zbyt doskonałe, ale takie się powoli stają. Z takich ciekawostek mogę powiedzieć, że w Google Analytics pojawił się nowy raport pod nazwą „prawdopodobieństwo konwersji”, który przewiduje, że zachodzi prawdopodobieństwo, iż dany użytkownik może zostać naszym klientem. I uwaga, system nie patrzy na zachowanie użytkownika na Twojej stronie, tylko wychodzi poza Twoją stronę i patrzy na zachowanie tej jednej osoby w skali całego jego życia, analizuje, czy oglądał te same produkty na stronach konkurencyjnych i czy jest szansa, że dokona tego zakupu na Twojej stronie, bo ma jakieś behawioralne cechy mówiące o tym, że Twoja strona bardziej przypadnie mu do gustu niż np. strona konkurencji.

Zobacz, w którą stronę to zmierza. Mamy jednego Google Ads i w Google Ads zmienił się interfejs, zmienił się sposób prowadzenia tych kampanii, bo zaczynają się pojawiać inteligentne, automatyzowane mechanizmy, które niestety są coraz lepsze – mówię niestety ze względu na to, że pewnie zabiorą nam część pracy. Z drugiej strony obecnie Google bardzo mocno inwestuje w system raportowania i analizy.

Google Data Studio jest programem służącym do interpretowania wyników z kampanii i wizualizowania tych wyników z różnych działań; z Facebooka z LinkedIna, z Twittera, z Google Ads. Więc to wszystko możesz mieć w jednym raporcie w Google Data Studio.

Google Optimize jest narzędziem do robienia testów od A do B, czyli zmiany strony internetowej, które również podpina się pod Analyticsa i na podstawie danych z Analyticsa zarządza przykładowo tym, komu, co i jak wyświetlać, żeby sprawdzić, czy ta strona jest lepsza, czy gorsza. Czyli jest to kolejne narzędzie analityczne.

Google Tag Manager to narzędzie do uruchamiania kodów śledzących, czyli m.in. do kodów, które monitorują użytkownika, czyli znowu to jest analityka. Potem mamy Google Analyticsa, który cały czas jest bardzo mocno rozwijany. Co prawda jego funkcje są tak drobne, że „przeciętnego Kowalskiego” pewnie one nie obchodzą, tylko ja się nimi jaram.

Google niedawno uruchomił kolejne narzędzie do analityki, Google Atribution, które przypisuje informacje mówiące o tym, który kanał na ścieżce użytkownika jest najbardziej istotny z punktu widzenia podjęcia decyzji zakupowej. Zobacz, ile oni teraz pieniędzy i czasu ładują w narzędzia służące tylko i wyłącznie do analizowania i raportowania, a Google Ads jest jeden.

CL: Ale myślę, że prawdziwa moc będzie w momencie, gdy wszystkie te narzędzia analityczne zostaną spięte sztuczną inteligencją, która nawzajem będzie w stanie wyciągać wnioski jeden z drugiego. W tym momencie robi się jedna wielka maszyna sztucznej inteligencji, która zastępuje praktycznie cały proces lejka sprzedażowego, prawda?

ML: Tak. W tę stronę może to zmierzać. Warto jednak pamiętać, że ta jedna maszyna, która będzie za nas robiła robotę, będzie konkurowała sama ze sobą. Ja jestem jednym klientem Google’a, a Ty jesteś drugim klientem Google’a – jeżeli będziemy we dwójkę chcieli sprzedawać to samo szkolenie, tylko w różnych terminach, to te maszyny będą musiały między sobą konkurować, żeby dowieść sobie lepszy wynik. Ta spirala będzie sama siebie nakręcała.

Wywiad z Maciejem Lewińskim

CL: Gdybyś miał wskazać jedno narzędzie, na którym w najbliższym roku marketerzy powinni skupić swoją uwagę, to co by to było?

ML: Wydaje mi się, że tym narzędziem mimo wszystko jest Analytics. Widzę cały czas bardzo duże zapotrzebowanie firm i rosnącą świadomość tego, że potrzebują analizować dane, bo coraz więcej pieniędzy ładują w rynek reklamy.

Takim narzędziem, które stale rośnie i powinno być na uwadze każdego, jest Google Analytics. Tylko ten Google Analytics bardzo często nie wystarcza, to znaczy jego standardowa konfiguracja. Fajnie jest go mieć na stronie internetowej, ale czasami przydałyby się nam dodatkowe informacje, których standardowo Analytics nie posiada. Na przykład chociażby to, czy ktoś przescrollował stronę, co dla nas może oznaczać, że użytkownik ją przeczytał, bo Google Analytics ma taką metrykę „współczynnik odrzuceń”, zgadza się? I wszyscy się jarają, jeśli współczynnik odrzuceń jest niski. A on nie musi być niski. Może być wysoki pod warunkiem, że użytkownik wejdzie na stronę artykułu, po czym ten artykuł przykładowo zescrolluje od góry do dołu i wtedy takie scrollowanie może być celem w ogóle tej wizyty. Standardowo Google Analytics nie wie, czy Ty chcesz mierzyć to scrollowanie, czy nie.

W takiej sytuacji potrzebujesz narzędzia, jakim jest Google Tag Manager. Zatem zadaniem marketera w najbliższych latach będzie to, żeby w pełni integrować dane, np. w Google Analytics, tylko nie zrobi tego bez Google Tag Managera. Wszystkim wydaje się, że to jest bardzo trudne narzędzie programistyczne, do którego obsługi trzeba posiadać wiedzę techniczną. Prawda jest jednak taka, że trzeba jedynie wiedzieć, jaka jest reguła działania tego narzędzia. I wtedy da się tym ustawić niemal wszystko.

CL: Istnieje problem, z którym Google boryka się od pewnego czasu. Chodzi o cookies’y, a dokładnie o to, że je gubi. Facebook ma jedną wielką przewagę nad Google’em związaną z tym, że jestem zawsze zalogowany – do Facebooka, Messengera czy Instagrama. Ilekroć z niego korzystam, zawsze Facebook wie, że korzystam z urządzenia mobilnego czy z komputera w pracy, czy w domu, czy na jakimś innym dowolnym urządzeniu. On zawsze wie, co ja widziałem, co kliknąłem, w jaką interakcję wszedłem. Czy w Google istnieje już rozwiązanie tego problemu? Często na YouTube jesteśmy wylogowani albo z naszego YouTube’a korzysta inna osoba. To są podstawowe problemy, z którymi w tej chwili część marketerów może się mierzyć. Może ich to blokować przed lokowaniem większych budżetów, ponieważ cały czas można odnieść wrażenie, że jednak nie do końca mamy w Google’u doprecyzowane grupy odbiorców.

ML: To prawda. Google Analystics jest taką starodawną technologią, z lat dziewięćdziesiątych, bo wykorzystuje pliki cookies. Pliki cookies mają tę niedoskonałość, że ktoś je może usunąć i jest pozamiatane, wtedy tracisz ścieżkę użytkownika. To zjawisko rośnie – zaczynamy używać przeglądarek w trybie incognito czy też prywatnym. Google postanowił wyrównać do Facebooka i sprawdza, czy ja jako ten sam użytkownik jestem zalogowany do tego samego konta google’owego, czy to na telefonie komórkowym, czy na desktopie, czy na tablecie. Ta funkcja w Google Analystics nazywa się Google Signals. Dzięki niej włączył się raport pod nazwą „Różne Urządzenia”, za pomocą którego możesz zobaczyć, jak wygląda przenikalność pomiędzy np. mobilem a desktopem. Bardzo często mówi się, że mobile nie konwertuje. On „nie konwertuje” ze względu na to, że konwertuje dopiero na desktopie – czyli ja najpierw muszę wejść na Twoją stronę z mobile, żeby dokonać zakupu już na desktopie.

CL: Czyli w tej chwili możemy już to mierzyć w Google’u – ale z jaką dokładnością?

ML: Po stronie google’owej ta funkcja jest cały czas rozwijana, więc precyzja nie jest stuprocentowa. Pojawiają się jednak dodatkowe raporty w Google Analytics, które będą bazowały głównie na tej metryce. Niedawno pojawił się raport pod nazwą „Wizyty W Sklepie Stacjonarnym” i za chwilę w Google Analytics będziesz mógł sprawdzić, ile osób było na Twojej stronie i potem, ile osób z tej Twojej strony poszło do Twojego punktu stacjonarnego. Będziesz musiał mieć wtedy spiętego Analyticsa z Twoją apką google’ową, czyli z Google Moja Firma. Zobacz, jak ta struktura i ekosystem google’owy zaczyna się zacieśniać.

CL: Jak by to miało być dokładnie mierzone? Rozumiem, że Google mierzyłby położenie mojego telefonu?

ML: Tak, Google sprawdza położenie Twojego telefonu i to, czy byłeś na danej stronie, czyli czy masz przypisane ciasteczko. Jeżeli się okaże, że masz i pojawisz się fizycznie w danym punkcie stacjonarnym (co bardzo łatwo można znaleźć, bo m.in. w tym celu firma Google stworzyła Google Maps, żeby nas monitorować, prawda?), to będziesz mógł sobie zaliczyć taką konwersję.

CL: A skąd będziemy mieli informację o finalnej konwersji?

ML: Z Google Pay.

CL: Lub Google kupi dane o naszych transakcjach od banków lub wystawców kart typu VISA, Mastercard i w ten sposób połączy konwersje offline z reklamami online. Chciałem poruszyć jeszcze jedną rzecz – okazuje się, że Analytics jako narzędzie próbkuje dane. Mógłbyś przybliżyć temat?

ML: Pojęcie próbkowania polega na tym, że z całej populacji wizyt na mojej stronie internetowej, aby nie nadużywać mocy obliczeniowej serwera, na którym znajdują się moje dane, ja wybieram sobie tylko kilka informacji, kilka próbek i na podstawie tych próbek estymuję to, co się zadziało na mojej stronie internetowej. I to próbkowanie pojawia się tylko i wyłącznie wtedy, gdy moje konto Google Analytics zawiera bardzo dużo danych, gdy jest ich ponad dwadzieścia milionów, tzw. działań. Czyli muszę mieć bardzo duży ruch na stronie, muszę mieć bardzo dużo odsłon.

CL: Co oznacza bardzo duży ruch na stronie, sto tysięcy wejść miesięcznie?

ML: Może to być sto, a nawet pięćdziesiąt tysięcy, przy czym liczy się nie sama wizyta na stronie, tylko co ta wizyta robiła na stronie.

CL: Jak dużo było akcji \ kliknięć.

ML: Dokładnie tak, dlatego, że liczone jest w działaniach, a nie w wizytach.

CL: Ale próbkowanie włącza się w momencie, kiedy przekraczam ten próg dwudziestu milionów?

ML: Gdy przekraczasz ten próg dwudziestu milionów, jest zbyt dużo danych, żeby serwer mógł w krótkim czasie odpowiedzieć Ci raportem w Google Analytics.

CL: I to na poziomie raportu jest próbkowanie?

ML: Tak, to już jest próbkowanie.

CL: A czy na poziomie podglądu ilości wizyt też jest to próbkowanie?

ML: Nie, to jest tylko i wyłącznie na poziomie raportu i nawet taki raport wyświetla komunikat, że ten raport został wygenerowany na bazie przykładowo 2% spośród całego ruchu na Twojej stronie. Można to sprawdzić przy nazwie raportu. Jest tam taki emblemat takiej tarczy i on się świeci na dwa kolory. Zielony oznacza, że jest w porządku, natomiast żółty świadczy o tym, że te dane zostały wypróbkowane.

Są dwie wersje Google Analytics. Jest wersja darmowa, którą większość z nas ma oraz wersja płatna pod nazwą 360 i to jest wersja, która już wtedy danych nie próbkuje. I właśnie dla dużych firm, firma Google ma rozwiązanie polegające na tym, że taka firma może sobie kupić Google Analytics 360.

CL: …które kosztuje?

ML: Tylko sto pięćdziesiąt tysięcy dolarów rocznie. Płatność rozkłada się na 12 500 dolarów miesięcznie, w 12 ratach.

CL: To ciekawy temat, który doprecyzowałeś, bo ja, mówiąc szczerze, długo nie byłem pewny, czy to obejmuje wszystkie konta.

ML: Nie, ale jest dużo takich witryn, których to dotyczy. Często dotyczy to także małych witryn, bo teraz pojawiło się bardzo dużo ekspertów od Google Analytics, którzy rekomendują wdrożenie jakiejś funkcji, np. śledzenia zdarzeń i sprawdzania co dziesięć sekund, czy użytkownik jest na stronie. Co dziesięć sekund to jest działanie, czyli hit, który zmniejsza ten licznik dwudziestu jeden milionów hitów.

Teraz wyobraź sobie sytuację, w której w poniedziałek otwierasz komputer, wchodzisz na stronę internetową, przez cały tydzień ta zakładka jest otwarta i co dziesięć sekund wysyłasz dane do Google Analyticsa. Pomyśl sobie, ile masz hitów i teraz przemnóż to przez liczbę osób, które mogą tak zrobić. Za chwilę okaże się, że nawet MŚP może trafić w próbkowanie, nie? Dlatego, ja zawsze powtarzam, że dziewięć na dziesięć kont Google Analytics jest źle skonfigurowanych i zbiera niepoprawne dane, właśnie przez konfigurację i na to należy zwracać uwagę.

Sprawdź najnowsze szkolenie Macieja Lewińskiego w ramach Akademii Sprawnego Marketingu!

Artykuł Większość kont w Google Analytics jest źle skonfigurowanych – wywiad z Maciejem Lewińskim pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Jak sprzedać jeden z najtrudniejszych towarów świata? Wywiad z Radkiem Kotarskim

W trzy miesiące wyprzedał swoją książkę w takim nakładzie, na który inny wydawca potrzebował trzech lat. Jego wydawnictwo „Altenberg” wydaje publikacje najbardziej znanych, polskich influencerów, a sam Radek Kotarski przyznaje, że oprócz tego, że jest wydawcą, jest także marketerem. Twórca kanału „Polimaty”, autor dwóch bestsellerów „Nic bardziej mylnego” i „Włam się do mózgu”, zwycięzca pierwszej edycji konferencji I Love Influencer. W wywiadzie dla sprawnego.marketingu, przyznał, że sukces swojego wydawnictwa opiera na koncepcji „DLACZEGO”.

CL: Radek, walimy od razu prosto z mostu – jaki obrót wydawnictwo miało w 2019 roku?

RK: Nigdy nie liczymy obrotu, bo obrót to jest strasznie zakrzywiająca rzecz.

CL: Ale to jest wyznacznik twojej pozycji rynkowej w branży wydawniczej.

RK: To jest właśnie bardzo ciekawe, bo w momencie, w którym my rozmawiamy o tym, jak rentowna jest branża wydawnicza, ona ma tę rentowność nawet na poziomie ujemnym, ale obroty dalej wyglądają bardzo imponująco. Zwłaszcza w momencie, w którym mówimy o takich masowych zalewach rynku, jak podręczniki szkolne. Nasze wydawnictwo generuje przychód i obrót na dalece mniejszej liczbie tytułów, więc już można coś więcej na ten temat powiedzieć. Jeszcze nie zrobiliśmy bilansu, ale mogę na oko estymować, że jest to około ośmiu milionów.

Radek Kotarski na I love marekting

Radek Kotarski podczas wystąpienia na konferencji I Love Marketing.

CL: Pytam cię o to wprost, bo ten wywiad ukaże się w cyklu po wywiadzie z Michałem Szafrańskim, po wywiadzie z Krzysztofem Gonciarzem i oni są dosyć transparentni. Szczególnie Michał Szafrański – jak dobrze wiesz, o pieniądzach mówi wprost, nic nie ukrywa. Wiem też, że znacie się prywatnie i może trochę inspirowałeś się jego działaniami. Wszedłeś w branżę wydawniczą i zbudowałeś z tego bardzo fajny biznes – przynajmniej z zewnątrz tak to wygląda. Skąd pomysł, skąd ta inspiracja i jak to wygląda od środka w branży wydawniczej?

RK: Jeśli chodzi Michała to śmiało mogę powiedzieć, że pewnie nie byłoby nas na rynku wydawniczym, albo pojawilibyśmy się dużo później, gdyby nie on. Dlatego Michał jest dla mnie niesamowitym przypadkiem – ta amerykańsko-teoretyczna szkoła self publishingu nagle w Polsce zadziałała. Wcześniej to zazwyczaj były spektakularne porażki lub sukcesy w skalach mikro i na przykład taką klasyczną skalą mikro były fanziny, czyli takie, nazwijmy to, czasopisma, które są redagowane właściwie przez jedną osobę, rysowane i drukowane także na mikro skali. Często udawało się zgromadzić zmobilizowaną grupę – na przykład prenumeratorów – i można powiedzieć, że w takiej skali rzeczywiście był to sukces wydawniczy.

Problem polegał na tym, że w momencie, w którym mówimy o książkach, zwłaszcza o droższych – bo zarówno książka Michała, jak i nasze książki podpadają pod drogie tytuły – rzeczywistość w Polsce wygląda tak, że się tego nie robi, nie publikuje samodzielnie. Po drugiej stronie barykady wszyscy mentorzy self publishingu w Stanach mówią – „stary, to jest możliwe, po prostu wyceniasz swój towar, kapitalizujesz swoją wiedzę, którą masz przez długi czas i ona jest tyle warta”. I Michał przyszedł, jako taki samorodek i pokazał, że się udało. Powiem szczerze, że ja przy Michale siebie pozycjonuję jako takiego tchórza. Ja już swoją pierwszą książkę chciałem wydać w self publishingowym modelu, ale ostatecznie się przestraszyłem. Wydawca, z którym ostatecznie podjąłem współpracę, powiedział mi, że to jest fatalny pomysł i wszyscy do tej pory legli na tym gruncie w Polsce, co po części było prawdą. Nie znaczy to jednak, że było to niemożliwe do realizacji. Trzeba było to zrobić z właściwymi zasadami. Mam wrażenie, że Michał otworzył wszystkim drogę do self publishingu. Tym bardziej było mi w pewien sposób smutno i przykro, że jego romans z tradycyjną branżą wydawniczą na drugiej książce zaistniał, jednak wytłumaczył mi swoje powody [przyp.red. Michał Szafrański wydał swoją drugą książkę, „Zaufanie, czyli waluta przyszłości. Moja droga od zera do 7 milionów z bloga” przy współpracy z wydawnictwem Relacja]. Bardzo martwi mnie, że gdy czytam na forach internetowych takie pytania – „hej, tradycyjny wydawca czy też self publishing?”, to najczęściej te odpowiedzi się zaczynają od zdania: „to jest możliwe tylko w przypadku takich tuzów i wielkich jak Szafrański i Kotarski. Jeśli nie masz takiego zasięgu to nawet nie próbuj.” To nieprawda. Te same teoretyczne rzeczy, które dały możliwość zaistnienia self publishingu w Polsce na szeroką skalę, mówią wprost, że jeśli faktycznie jesteś pasjonatem i praktykiem jakiejś dziedziny i chcesz się tym tematem podzielić na kartach książki, to nie potrzebujesz mieć dużego zasięgu, by rzeczywiście tę książkę z sukcesem sprzedać. Owszem, musisz wykonać sporą lekcję i przygotować audytorium, ale to dalej nie jest niemożliwe.

CL: Ty pierwszą książkę wydałeś już 5-6 lat temu.

RK: Tak, w 2014 albo 2015 zdaje się roku, książka „Nic bardziej mylnego” o 50 najpopularniejszych mitach. Ona była wydana w tradycyjnym modelu i – rzadko kiedy mówię o liczbach, ale wiem, że wy ich nie przeinaczycie – ona została wydrukowana i sprzedana w dość szybkim czasie w liczbie 20 tysięcy egzemplarzy.

CL: I ile na tym zarobiłeś?

RK: Coś koło 10% ceny okładkowej, więc bez szału. Biorąc pod uwagę czas, który na nią poświęcasz, to nagle przestaje się robić super fajne.

CL: I trochę odbiera chęci do pisania kolejnych książek? Czy to nie obniża jakości publikacji, które ukazują się później na rynku?

RK: Tak i to niestety jest problem. Gdy zacząłem słuchać Michała, właśnie a propos self publishingu, on wprost mówił – „nie wstydźcie się, jako self publisherzy, zarabiać dużych pieniędzy. Po to, żeby przełożyło się to na jakość późniejszych publikacji, żebyście mieli komfort zastanowienia się, badania przez dwa lata.” Niektórzy autorzy, wcale nie obniżając znacznie lotów, zastosowali praktykę znaną z dzisiaj online’owego świata: że gdy chcesz, by twoje medium było bardziej widoczne, ale zasięgi są takie, jakie są, to albo możesz pompować bardzo sztucznie pojedyncze czytanie danego artykułu, albo wypuszczać po prostu 100 artykułów, a one prędzej czy później znajdą odbiorców. I mamy też autorów w Polsce, którzy wydają 14 książek rocznie, są w stanie przeżyć i super, że tak się dzieje. Natomiast problem polega na tym, że w momencie, w którym pracujesz w ramach jednego tematu – jak Michał na przykład w oparciu o finanse – to nie wyrzucisz z siebie 12 książek rocznie. Musisz napisać jedną na trzy lata, ale za to bardzo wartościową. Podczas trwającej przez 3 miesiące sprzedaży, zrobiliśmy z książką „Nic bardziej mylnego” taki wynik, jak jej dotychczasowy wydawca w 3 lata.

Jakbyś się zastanowił, z czego to się bierze, to z bardzo głębokiego problemu, o którym chyba nigdy nie powiedziałem szerzej. Moim zdaniem jest tak, że gdy autor oddaje książkę tradycyjnemu wydawcy, to zapomina o tym produkcie. Czyli: „ja napisałem słowa, oni za mnie zrobią redakcję, zrobią okładkę i ją sprzedadzą.” To jest największy problem: tradycyjny wydawca nie zrobi za ciebie promocji. Dzisiaj wiem, a wtedy tego nie wiedziałem, że książka „Nic bardziej mylnego” była fundamentalnie źle zakomunikowana i prawdopodobnie ponoszę za to winę. To ja tej komunikacji nie wymyśliłem, a nie miałem ze strony wydawcy takiego merytorycznego wsparcia dotyczącego tego, jak wyglądają zachowania konsumenckie i co konsument musi mieć „odhaczone”, żeby kupić. Więc „Nic bardziej mylnego” w pierwszej wersji było sprzedawane jako zbiór ciekawostek, czyli zbiór najciekawszych mitów, które ja w książce obalam. Przykładowo, że Napoleon nie był wcale niski czy nie musisz czekać 48 godzin, żeby zgłosić czyjeś zaginięcie – patrząc na to w ten sposób, jest to perfekcyjna książka do toalety. Natomiast, gdy my u siebie sprzedajemy książki, to zawsze staramy się dojść do bardzo głębokiego powodu, dlaczego ja ją napisałem i dlaczego ktoś ma ją kupić. My całą filozofię Simona Sinka [więcej na temat książki S. Sinka „Zaczynaj od dlaczego” znajdziesz na stronie xx w dziale „Inspiracje z książek” – przyp. red.] bardzo dogłębnie realizujemy, o czym zresztą wiesz, bo właśnie ta prezentacja wygrała na waszej konferencji I Love Influencer.

Jedyne, co się zmieniło to jest to, że mój brat, który ze mną pracuje na co dzień w wydawnictwie i jest tam w zasadzie osobą bardziej operacyjną niż ja, chciał sprzedawać tę książkę już „po naszemu”. Tylko ona dalej w mojej głowie była zbiorem ciekawostek. Zrobił więc ze mną taką bardzo głęboką sesję, w której ze mnie wyciągnął, dlaczego ja napisałem akurat tę książkę. Dlaczego ja się w ogóle wziąłem za ten temat spośród miliona? Dlatego, że od zawsze mam coś takiego, że dostaję gęsiej skórki, jak tylko pomyślę o takich ludziach, którzy są „wszechwiedzący” i nie da się ich do niczego przekonać. Dosłownie kilka dni temu miałem dyskusję, kiedy w szkole, w której byłem [rozmawiamy z Radkiem Kotarskim kilka dni po jego powrocie z uczelni w Stanach Zjednoczonych – przyp.red.] mówiliśmy o efektach specjalnych i o tym, w jaki sposób się symuluje dźwięk tłumika, który jest zakładany na pistolet. Moi wykładowcy byli święcie przekonani, że pistolet z tłumikiem brzmi dokładnie tak samo, jak jest to pokazane w filmach. Problem polega na tym, że to, co widzimy w Jamesie Bondzie – że on po cichu jest w stanie zabijać i ludzie w pokoju obok tego nie słyszą – to jest po prostu nieprawda. Tłumik jest w stanie zmienić 20-30 dB, ale nie dużo więcej.

CL: I rozumiem, że ten mit rozwalałeś w głowach twoich nauczycieli akademickich?

RK: Ja na przykład staram się wtedy powiedzieć w nieprzemądrzały sposób, że „hej, ja też kiedyś tego nie wiedziałem, ale właśnie się dowiedziałem!” i jest to bardzo ciekawe i tak naprawdę śmieszne, że widzę sprzeciw. „Nie, to nie jest możliwe. Nie, to jest tak, że one są tak ciche. Są”. Właśnie tej postawy tak nie lubię. Ja chciałem, żeby ludzie i też ja sam dla siebie – żebyśmy mieli „broń” – łatwo, dobrze podaną treść, szybkie fakty. Niektóre są mniej błahe, inne bardziej. Bo wiesz, jesteś w stanie przeżyć z niewiedzą na temat tłumików na pistolety, ale w momencie, w którym ktoś dorabia mit do tego, że szczepionki wywołują autyzm…to są już poważne tematy. Choćby sam mit związany z zaginięciem, który jest bardzo silnie zakorzeniony – ludzie realnie czekają 48 godzin na zgłoszenie zaginięcia, policja z tym mitem walczy od lat, fundacja Itaka walczy, ale to jest nadal tak bardzo mocne. I kiedy my zaczęliśmy komunikować tę książkę, już u nas w wydawnictwie, w taki sposób; ja po prostu oświadczyłem, dlaczego ją napisałem – i wtedy właśnie w trzy miesiące praktycznie sprzedaliśmy nakład taki, jak został sprzedany poprzednie w trzy lata.

CL: Czyli zaczynacie faktycznie od tego, dlaczego i robicie z autorami tego typu sesje. Przypomnij mi może jeszcze, jak się nazywa Twój brat…?

RK: Andrzej Kotarski, więc nazwisko to samo.

CL: Starszy, młodszy?

RK: Mój brat jest ode mnie trzy lata młodszy, ale o trzy lata przystojniejszy i trzy lata wyższy, w związku z tym zawsze ja jestem tym młodszym bratem.

CL: Okej, czyli Andrzej zajmuje się u was w wydawnictwie takimi sesjami? Czy macie do tego osobny zespół?

RK: Tak, to jest bardzo właśnie ciekawe, dlatego że po pierwsze mamy cały dział, który nazywamy „działem agencyjnym” – moja aktywność teraz się głównie koncentruje na tym dziale. Korzystamy z konsultantów zewnętrznych, konsultujemy to z agencją strategiczną, która z nami pracuje i co jest dla nas bardzo ważne, to jest to, że staramy się zawsze wyciągnąć to dlaczego. Mamy takich trzech autorów, z którymi usiedliśmy i tego samego dnia wyszliśmy z why, ale mamy na przykład takiego autora, z którym wymyślamy why od września i jeszcze nie mamy tego w całości sformułowanego. My wiemy, że ono jest, tylko mamy bardzo duży problem z jego nazwaniem. Dlatego, że często wiąże się z tym pokusa, że chcemy się trochę wybielić, powiedzieć na przykład, że „całe swoje życie poświęcam, żeby inspirować innych ludzi.” No brzmi fajnie…

CL: Trochę amerykański bullshit.

RK: Tak. Dlatego my chcemy to maksymalnie uszczegółowić. Czasem jest tak, że dlaczego ewoluuje w czasie. W moim przypadku, przez bardzo długi czas tym why było to, że czepiam się bardzo wielu rzeczy tylko po to, żeby udowodnić sobie – a potem się okazało przy okazji, innym – że nie jestem tak bardzo beznadziejny, jak sam o sobie myślę. Czyli że interesuję się historią, sztuką i tak dalej, po to, żeby w pewien sposób sam sobie przyznać, że jestem wartościową osobą w dyskusji. I to jest why, które spowodowało powstanie „Polimatów”, ale ja już go dzisiaj nie mam.

CL: Dlatego, że ono ewoluowało do jakiegoś innego?

RK: Tak. Zatem to jest bardzo ważne, żeby złapać to w konkretnym czasie. Na przykład takim silnym why, żeby też mówić o konkretnych przykładach, jest jedna z moich ulubionych autorek, która u nas publikuje, Ula Chincz – Ula Pedantula. Ula zajmuje się od wielu lat pokazywaniem lifehacków, na temat tego, w jaki sposób można dbać o dom. Z nią nie mieliśmy żadnego problemu, żeby sformułować jej why, ale tylko dlatego, że my jej nie odbieramy powierzchownie. Ktoś mógłby powiedzieć, że tym, co stoi za jej działaniami jest to, że ona poświęca swoje życie na to, by jej dom lśnił, by wieść takie idealne, brytyjskie życie. A tak naprawdę cała idea jej pracy polega na tym, że ona chce załatwić sprawy domowe w taki sposób, żeby dom nie przeszkadzał, żeby móc zająć się innymi rzeczami. I to jest niesamowite.

CL: Czyli chce oszczędzić czas sobie i też przy okazji innym ludziom.

RK: Tak. I najcudowniejsze, że jej się to po prostu udaje, że ona gromadzi ludzi wokół tej idei. Dlatego, że gdybyśmy starali się gromadzić ludzi wokół idei tego, żeby mieć perfekcyjnie czysty dom na zasadzie: „hej, to ja ci teraz fajnie rozpiszę sprzątanie”, to raczej nie podejrzewam, żebyś nie mógł się doczekać, kiedy wstaniesz z fotela. Ale w momencie, w którym my wiemy, po co ona to robi i po co pisze tę książkę, to przekładamy to na praktyczny marketing i będziemy mówili już nie o kategoriach – „chcesz wiedzieć o tym jak mieć zawsze czyste okna?” – tylko zapytamy cię – „czy masz czasami taki moment w życiu, w którym wychodzisz z domu i nie możesz znaleźć kluczy, jesteś w płaszczu, jesteś już cały spocony, wkurzony, spóźniony na spotkanie i po prostu nie możesz znaleźć tych kluczy?”. To potrzeba, którą zaadresujemy. I ta książka, pomimo tego, że jest książką de facto o dbaniu o dom to, jeśli zostanie pokazana od takiej strony, w dwa miesiące staje się totalnym bestsellerem.

CL: Mamy why i kolejnym etapem jest landing page i wideo. Co komunikujesz teraz?

RK: Odpowiadamy na to drugie klasyczne pytanie, czyli: „jak my to zrobimy?”. Trzymając się tego konkretnego przykładu, wiemy, że to jest fajna idea, żebyś trochę łatwiej sobie żył za sprawą dobrze zorganizowanego domu, który nie przypomina muzeum. Zatem w pierwszej kolejności zaserwujemy ci to, w jaki sposób Ula poradziła sobie z tym u siebie i jak ty to łatwo możesz zrobić. Do momentu, kiedy nie wydasz i nie sprzedasz pierwszego egzemplarza, nie wiesz, czy ci ludzie, którzy uwierzyli w to samo, w co ty wierzysz, bo masz to silne why za sobą, czy oni faktycznie to zrobią. Ale nie ma takiego tygodnia, w którym byśmy nie byli zalewani zdjęciami „przed i po”. Nasi czytelnicy uwielbiają te zdjęcia, a my je kochamy jeszcze bardziej.

CL: Macie landing page i social media osobne dla każdej książki?

RK: Tak, jak mówisz, dla każdej książki mamy osobny landing page i social media. Landing page jest u nas personalizowany i musi być, bo każdy z tych autorów ma inne dlaczego i u każdego ta konstrukcja wygląda zupełnie inaczej. Bardzo ważne jest też to, że u nas ma to wpływ później na relację z mediami. Nie jesteśmy kolejnym wydawnictwem, które dzwoni do Dzień Dobry TVN i mówi, że mamy nową książkę. Nie, my wychodzimy i pytamy, czy nie możecie znaleźć kluczy wychodząc z domu.

CL: W kolejnym kroku tworzycie wideo i to wideo jest znowu jakimś procesem, schematem, czy to jest coś, co za każdym razem wymyślacie na nowo? Bardzo podobało mi się na przykład wideo promocyjne Arleny Witt. Takie dowcipne, zabawne, z polotem, lekkie. Przyjemnie się to oglądało. Natomiast jak wygląda z innymi autorami? Czy to macie właśnie jakiś szablon, że zawsze coś jest w tym wideo? Czasami to jest tylko sam autor?

RK: A, to jest film, który już był długo po premierze i on nie adresował książki. Adresował książkę film, który w teorii jest nieoglądalny, bo jest ponad półgodzinny, mówi o całych przygodach Arleny z angielską gramatyką, ale na sam koniec zostawia cię z myślą, która jest prawdziwa, bo to jest jej why, które stoi za książką. Ona zawsze chciała mieć kompletną książkę do angielskiego i nigdy jej nie mogła znaleźć. Bardzo rzetelnie pokazuje te książki, mówi – „to jest świetna książka do angielskiej gramatyki, jedyne, czego mi w niej brakuje, to praktycznych ćwiczeń.” I w tym wideo ona mówi na samym końcu – „to jest moja książka i to jest książka, którą ja chciałabym dostać w momencie, w którym uczyłam się angielskiego.” Ten komunikat zawsze jest autentyczny, pomimo tego że jakbyś zapytał teoretyków marketingu, czy można zaserwować produkt po trzydziestu minutach, to ci powie, że raczej nie.

Radek Kotarski na konferencji I Love Marketing

Radek Kotarski podczas wystąpienia na konferencji I Love Marketing.

CL: Czyli to jest publikowane na kanale jako normalny organiczny film.

RK: Albo wprost wyróżniony. Ja na przykład wyróżniam, zawsze widać, że to jest inna miniatura.

CL: Ale nie powiesz, że to jest sponsorowany content, tylko organiczna, bardziej osobista treść, którą Arlena opublikowała.

RK: Tak, zdecydowanie. Każdy nasz film promocyjny ma taką samą konstrukcję: dlaczego, jak i co. W takiej kolejności.

CL: Selekcjonujecie książki, które wydacie na poziomie doboru autorów? Ktoś się do was zgłasza, wy czujecie, że to „why” jest słabe…

RK: Tak. Badamy i why, ale też praktyczną stronę realizacji. Czyli w momencie, w którym my zrobimy na podstawie „why” całą koncepcję książki – weźmiemy Arlenę, zrobimy po raz pierwszy podręcznik do gramatyki, który przełamie kategorię i będzie to coś, przy czym będziesz się śmiał na głos. I jakkolwiek to może być przełomowe, nie zawsze odnosi sukces. Dlatego, że niektóre kategorie są tak bardzo silne, że wyjście z nich będzie powodowało sprzeciw i po prostu brak zakupu. Wtedy, jeśli nie uda nam się zmienić koncepcji, to takiej książki nie wydamy. Robimy jeszcze coś, co zresztą było kiedyś popularne, a teraz wydawnictwa nie robią tego, bo nie mają czasu ani pieniędzy, czyli recenzujemy książki. Jeśli na etapie badań na grupie fokusowej albo na etapie recenzji książka nam odpadnie, to jej nie wydamy – i mamy takie dwa przypadki w tym roku. Bardzo znane nazwiska. Mamy zawartą w procedurach bardzo mocną selekcję książek. To nie jest tak, że jak ktoś do ciebie napisze i ma milion subskrypcji, to oznacza, że my wydamy książkę tej osoby. Chociaż będąc z tobą zupełnie szczerym, rok temu czy dwa lata temu, nie miałem takiego myślenia.

CL: Okej, bardzo ciekawie. Czyli teraz mamy why, mamy landing page’a, mamy dobrze zrobiony materiał wideo, no i wchodzimy w temat pozyskiwania ruchu – jeden z ostatnich etapów lejka sprzedażowego.

RK: W pierwszym miesiącu wydaje mi się, że większość ruchu pochodzi od autora, trzeba to jasno powiedzieć. Cała pozostała część ruchu to są wszystkie działania wydawnictwa, które są związane z bezpłatnym dotarciem. Albo w skali budżetów facebookowych – mało płatnym. Czyli śniadaniówki, wszystkie wywiady, wizyty w zakładach pracy i tego typu rzeczy. Mogę śmiało powiedzieć, że my, jako wydawnictwo przypisujemy sobie ten ruch, który organizujemy w ramach spotkań z mediami.

CL: Wykorzystujesz też trochę swoje relacje związane z telewizją?

RK: Oczywiście, że tak. Mam numer telefonu bezpośrednio do wydawcy i z tego korzystam, ale też ten wydawca wie, że to nie będzie tak, że ktoś przyjdzie i będzie mówił, że są super ilustracje i że będzie sprzedawał książkę, tylko my będziemy mówili o tej idei, która za nią stoi. Pierwszy miesiąc jest kluczowy. Po pierwszym miesiącu my zaczynamy bardzo silnie działać już reklamowo, re-marketingiem, wszystkimi rzeczami, których ja kompletnie nie ogarniam na poziomie umysłowym.

CL: No właśnie, ogarniasz czy nie ogarniasz? Bo powiedziałeś, że jesteś trochę takim działem agencyjnym w waszym wydawnictwie, a agencja kojarzy się, przynajmniej w branży marketingu, z działaniami proaktywnymi.

RK: Tak, ale powiedziałbym, że one są bardziej miękkie na takiej zasadzie, że to właśnie my w dziale agencyjnym mocno staramy się sformułować to why, zarazić nim. Bardziej to jest PR niż taki marketing i sprzedaż.

CL: Możemy powiedzieć – taki humanistyczny marketing, nie taki techniczny. Czyli ty jesteś tak naprawdę marketerem. ;)

RK: Można śmiało tak powiedzieć, tak.

CL: Ale z jednej strony robicie badania fokusowe, a z drugiej strony ryzykujesz trochę błędy poznawcze, że jeśli tobie się coś nie spodoba, to nie.

RK: Powiedziałbym, że ja pilnuję czegoś, czego mi fokusy nigdy nie pokażą. Czyli jak bardzo autor da się pochlastać za tę ideę. Bardzo częsta próba, którą moi autorzy znają, wygląda tak, że mówię – „gdybym postawił na stole 100 tysięcy złotych za to, że nie napiszesz tej książki, to czy byś to zrobił?” I jestem w stanie wyczytać odpowiedź z ich reakcji.
Od zawsze jestem silnie zaangażowany w temat psychologii kognitywnej – moja pierwsza książka, „Włam się do mózgu” o tym mówi, jeden z pierwszych odcinków „Polimatów” również. Pracowałem też w finansach, więc musiałem w sekundę wiedzieć, czy mój klient chce ode mnie kupić kredyt hipoteczny, czy nie. Takie rzeczy pomagają mi dzisiaj, by ocenić, czy uwierzyć takiemu autorowi. Ludzie również, jeśli widzą autora opowiadającego o książce to podświadomie czują, czy jest tam dlatego, że wydawca wysłał go na rozmowę, czy sam chciał tam przyjść. Kiedyś było tak, że wydawnictwo swoją renomą mówiło, że nie drukuje byle czego. To w pewnym momencie się zatraciło, bo właśnie trzeba było wydawać dużo książek, żeby one zbilansowały te, które się słabo sprzedają. My wydajemy mało książek i mocno je selekcjonujemy. Oczywiście po części dlatego, że kochamy świat i chcemy tylko dobre książki na rynku, ale po drugie mamy świadomość ograniczenia swoich zasobów i dzisiaj jesteśmy „butikowym wydawnictwem”. Więc jeśli podejmujemy decyzję, że kogoś wydajemy, to wiemy, że kogoś innego w to miejsce nie wydamy. Dlatego staramy się wybierać fajnie…

CL: Ile chcecie rocznie wydawać książek?

RK: Nie jesteśmy w stanie na tym etapie wydać więcej niż dziesięciu książek rocznie.

CL: Michał Szafrański w naszym wywiadzie dzielił się swoimi przemyśleniami na temat udanego remarketingu kierowanego do osób, które były kilka razy na stronie bloga, widziały artykuł. Czy u was też są takie procesy, które się sprawdziły?

RK: Zdecydowanie tak. Już teraz możemy o tym mówić, chociaż na samym początku, kiedy wystartowaliśmy w 2017 roku, nikt z nas o tych takich rzeczach nie myślał. Później przeprowadziliśmy badania jakościowe na próbie ponad 500 osób, i okazało się, że średnia liczba komunikatów na temat nowej książki przed zakupem, była na poziomie czterech kontaktów z kreacją na różnych etapach.
Wtedy pomyśleliśmy, że musimy zapewniać ciągłość tego komunikatu, ale każdy z nich musi być inny od poprzedniego, uderzać w inny ton lub formę i śmiało możemy powiedzieć, że dzisiaj taka zasada u nas cały czas obowiązuje.

CL: Czy macie wdrożone jakieś mechanizmy marketing automation?

RK: Tak. Grupujemy użytkowników, a później sprawdzamy w jaki sposób na poszczególnych grupach zadziałały jakie kreacje. Często to prowadzi nas do niesamowicie ciekawych wyników – przykładowo, gdy przychodził do nas twórca internetowy i ma całkiem dobrą bazę AdSense’u, to w pierwszym kroku adresowaliśmy reklamy do największej grupy jego fanów. Jednak później okazywało się, że najwięcej kupuje u niego trzecia od góry najpopularniejsza grupa demograficzna. I często nie jest to logiczne, u innego autora sprawdzi się coś zupełnie innego.

CL: Faktycznie sporo fajnych rzeczy robicie – z tego, co mówisz wynika, że naprawdę jesteście też mocni w obszarze technicznych aspektów związanych z marketingiem. Ty jesteś najmocniejszy w tych humanistycznych aspektach, masz pewnie też wsparcie w obszarze tych technicznych kwestii i jak się połączy te dwie półkule lub po prostu dwa punkty widzenia, to dzieje się magia – więc wydaje mi się, że to jest bardzo wartościowe. Ale też mam trochę wrażenie, że z tego co mówisz wynika, że aktualni wydawcy są właśnie w tym aspekcie najsłabsi. Oni się znają na robocie wydawniczej, ale nie znają się na marketingu.

RK: Wiesz, pytanie co to znaczy znać się na robocie wydawniczej. Ryan Holiday mówi, że jeśli dzisiaj autorowi się wydaje, że on napisze książkę i ona się sprzeda, to naprawdę się bardzo myli, chyba że nazywa się J. K. Rowling albo Stephen King. To jest rzecz, z której trzeba sobie zdać z tego sprawę, że samo wyeksponowanie się w 273 salonach w Empiku niewiele zmienia. I kto jest odpowiedzialny za tę sprzedaż? Nie zrobi tego dystrybutor, bo dystrybutor bierze pieniądze za to, żeby eksponować w lepszy albo w gorszy sposób i sam nie będzie zainteresowany działaniami w tym temacie. Cały czas żyjemy w przeświadczeniu, że wydawca to jest osoba, która wydaje książkę, czyli przygotowuje książkę do druku. To się faktycznie dzieje, rzeczywiście trzeba przyznać, że wydawnictwa mniej lub bardziej dobrze przygotowują produkt i oddają to do wielkiego dystrybutora. Niestety problem polega na tym, że w ogóle ten rynek jest zakorzeniony w zasadzie, że jeśli już jest dobry produkt, to on się dobrze sprzeda sam. Ja znam masę dobrych książek, która się wcale dobrze nie sprzedała i niestety jest tak, że dzisiaj większość wydawców nie bierze za to odpowiedzialności. Dlatego jedyna korzyść autora przy współpracy z wydawnictwem, to oszczędność czasu na szukaniu redaktora i grafika.

Mogę śmiało powiedzieć, że ogromnym aktywem wydawców, cały czas trzymającym autorów, jest to, że to oni ponoszą ryzyko wydruku. Tylko wydawcy nie są głupi i wiedzą, że na początku zamówią mały nakład, a potem ewentualnie zrobią dodruk. W naszym przypadku jest to o tyle trudniejsze, że my często mamy bardzo mocne „uderzenie” na samym początku. I w pierwszym roku mieliśmy ogromny problem z tym, że po prostu brakowało naszych książek na rynku.

Pamiętam, że prawie osiwiałem, jak zabrakło książki Arleny, która sprzedała się w jakieś parę dni. Nie zahamowaliśmy sprzedaży, nawet przespaliśmy ten moment, kiedy się skończyły. Ja wtedy nagrałem takie wideo, podczas którego powiedziałem, że spieprzyłem sprawę, bo nie zdawałem sobie sprawy z tego, że w Polsce tak dużo ludzi czyta książki.

CL: Co ty myślisz o tym, że Polacy mniej czytają? Są badania o tym mówiące, ale ja mam wrażenie, że to nie jest do końca zgodne z rzeczywistością, szczególnie biorąc pod uwagę fakt, że czytamy bardzo dużo każdego dnia, ale w innej formie. Bardziej cyfrowe media, jak Facebook i tym podobne – a książek może faktycznie kupujemy mniej. A okazuje się, że internet jednak czyta te książki, tak?

RK: To jest tak, że to jest ta stara najlepsza odpowiedź każdego dobrego prawnika – to zależy. Na początku zamówiliśmy nakład „Włam się do mózgu” około 15 tysięcy egzemplarzy. Z drżącym sercem wysyłałem to zamówienie do drukarni. Dla mnie sprzedanie 15 tysięcy książek to był jakiś totalny kosmos. „Włam się do mózgu” sprzedał się w cztery dni. I mówię o tym dlatego, ponieważ ja też żyłem w przeświadczeniu, że ludzie nie czytają książek. Czy to jest tak, że ich aktywność czytelnicza przenosi do internetu? Chciałbym tak uważać i tak myśleć, boję się, że może być trochę inaczej, że jednak treści, które się konsumuje zamiast tego, są trochę inne; kot na deskorolce, etc.

CL: A jak wam się sprzedają wersje elektroniczne?

RK: My ich nie robimy.

CL: I nie będziecie robić?

RK: Nie. Dlaczego? Vat 23% – A.  Piractwo – B. C – a właściwie punkt pierwszy i najważniejszy: dlatego, że my całą ideę wydawnictwa zaczerpnęliśmy ze starego przedwojennego, lwowskiego wydawnictwa, które uwielbiamy pod tym względem, że byli to ludzie, którzy bankrutowali trzy razy, bo wydawali tak piękne książki. Pierwsze wydanie Pana Tadeusza z ilustracjami wydali Altenbergowie i to dla nich zawsze forma była ważna. Dlatego że oni wiedzieli, że w tamtych czasach książka była ostoją polskości. To był ważny, centralny punkt w domu. Natomiast my dzisiaj chcemy czerpać z ich tradycji i wydawać książki w twardej oprawie, indywidualne ilustrowane. Chcemy, żeby to było w pewien sposób doświadczenie. Dzisiejsza technologia nam nie pozwala tego przenieść na e-booki, pomimo tego, że ja sam czytam e-booki, to nie wyobrażam sobie książek moich autorów, jako e-booków, bo wiem, że to nie jest tylko treść.

Artykuł Jak sprzedać jeden z najtrudniejszych towarów świata? Wywiad z Radkiem Kotarskim pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Wywiad z Krzysztofem Gonciarzem

Cezary Lech: Oglądam twoje filmy i jestem fanem już od dosyć dawna. Ale z takiej dosyć specyficznej perspektywy ­– najbardziej interesuje mnie aspekt marketingowy, biznesowy, który coraz częściej starasz się przemycać w filmach. I są to aspekty zarówno dotyczące samego YouTube’a – mechanizmu algorytmu YouTube’a, tego, jak on funkcjonuje, ale też twoje doświadczenia biznesowe wynikające ze stopniowego wzrostu twojej firmy. I to, nie ukrywam, jest dla mnie najciekawszą stroną materiałów, które publikujesz. Na początek może zacznijmy z grubej rury. Co z tymi MCN-ami? [przyp. red. Sieci wielokanałowe (inaczej „sieci MCN” lub po prostu „sieci”) to zewnętrzni dostawcy usług, którzy skupiają wiele kanałów na YouTubie]. Co w nich jest dobrego, a co złego? Jak wygląda perspektywa influencera?

KG: Perspektywa influencera jest taka, że sieci partnerskie trochę na własne życzenie stwarzają brak zaufania twórców. Dzieje się tak poprzez pewien brak transparentności i różne próby nieuzasadnionych, niezbyt czystych zagrań wobec twórców, którzy są w nie zaangażowani. Ja natomiast od lat mam takie podejście, że jeśli jesteś doświadczonym twórcą, który potrafi prowadzić swój biznes i potrzebujesz menadżerskiej pomocy, to współpraca z taką siecią jest okej. Czy będziesz członkiem sieci partnerskiej, czy też zatrudnisz sobie jakiegoś własnego menadżera, jest to w porządku tak długo, jak długo to wszystko kontrolujesz i jak długo rozumiesz, co się wokół ciebie dzieje? W momencie, gdy jesteś mniej doświadczonym twórcą i zapisujesz się do tego typu organizacji, ponieważ nie czujesz się komfortowo na przykład z pisaniem maili biznesowych we własnym imieniu, to powinieneś najpierw popracować nad rozwojem tych umiejętności, a dopiero potem szukać pomocy. Jeśli będziesz zły w prowadzaniu biznesu, ludzie to wykorzystają.

CL: Czyli potencjalne MCN-y mogą być takimi rekinami biznesu?

KG: Oni nie do końca są po stronie twórców. Są po własnej stronie. Myślę, że to jest źle interpretowane przez wielu twórców.

CL: W ostatnich tygodniach, ten temat także przewijał się w twoich materiałach, zapowiedziałeś taką w sumie swoją oddolną inicjatywę. Kolektyw.

KG: My to nazywamy kolektywem, bo nie chcemy tego nazywać „siecią”, żeby uniknąć konotacji.

CL: Czym się to różni i skąd twoim zdaniem pojawiła się ta potrzeba? Czy YouTube wręcz stworzył coś pod was? Inny nietypowy model współpracy, którego wcześniej nie było?

KG: Nie stworzył – nie jesteśmy aż tak duzi, żeby YouTube napisał coś specjalnie dla nas w swoich strukturach. Formalnie nazywa się to „właściciel treści”. Myślę natomiast, że ta warstwa systemowa w obrębie platformy YouTube nie jest tutaj kluczowa. Bardziej chodzi o to, żeby funkcje – takie software’owe funkcje platformy YouTube – nasi twórcy mieli dostępne bez bycia wpiętymi do sieci partnerskich.

CL: Jakie to funkcje? Pytam o te ważne z punktu widzenia twórców.

KG: Na przykład możliwość geoblokowania materiałów. Dla przykładu, w przypadku mojej relacji z igrzysk olimpijskich było to bardzo ważne, ponieważ Eurosport, który udzielił nam sublicencji na transmitowanie igrzysk olimpijskich, ma tę licencję tylko na transmisje w Europie. Bycie wpiętym do sieci partnerskiej było dla mnie – jako dla autora kanału YouTube’owego – w tej sytuacji jedynym wyjściem. Moim zdaniem było to trochę absurdalne, bo jest to rozwiązanie, które nie łączy się z siecią partnerską w żaden sensowny sposób – jednak nie miałem innego wyjścia.

CL: Czyli wcześniej był tylko MCN, a w tej chwili pojawiła się opcja właściciela twórcy, właściciela treści?

KG: Tak. I teraz – dzięki temu, co udało się nam z YouTubem dogadać – mamy zapewnione tego typu rozwiązania systemowe, mimo że formalnie nie jesteśmy siecią. Natomiast zmierzam do czegoś trochę innego: powołany przez nas kolektyw zrzesza ludzi, dla których rozwiązania typu management, posiadanie swojego agenta, działu sprzedaży, project managementu jest wygodą, potrzebą wynikającą ze skalowania ich działalności. Nie jest on z pewnością spowodowany brakiem umiejętności bądź też strachem przed samodzielnym działaniem. Mamy w tym kolektywie – w swoich szeregach – samych doświadczonych twórców, tworzących od lat i pracujących według pewnych standardów, które dla nas są bardzo ważne. Dodatkowo jako organizacja jesteśmy kompletnie transparentni. Oznacza to, że w przeciwieństwie do sieci partnerskich nasi twórcy widzą umowy, które podpisujemy z klientami.

CL: Czyli można powiedzieć, że jest to efekt synergii, współpracy. Macie po prostu jednego, dwóch czy trzech menadżerów, którzy prowadzą współprace wszystkim twórcom kolektywu. Przekazujecie projekt na różne konta, na różnych twórców, staracie się łączyć te współprace, zrobić wspólnie większe zasięgi?

KG: Tak. Rodzi to oczywiście różne ciekawe połączenia. Ja na przykład jako YouTuber dostaję bardzo dużo zaproszeń czy ofert, których, nawet jeśli bym chciał, nie byłbym w stanie realizować, chociażby przez sam fakt, że nie ma mnie w Polsce. Mając teraz po prostu grupę ludzi, którzy nawzajem się wspierają, jesteśmy w stanie przekierowywać tego typu zadania i na przykład kogoś polecić. Kiedy ktoś chce zaprosić Gonciarza na konferencję, to możemy odpowiedzieć: „Może zaproście Karola Paciorka, bo on jest kompetentny, chętny i mógłby w tym czasie do was wpaść”.

CL: Okej. W tej chwili podmiotem, który występuje wobec Google’a w tym kontekście, jest jak rozumiem Tofu Media?

KG: Tak.

CL: To opowiedz trochę więcej o tej biznesowej stronie Tofu Media. Co tam się dzieje? Ogłosiłeś w tym roku, że w pierwszej połowie maja otwieracie też polskie biuro. Co jako Tofu Media chcielibyście zakomunikować rynkowi?

KG: My działamy dwojako. Ta dwojakość wynika z tego, co robimy w Japonii, ponieważ Tofu Media jako firma najpierw była spółką w Japonii. W tym roku uznaliśmy, że poszerzymy naszą działalność na Polskę. Od wielu lat zajmujemy się YouTubem, a od jakiegoś czasu produkcją wideo – jako studio produkcyjne, robiąc filmy reklamowe, filmy korporacyjne, eventowe, wszelkiego rodzaju wideo, których różnego typu klienci potrzebują, a które często jest fajne wtedy, kiedy jest zrealizowane z jakimś takim nowoczesnym sznytem. Myślę, że to jest coś, co nas wyróżnia. Jako że nasza firma wyrosła z YouTube’a i takiej internetowej estetyki, to robimy rzeczy, które skupiają na sobie spojrzenia widzów mocniej niż tradycyjne firmy produkcyjne. Jesteśmy gdzieś między tymi dwoma światami. Z jednej strony jesteśmy firmą YouTube’owo-internetową, a z drugiej takim trochę domem produkcyjnym, reklamowym.

CL: Z czym można się do ciebie, do Tofu Media odezwać w kontekście tworzenia kreacji wideo? Są to zarówno reklamówki, jak i takie zlecenia jak na przykład relacja z dzisiejszej konferencji? [Chodzi o konferencję I love influencer, podczas której odbył się wywiad – przyp.red].

KG: Tak, jak najbardziej, tak samo, jak spoty telewizyjne.

I love marketing

Krzysztof Gonciarz podczas panelu dyskusyjnego na konferencji I Love Marketing, dzień I Love Influencer.

CL: Czyli z jednej strony produkcja wideo, z drugiej kolektyw.

O: Tak, między jednym a drugim jest synergia. Są firmy, które czasem mają budżety podzielone na działania z influencerami i na produkcje innych rzeczy. My jesteśmy w stanie zaoferować kompleksowe rozwiązania, gdzie po prostu za jednym zamachem robimy jedno i drugie. Mieliśmy taki przykład wyjazdu na premierę nowego sprzętu Samsunga. Ja jako influencer zostałem zaproszony do Nowego Jorku na premierę ich nowego smartfona i jednocześnie jako firma produkcyjna zrealizowaliśmy tam filmy promocyjne, angażujące dziennikarzy, którzy tam przyjechali. I to jest właśnie przykład takiej fajnej synergii między jednym a drugim, gdzie influencer i firma produkcyjna idą w parze.

CL: Czyli możesz powiedzieć, że z twojej perspektywy jest to przykład idealnej współpracy z marką? Życzyłbyś sobie więcej tego typu projektów?

KG: „Idealna” to bardzo duże słowo, ale jest to zdecydowanie taki model, do jakiego chcielibyśmy dążyć.

CL: Z jednej strony masz budżet dla twórcy, z drugiej budżet produkcyjny, zgadza się?

KG: Dokładnie tak. Chociaż oczywiście lubimy robić też większe rzeczy. Czyli nie tylko po prostu ja z kamerą, ale także praca z większymi ekipami w kilku miastach jednocześnie. Na przykład niedawno dla przeglądarki Opera robiliśmy projekt, w którym w ciągu tygodnia zrealizowaliśmy zdjęcia w Pekinie, w Oslo i we Wrocławiu. Wynikało to trochę z tego, że mamy właśnie biuro w Japonii, skąd do Pekinu jest nieco bliżej…

CL: Pomagaliście też, zdaje się, Polsatowi w ich serialu?

KG: Tak, tak. Współprodukowaliśmy serial „Lepiej późno niż wcale”. W Japonii i w Korei Południowej.

CL: Poruszyłeś ostatnio temat ważny dla wielu twórców – mam na myśli aspekt wyceniania swojej pracy. Wielokrotnie nawiązujesz w swoich vlogach do tego, że jest to kluczowy obszar w przechodzeniu na kolejne szczeble rozwoju swojej twórczości.

KG: Sposób, w jaki myślę, że należy to robić, jest bardzo heroistyczny. Trzeba skądś wiedzieć, jakie są branżowe standardy, co dla początkujących może nie jest łatwe do wywiedzenia się.

CL: Jakie są te branżowe standardy?

KG: Powiedz mi zasięg i powiedz mi, czym się kanał zajmuje, to mniej więcej intuicyjnie mogę ci powiedzieć, ile za co powinien brać. Plus minus oczywiście.

CL: Powiedz mi jeszcze jedno, jakie wy jako kolektyw macie zasięgi? Jak komunikujecie rynkowi te swoje zasięgi, ilość twórców, specyfikę, niszę tematyczną, w której jesteście mocni?

KG: W kolektywie mamy sześciu twórców i osiem kanałów na YouTube. Ich sumaryczna ilość widzów to prawie 3 miliony osób. Łączy nas grupa celowa: widzowie kanałów to głównie osoby w przedziale wiekowym 18-35 lat, oczekujące od filmów nie tylko rozrywki, ale jakości i treści na wysokim poziomie. I na wysoką jakość materiałów wszyscy w kolektywie stawiamy, zarówno merytorycznie jak i produkcyjnie.

CL: Wejdźmy teraz w takie typowo algorytmiczne rzeczy związane z samym YouTubem. W związku z tym, że jesteś twórcą, który codziennie publikuje filmy, pewnie masz to bardzo fajnie przećwiczone. Jaki aspekt YouTube’a twoim zdaniem jest najistotniejszy w tej chwili w procesie publikowania filmu?

KG: Tu nie ma jednego elementu, który byłby ważniejszy niż wszystkie pozostałe. Warto pamiętać o tym, że sposób, w jaki film zostanie opublikowany, decyduje o zasięgu nierzadko dużo bardziej niż sam film. To jest czasem przygnębiające, bo możesz włożyć całe serce i duszę w produkcję czegoś, ale potem nie trafisz z kombinacją tytułu i miniaturki. I on zwyczajnie nie siądzie.

CL: Czyli ta sztuka clickbaitowania w twoim wykonaniu sprowadzałby się do…?

KG: Ja chyba nigdy nie żałuję, że zrobiliśmy clickbait za mocno, bo ten system cię za to nie karze. Mam na myśli, że jeśli pójdziesz naprawdę hardcore’owo z baitowaniem, to ludzie i tak tego nie zauważą. To jest nawet przygnębiające, bo od takich działań w żaden sposób nie są wyciągane konsekwencje, a zysk jest ewidentny. Odpowiadając na twoje pytanie, cały system zmierza ku takiej wulgarności tytułów, wulgarności miniaturek i nie ma za bardzo na to rozwiązania.

CL: Idąc dalej, to w ogóle można spojrzeć na to w ten sposób, że obecnie wszystkie kanały społecznościowe coraz częściej patrzą tak naprawdę tylko na jeden aspekt – na CTR, klikalność. Dzieje się to zarówno na Facebooku, jak i na YouTubie.

KG: Sytuacja, w której cały Internet jest przekarmiony informacją, powoduje, że to, co wypływa na wierzch, musi być w pewien sposób ekstremalne. I robienie tego elegancko jest fajne. Wielu ludzi chciałoby tak robić, ale jest to momentami nierealne, bo jest po prostu szkoda tego materiału. Sam się czasem zastanawiam, czy nie idziemy w stronę baitowania, wulgarnych tytułów. I myślę sobie, że tych filmów czasem po prostu szkoda, żeby tego nie robić. Bo masz fajny film, masz fajny content i od tego, jak krzykliwy tytuł jesteś w stanie przełknąć, zależy to, czy zobaczy go 50 000, czy 250 000 osób. A jeśli wierzysz, że ten film jest dobry, no to nie zrobisz tego? Powinieneś.

CL: Czyli można powiedzieć, że każdy twórca internetowy jest jednocześnie też marketerem? Czasami nawet dosyć agresywnym marketerem.

KG: Tak, lub też dziennikarzem, wydawcą. Można to przyrównać do wydawania swojego magazynu – gdy chcesz dać na okładkę coś ciekawego J

CL: A czy wy w swoich współpracach jako Tofu Media integrujecie też zasięgi organiczne z zasięgami płatnymi? Czy w ogóle wykorzystujecie warstwę płatnych reklamowych zasięgów YouTube’a?

KG: Zdarza się, że to robimy. To jest w ogóle rozwiązanie, które ja bardzo lubię, jeśli chodzi o kampanię. Taki hybrydowy model, gdzie masz trochę zasięgu organicznego, trochę płatnego jest dość wydajny i koszty realizacji są dość efektywne. Bo jeśli promujesz film, dopalasz go płatnym zasięgiem w obrębie na przykład społeczności, która jest świadoma istnienia danego twórcy, to jest bardzo duża szansa, że ludzie zareagują na ten wyświetlany jako reklama film pozytywnie. Ten zwrot z inwestycji reklamowej będzie wyższy niż w przypadku standardowych działań. Tak przynajmniej pokazuje nasze dotychczasowe doświadczenie.

CL: Uważasz, że warto byłoby łączyć te dwa rodzaje zasięgów we współpracy z markami?

KG: Tak, zdecydowanie to polecam. Na razie działa się w ten sposób bardzo rzadko i na pewno będzie więcej tego typu promocji. Trzeba jednak zachować umiar, aby nie przesadzić, doprowadzając do sytuacji, która jest teoretycznie możliwa: że nagle na kanał taki jak mój wrzucasz tak duży budżet, że jakiś film będzie miał 5 milionów zasięgu, stając się najpopularniejszym filmem na moim kanale. Takiej sytuacji bym sobie nie życzył, ponieważ intuicyjnie wydaje mi się to w jakiś sposób niezgodne ze sztuką.

CL: Tak, zgadzam się. Jest to aspekt, na który należy zwrócić marketerom uwagę – że jeśli współpracują z twórcami, influencerami, to nie musi to być tylko organiczny zasięg – część budżetu można desygnować na promocyjne wsparcie płatnego zasięgu.

KG: Oczywiście. My na przykład w swoim zespole mamy ludzi zajmujących się obsługą Google Ads.

CL: To jest ciekawy aspekt. Interesuje mnie też, jak wygląda twoja perspektywa na zmieniające się formatowanie i wyzwania, jakie dla twórców takich jak ty niesie coraz większa ilość telefonów komórkowych. Ty także produkujesz filmy głównie w 16:9, podczas gdy na mobile ładnie wygląda kwadrat, ewentualnie 9:16. Planujesz produkować treści wertykalne, kwadratowe na swój kanał? Jak u ciebie wygląda ten udział mobilnych urządzeń na kanale?

KG: O ile pamiętam, jest to około pół na pół. To są dane sprzed, powiedzmy, pół roku. Teraz nie wiem, ale wszystko jest kwestią platformy, na którą się produkuje. Kiedy produkujemy filmy na Facebooka, a czasem to robimy, wyciągamy z vloga jakiś konkretny temat czy wątek i robimy wersję Facebook’ową, no to oczywiście zmieniamy te proporcje. Zazwyczaj robimy kwadrat. Na Instagram w tym momencie robi się bardziej pionowe filmy. I takim rozwiązaniom systemowym trzeba wychodzić naprzeciw. Z tym się nie wygra. Tutaj jedyny argument „przeciw” mógłby być związany z taką ambicją artystyczną, że „jestem konserwatywnym filmowcem i uważam, że film powinien wyglądać, jak w kinie”. Ale to jest niezdrowe podejście, nie ma co się tak przywiązywać do tego typu rzeczy. Sam YouTube, jeszcze w tym momencie, najlepiej wygląda jednak i tak w 16:9.

CL: Zastanawiam się, czy za chwilę YouTube nie powinien umożliwić wgrywania tego samego materiału wideo w dwóch formatach? Czy czasem niedługo nie będziemy kręcili wszystkiego w osi centralnej? To, co się dzieje po bokach, będzie drugorzędne i tylko widoczne na szerokim ekranie.

KG: To jest bardzo trudne do rozwiązania pod względem filmowym. Jednak kompozycja kadru kompletnie się zmienia w tym przypadku i to jest trudne nawet do przemontowania. Mam na myśli to, że gdy kręcisz w poziomie, to po prostu masz ten obraz skomponowany pod ten format. Jak kręcisz w pionie, możesz komponować w pionie. Ale trudno jest zrobić jednocześnie dwie kompozycje w obrębie jednej ramki.

CL: Ale możesz kręcić 16:9 klasycznie, jednak ustalić tak kadry, żeby wszystko działo się w centralnej części. W tej chwili w ten sposób kręci się coraz więcej teledysków czy nawet filmów, reklam. Mówię to w kontekście współprac komercyjnych, bo za chwileczkę się okaże, że ten dom mediowy czy marka przychodzi do was i mówi wam, że oni chcą kreację. Ale oni chcą tę samą kreację w czterech lub pięciu formatach.

KG: W przypadku kreacji takiej na zamówienie, to w ogóle nie jest problem. Ja większy problem widzę pod względem własnych produkcji, bo to jednak wymaga pewnych kreatywnych kompromisów. I to może mi przyjść trudniej. Ale jeśli rynek będzie tego chciał, to trzeba to będzie zrobić. Coraz częściej widuje się aparaty z jakimiś częściowo zaklejonymi lepcem ekranikami, żeby filmowcowi było łatwiej wyobrazić sobie, co się będzie działo później. Ja bym powiedział – i to mówię może bardziej jako w cudzysłowie operator i filmowiec niż jako YouTuber – że zasady operowania obrazem pionowym są kompletnie inne i jeszcze niewiele ludzi ma do tego intuicję. Bo jednak kino wygląda tak, jak wygląda…

CL: … i oczy mamy ułożone tak, jak ułożone.

KG: Dokładnie. Ludzie widzą świat w tej, a nie innej orientacji. I to nie jest coś, co bym odrzucał, mówiąc, że obraz pionowy jest bez sensu. Praktyka smartfonów pokazuje, że to też działa i też się ludziom podoba. Ale pod względem ładnej kompozycji jest to duże wyzwanie. Nie ma jasnych zasad, jeśli chodzi o – mówiąc górnolotnie – sztukę operatorską w wydaniu wertykalnym.

CL: Racja. Może właśnie dlatego czas, aby tacy młodzi twórcy jak ty, te zasady stworzyli. Prędzej czy później pewnie ktoś będzie musiał.

KG: No ja to takim młodym twórcą już nie jestem, jestem twórcą w średnim wieku…;)

CL: Ja sobie słodzę tym samym, więc jesteś młody, Krzychu :) Ostatnia w sumie kwestia, która myślę, że musi paść w tym wywiadzie, to GonKon. Ostatnio zrobiliście event na dużą skalę. Trzeba przyznać, że to chyba jedna z pierwszych inicjatyw w tej formule związana z polskim YouTubem. Jakie są twoje przemyślenia, doświadczenia po evencie?

KG: Nam bardzo zależało na tym, żeby zrobić wydarzenie, na które mogą przyjść osoby w wieku takim, jak osoby oglądające moje, nasze kanały, czyli powiedzmy przedział od 23 do 30 lat. Chcieliśmy stworzyć wydarzenie, które będzie trochę konferencją, trochę wydarzeniem kulturowym. Trochę też galerią, wystawą. Chcieliśmy dać wielu kreatywnym ludziom, artystom wspólną piaskownicę do zabawy i zobaczyć, co się z tego urodzi. W ten sposób stworzyliśmy wydarzenie, które nazywa się GonKon. Które było… Hm, moje przemyślenie po tym wydarzeniu jest takie, że jak na skalę improwizacji, której się podjęliśmy, jestem zadziwiony, jak mało rzeczy nie wypaliło i się zepsuło. Oczywiście, popełniliśmy pomniejsze błędy, ale generalnie zespół dał naprawdę niesamowity performance, jeśli chodzi o organizację. Wszystko zagrało, a po reakcjach ludzi widzę, że pomysł był dobry. Mimo że przedsięwzięcie było duże samo w sobie, to dla nas cały czas był to w pewnym sensie taki proof of concept – na zasadzie chcemy sprawdzić, czy to ma sens. Chcemy zobaczyć, czy ludziom się to spodoba. Czy ludzie chcą płacić za coś takiego – bo bilety były płatne i nie były jakieś mega tanie. Odpowiedź? To ma sens. Ludziom się podoba, I myślę, że w przyszłym roku będziemy to próbowali zrobić na dużo większą skalę.

GonKon Krzysztof Gonciarz

GonKon 2018

CL: To jest wyjście w offline. Zupełnie inne doświadczenie dla twoich fanów. Mogą wreszcie dotknąć, przyjść, zobaczyć, porozmawiać, zrobić sobie zdjęcie, selfie.

KG: Dla mnie jako twórcy to było też ciekawe doświadczenie, bo pierwszy raz stworzyłem swoją mini instalację, mini wystawę. Miłym przeżyciem było obserwować, jak ludzie wchodzą w tę przestrzeń i bawią się nią. I ona się im podoba. To bardzo satysfakcjonujące uczucie, którego nie doświadcza się, robiąc treści w Internecie.

CL: Jaka jest największa wartość dla ciebie w organizacji imprezy? Dlaczego uważasz, że to jest w ogóle dobry pomysł, żeby robić tego typu eventy jako kolektyw?

KG: Punkt wyjścia do stworzenia tego eventu był taki bardzo „szczerze kreatywno-artystyczny”. To znaczy, po prostu miałem wielki apetyt zrobić coś namacalnego, na co ludzie przyjdą i co przeżyją. I miałem taki naprawdę szczery, wręcz nie-biznesowy zamysł, że chciałbym, żeby ludzie czegoś doświadczyli i mieli fajny dzień, miło spędzili sobie czas. Jeśli ludziom się to podoba, to znaczy, że to jest dobre, a model biznesowy, czy jakby tego nie nazywać, dopisze się później. Trochę tak, jak dopisał się w przypadku YouTuberów – zbaczało się od robienia z pasji i dla zabawy śmiesznych czy głupich filmików. Natomiast wydaje mi się, że chcemy zachować nutę wydarzenia kulturalno-artystycznego. Naszą decyzją było w przypadku GonKonu wpuszczenie dużo mniejszej liczby ludzi niż byłaby w stanie udźwignąć przestrzeń, w której odbywał się event. Po to, żeby stworzyć tam klimat bardziej wystawy niż koncertu czy festiwalu, podczas którego stoisz w tłumie i wszyscy się przepychają. Chciałem, żeby ludzie, przychodząc tam, poczuli się wyjątkowo.

CL: Powiedz na koniec o twoich planach, wizji, celach na najbliższe lata. Może coś takiego, dokąd Krzysztof Gonciarz zmierza?

KG: Jako firma i organizacja prowadzimy tyle różnych projektów, że trochę za bardzo zacząłem odcinać się od tego, co najbardziej lubię robić, czyli tworzenia treści, robienia fajnych filmów i contentu. Mam nadzieję, że uda mi się w pewnym momencie trochę odbić od tego i powiedzieć wszystkim, że ja teraz chcę zająć się tym, co jest dla mnie najważniejsze i wrócić do priorytetyzowania robienia treści. Życzę sobie, żeby to było dla mnie możliwe przez najbliższy rok. Natomiast bardzo mnie w tym momencie zajmują wszystkie nasze inicjatywy. O tym rozmawialiśmy dzisiaj­ – mam na myśli przyszłoroczny GonKon, rozwój Tofu Twórcy, naszego kolektywu, rozwój Tofu Media, w Japonii i w Polsce, jako firmy produkcyjnej. Tego jest naprawdę dużo. Ale mamy bardzo zdolny i zapalony do pracy zespół, któremu jestem w stanie zaufać, bo wiem, że oni zrobią to wszystko dobrze.

CL: To jeszcze jedno końcowe pytanie. Kiedy będziemy oglądali vlogi z Nowego Jorku?

KG: No nie wiem. Pod względem Japonii myślę, że jestem już bliżej niż dalej swojego końca – znaczy końca swojego okresu życia w Japonii. Ale z racji tego, że współprowadzimy tam cały czas firmę, nie jestem w stanie całkiem się odciąć, powiedzieć „wyprowadzam się”. Bo jednak coś mnie tam trzyma. I zacznę szukać. Zacznę szukać jakichś głębszych, grubszych scenariuszy na przyszłość. Nowy Jork oczywiście jest bardzo kuszący i jest w tym momencie chyba moim takim miastem numer jeden na świecie. Ale nie mam planów.

CL: To czego ci życzyć na koniec?

KG: Nie wiem. Wizy amerykańskiej :)

 

Konferencja I love marketing I love social media I love ads&analytics I love influencer

Artykuł Wywiad z Krzysztofem Gonciarzem pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Jak na blogu zarobiłem miliony – wywiad z Michałem Szafrańskim

Wywiad z Michałem Szafrańskim, autorem bloga „Jak oszczędzać pieniądze”, podcastu „Więcej niż oszczędzanie pieniędzy” oraz bestsellerowych książek „Finansowy ninja” i „Zaufanie, czyli waluta przyszłości”.

Zaufanie, czyli waluta przyszłości

C: Dziś spotykamy się z powodu promocji Twojej nowej książki. Podczas ostatniego I love marketing, na którym występowałeś, mówiłeś między innymi właśnie o swojej książce – wtedy był to „Finansowy ninja”.  Właśnie wydałeś kolejny, nowy tytuł – „Zaufanie, czyli waluta przyszłości”. Powiedz, skąd ten tytuł, dlaczego akurat na taki się zdecydowałeś?

M: Trochę jest tak, że to jest nawiązanie do tytułu prezentacji, którą wygłaszałem podczas infoShare trzy lata temu – wtedy właśnie mówiłem o zaufaniu jako walucie i pokazywałem, że budując mój blog na treściach, które są merytoryczne i ufając w to, że treści te będą przydatne dla tych, którzy będą je „konsumować” – mogę też liczyć na to, że te osoby w jakiś sposób będą chciały mi się prędzej czy później zrewanżować. Mam tu na myśli nie tyle „regułę wzajemności”, co raczej podstawą zasadę, która od lat funkcjonuje w biznesie: biznes robimy najchętniej z tymi, których lubimy i z tymi, do których mamy zaufanie. Zaufanie, że nas nie oszukają, że to, co oni dostarczają, jest rzeczywiście warte tego, żebyśmy za to zapłacili, że otrzymamy faktycznie produkt czy usługę, która będzie dla nas przydatna, wartościowa.

Myślę, że w dzisiejszym świecie mamy dosyć duży kryzys zaufania. Z jednej strony mnie to martwi, a z drugiej strony wydaje mi się, że warto promować taką postawę, w której próbujemy wykonywać dobrą robotę, rzeczywiście wierząc w to, że jesteśmy w stanie dostarczać dobre usługi i że ktoś, w związku z tym, będzie chciał nam za to zapłacić. I zapłaci nam tym więcej, im więcej te usługi są warte i im większym zaufaniem się cieszymy. Można powiedzieć, że to taki trochę problem „jajka i kury” – czyli najpierw to my musimy zaufać sobie i zaufać innym, żeby inni mogli zaufać nam.

I w gruncie rzeczy to jest książka, która pokazuję moją drogę, bo podtytuł brzmi „Moja droga od zera do 7 milionów z bloga”. 

C: Clickbaitowy tytuł…

M: Jak najbardziej. To jest książka, która stoi w księgarniach, a więc zależy mi na tym, by ktoś zawiesił na niej oko i przez chwilę się nad tym tytułem zastanowił. Ale z drugiej strony jest to rzeczywiście przedstawienie właśnie mojej drogi – jako blogera, jako przedsiębiorcy, który działa w Internecie, który próbował uwierzyć w to, że – mówiąc w dużym uproszczeniu – warto cierpliwie dostarczać wartościowe treści. Że nie warto chodzić na skróty.

C: Ja twoją książkę już przeczytałem i zaskoczyła mnie pozytywnie o tyle, że – mimo że jest bardzo gruba, bo liczy około 400 stron – bardzo szybko się ją czyta. To, co mi się bardzo w niej spodobało, to oczywiście właśnie to podejście, by pokazać jak zacząć, jak tworzyć pierwsze treści, jakie wyzwania przed sobą postawić, aby właśnie tego bloga rozwijać. Ale tak naprawdę te problemy, które poruszasz nie dotyczą wyłącznie bloga, dotyczą praktycznie każdego biznesu. To nie jest tylko pozycja dla blogera czy twórcy, tylko dla każdego, kto otwiera biznes, uruchamia swoją stronę internetową i staje przed znanym problemem: „Stworzyłem stronę… i co dalej?”. Na ile Twoje działania były świadome, a na ile były metodą prób i błędów?

M: Napisanie książki było bardzo świadome, ale w moim działaniu było wiele prób i błędów. W pierwszych pięciu latach mojej firmy wiele było takich „drobnych pivotów” – coś, co wydawało mi się sensowne w jednym roku działalności, w kolejnym wcale już tak nie wyglądało. Czyli dalsze ładowanie energii w takie działania, to byłby błąd. Cieszę się, że w tej książce udało mi się pokazać tę drogę rzeczywiście krok po kroku. Podzielona jest ona na takie okresy kwartalne – gdzie pokazuję z jednej strony moje założenia i cele, a z drugiej strony wnioski  – do których doszedłem w trakcie realizacji konkretnych projektów.

Myślę, że – odnosząc się do tego, co powiedziałeś na początku, że przedsiębiorcy, którzy startują, mają na początku dozę niepewności, sporo wewnętrznych obaw –  zależało mi na tym, żeby pokazać, że my, przedsiębiorcy, jesteśmy w jakiś sposób do siebie podobni, ale z drugiej strony, w jaki konkretnie sposób ja sobie rzeczywiście radziłem. Często jest tak, że bierzemy takie książki do ręki – nazwijmy je autobiograficznymi –  i czytamy o wydarzeniach sprzed trzydziestu lat, kiedy to świat wyglądał zupełnie inaczej. Rzeczywistość była inna, przez co człowiek też działał w inny sposób. A to, co ja chciałem pokazać, to bardzo krótki, ale ważny okres w rozwoju firmy; rozbić to na pewne wydarzenia i pokazać ich sekwencję, a także pewien proces myślowy, który doprowadził mnie do właśnie tego miejsca, w którym jestem dzisiaj.

C: Poprzednia książka „Finansowy Ninja” idealnie pokrywała się z oczekiwaniami czytelników twojego bloga – była poniekąd jego przedłużeniem czy też uporządkowaniem tych blogowych treści.  

M: Z mojej perspektywy „Finansowy Ninja” to mogłaby być książka, która na okładce nie ma tytułu. Dlatego, że osoba, która po nią sięgała, to był czytelnik mojego bloga. Wydawałem książkę w modelu self-publishing i sprzedawałem ją bezpośrednio, więc osoba, która wchodziła na stronę, wiedziała, po co przyszła. Sprzedaż odbywała się wyłącznie za pośrednictwem mojego sklepu internetowego.

Teraz mam zupełnie inną sytuację – „Zaufanie, czyli waluta przyszłości” to książka wydana z wydawcą, zatem pojawia się w szerokiej dystrybucji i dlatego okładka musi być bardzo czytelna. Można powiedzieć, że jej wygląd przeznaczony jest głównie dla osób, które o mnie nic wcześniej nie słyszały.

C: „Zaufanie jako waluta przyszłości” – trudno Ci odmówić słuszności w tym twierdzeniu. No właśnie, czy jest możliwe, żebyśmy w ogóle kupili jakiś produkt bez choćby tej odrobiny zaufania?

M: Jest możliwe. Dlatego, że ulegamy tym „impulsywnym” zakupom. Czyli takie szybkie, mikro-decyzje podejmowane na zasadzie­: „Aha, to kosztuje tylko tyle? Okej, dobra, zaryzykuję.” Czyli jesteś na lotnisku, musisz wypełnić sobie jakoś czas i bierzesz pierwszą lepszą książkę, która przykuje Twoją uwagę. Chociaż zazwyczaj nie kupujemy w ten sposób produktów, które z naszej perspektywy są drogie, albo takich, od których oczekujemy jakiegoś konkretnego efektu.

C: Czyli jeśli zaufanie jest jednym z głównych kryteriów sprzedaży produktu, to jak Twoim zdaniem biznesmeni, przedsiębiorcy, marketerzy powinni je budować? Pytam o pierwsze kroki. 

M: Uczciwie, wiarygodnie, stopniowo – bez próby chodzenia na skróty czy przeskakiwania wymagających etapów. Cierpliwie. To cnota, która jest w tym kontekście bardzo pożądana.

Jeśli ktoś spojrzy na historię mojego bloga – to nie jest tak, że książkę „Finansowy ninja”, która odniosła fenomenalny sukces (bo sprzedało się jej aż 60 tysięcy egzemplarzy) wydałem w pierwszym roku prowadzenia bloga. Nie – musiałem najpierw udowodnić, że warto mi, za to, co dostarczam, zapłacić. To droga książka – kosztuje 69,90 złotych, mało która książka jest sprzedawana w Polsce w takiej cenie.

C: I w takim nakładzie :)

M: W takim nakładzie – nie. Zatem dlatego, że przez lata dostarczałem systematycznie dobre treści, treści wysokiej jakości i dałem się poznać jako osoba, która jest wiarygodna, jako autor, który dba o to, aby czytelnik dostał tę wiedzę, której oczekuje – a czasem nawet większą niż spodziewał się dostać – to wszystko złożyło się na sukces tej książki.

C: A na ile myślisz, że istotne było w twoim przypadku poruszenie tematu tabu – i też w jakim stopniu wpłynęło na wzrost tego zaufania, o którym mówisz – mam na myśli transparentność twoich przychodów i twoich finansów rodzinnych?

M: Myślę, że to było kluczowe. Pozwoliło pokonać tak zwaną barierę wejścia dla wielu osób. Często sięgamy po jakieś treści i myślimy: „Dobra, tutaj gość się wymądrza na taki i taki temat, np. na temat marketingu internetowego.”

C: Ja się też wymądrzam, tak? 

M: No wiesz, z perspektywy osób trzecich tak może wyglądać nawet nasz wywiad – ktoś czyta i myśli – dwóch gości siedzi, gada i się wymądrza, a jeden drugiego próbuje promować.

Zatem – żeby tą barierę szybko znieść, to ja tak naprawdę wyłożyłem na tacy moją sytuację finansową. Powiedziałem: „Okej, to jestem ja. Sam oceń, czy to kim jestem, do czego doszedłem, to jest coś, co jest dla Ciebie ważne, istotne, inspirujące. Bo jeżeli nie, to nie żywię urazy. A jeśli tak – to zapraszam”. Więc to jest coś, co pozwoliło mi się pokazać jako osoba przystępna, ale też taka „przejrzysta”.

C: I zdobyć to zaufanie.

M: Dokładnie tak.

C: Michał, podczas I Love Marketing mówiłeś dużo o selfpublishingu, mówiłeś o licznych korzyściach, jakie z tego płynęły, otworzyłeś wielu osobom oczy na ten rodzaj wydawania publikacji, a w tej chwili wszedłeś pod skrzydła wydawnictwa o nazwie „Relacja”. Jaki jest zatem pomysł na dystrybucję nowej książki i dlaczego jednak z wydawcą?

M: Powodów jest kilka. To jest książka, która jest tematycznie różna od mojego bloga. Jest dla osób, które z jednej strony zastanawiają się nad rzuceniem etatu, z drugiej strony dla osób, które chcą budować swoją markę osobistą w Internecie, z trzeciej – dla początkujących przedsiębiorców, którzy zastanawiają się, czy te kryteria, które przyjęli przy budowie czy też rozwoju firmy, są sensowne czy nie. Takie osoby stanowią mniejszość czytelników mojego bloga. Mój blog jest przeznaczony dla wszystkich, którzy mają portfel w kieszeni i chcą poprawiać stan swoich finansów – a ta książka jest przeznaczona dla mniej więcej 15-20% z tych osób. Wiedziałem, że o ile „Finansowego Ninja” byłem w stanie sam sprzedać w dużym nakładzie (ze względu na dopasowanie jej tematu do grupy docelowej mojego bloga), to w przypadku nowej książki – „Zaufanie, czyli waluta przyszłości” – wiedziałem, że bezpośrednia sprzedaż byłaby istotnie mniejsza, jeżeli zdecydowałbym się na samodzielne wydanie, dystrybucję i sprzedaż. I to był główny powód.

Drugim aspektem było to, że po wydaniu pierwszej książki wiedziałem już, gdzie jest sufit organicznej sprzedaży. Wiedząc to stwierdziłem, że chcę zaryzykować z innym modelem dystrybucji kolejnej książki dającym szansę wyjścia poza zamknięty krąg Czytelników mojego bloga. Poza tym traktuję nową książkę trochę bardziej „misyjnie” – chciałbym ludziom, którzy potrzebują tej wiedzy, dać jak najlepsze wskazówki, w związku z tym chciałem, by była ona dostępna szeroko.

Kolejny czynnik, który zdecydował o tym, że podjąłem współpracę akurat z tym wydawcą, to fakt, że Ania, która jest szefową wydawnictwa „Relacja”, wydawała książkę Pata Flynna „Gotowi na start”. Pat jest moją dużą inspiracją – jego książka jest o testowaniu pomysłów biznesowych, moja jest poniekąd o tym, jak ja te wskazówki Pata implementowałem w Polsce. Pomyślałem, że fajnie by było zrobić z tego pewien pakiet – i tak też zrobiliśmy, wydaliśmy je równolegle.

 

C: Czy dobrze słyszałem, że na początku miał to być tylko PDF, zaledwie dodatek do książki Pata Flynna?

M: Tak. Usiadłem do rozpisania sobie konspektu tego e-booka. I przez to, że na podstawie olbrzymiej mapy myśli e-book wyglądał mi na kilkaset stron, stwierdziłem, że jednak musi to być pełnowymiarowa książka.

C: Czy można powiedzieć, że Twoja dobra robota nad Twoją książką wsparła sprzedaż „Gotowi na start”?

M: Zdecydowanie można tak powiedzieć.

C: Czyli bez Twojej książki pozycja Pata nie sprzedałaby się w dużych nakładach?

M: Nie. Od początku z resztą to było jedno z moich założeń – że chcę Patowi pomóc w promocji jego książki na rynku polskim, bo uważam, że to jest po prostu dobra książka. Mocno wsparłem go marketingowo, zatem sporo egzemplarzy – ok. 3000 – sprzedało się bezpośrednio przez mój sklep internetowy.

C: A jesteś w stanie powiedzieć coś więcej na temat współpracy z wydawnictwem? Testujesz inne podejście niż dotychczas, więc pytam bardziej o sprawy logistyczne, techniczne, o kwestie związane też z rozliczeniami.  

M: Jako że „Finansowy Ninja” był wydawany całkiem samodzielnie, to wszystkie koszty ­– przygotowania książki, druku, jej promocji, jej magazynowania, logistyki związanej z wysyłkami – były po mojej stronie. Przy nowej książce przyjęliśmy trochę inny scenariusz, ponieważ wydaję ją z wydawcą.

Bolączką rynku wydawniczego jest to, że autorzy zarabiają tak naprawdę grosze z każdego egzemplarza książki – maksymalnie jakieś 10-15% ceny okładkowej (chociaż zdarzają się również stawki typu 2%-3%). Mówimy o cenie okładkowej netto. Czyli zakładając, że książka kosztuje 39,90 złotych, to cena okładkowa netto wynosi 38 złotych, czyli ja z egzemplarza mam, w takim standardowym scenariuszu, 3 złote i 80 groszy. I zgadza się, że to jest dużo, dużo mniej niż kwoty, jakie zostają w mojej kieszeni w przypadku selfpublishingu. Więc pytanie: „Skąd taka decyzja?”, bo rozumiem, że o to w gruncie rzeczy pytasz?

Na szczęście nie jest tak źle. My skonstruowaliśmy taki model sprzedaży trochę hybrydowej, która łączy tradycyjne wydawanie książek i selfpublishing. W zasadzie wyróżniamy dwa kanały sprzedaży tej książki. Tradycyjny, gdzie wydawca przekazuje książkę do dystrybutorów, dystrybutorzy dysponują książki do księgarń, księgarnie sprzedają książkę. Księgarnie mają swoją marżę, dystrybutorzy mają swoją marżę, wydawca ma z tej książki mniej więcej połowę przychodów i z tej części finansuje druk tej książki, pokrywa koszt promocji i z tej części także oddaje autorowi jego wspomnianą już należność.

Ale jest także drugi kanał sprzedaży, gdzie książka sprzedawana jest tak, jak „Finansowy ninja”. Czyli ja biorę od wydawcy bezpośrednio pewną część nakładu, wkładam do mojego magazynu i sprzedaję te egzemplarze poprzez moją stronę internetową. W przypadku takiej sprzedaży odwróciliśmy relacje: tutaj to ja ponoszę koszt druku, to jest jakieś 4 zł od każdego egzemplarza, ale z uzyskanych przychodów oddaję wydawcy tylko 10% od ceny okładkowej każdego egzemplarza. W efekcie wychodzi na to, że ja na tej książce finansowo wychodzę podobnie, jak w przypadku selfpublishingu „Finansowego ninja”. Oczywiście z poprawką na to, że „Zaufanie” jest tańszą książką.

C: Czy fakt, że robisz to z wydawcą, spowodował, że udało wam się wynegocjować, na przykład, lepsze warunki w drukarni czy jakichś innych kosztów wydawniczych?

M: Nie. Z perspektywy drukarni tutaj się nic nie zmienia – po prostu wydawca zamawia określony nakład książki. Zmiana nastąpiła – z mojej perspektywy – między innymi taka, że nie ponoszę kosztów związanych z przygotowaniem książki do druku. Chodzi tu o skład, projekt okładki, redakcję, korektę. Teraz te wszystkie kwestie były po stronie wydawcy i to są jego koszty. Co więcej, wydawca też bierze na siebie pokrycie części kosztów, jeśli chodzi o promocję i marketing. To znaczy: jeśli organizujemy jakieś spotkanie autorskie, to wydawca zwraca mi koszty podróży. Z perspektywy wydawcy jestem zatem takim samym autorem, jak każdy inny, a jedyne, co się zmienia, to to, że jestem także traktowany jak dystrybutor, bo de facto tę książkę także dystrybuuję. W przypadku książki Pata Fynna mam z wydawcą bardzo podobny układ. Zatem zarabiam na książce Pata Fynna więcej niż on sam.J

C: Myślę, że możemy przejść do bardziej marketingowych aspektów – czyli kwestii związanych z promocją książki. Gdy widzieliśmy się ostatnim razem, wspominałeś, że nie będziesz uruchamiał płatnej promocji i mam wrażenie, że trochę się w tym aspekcie zmieniło?

M: Zmieniło się. Może najpierw powiem, dlaczego w ogóle zacząłem korzystać z płatnej promocji. „Finansowy ninja” ukazał się w lipcu 2016 roku, a płatną promocję uruchomiłem dopiero w maju 2017 roku. Czyli przez prawie rok ta książka sprzedawała się wyłącznie organicznie. W zasadzie wydawało mi się, że po przedsprzedaży, która przypadała na lipiec i sierpień 2016, już od września będę stosował płatną promocję. Ale zdecydowałem się wstrzymać i zobaczyć, co tak naprawdę znaczy „organiczna sprzedaż” w moim przypadku. Okazało się, że jej poziom jest  całkiem zadowalający, bo we wrześniu 2017 roku wyniosła ona ok. 150 tys. złotych miesięcznych przychodów. I tak sobie pomyślałem: „Fajnie to wygląda. Chcę zobaczyć, jak będzie wyglądał kolejny miesiąc”. I tak z miesiąca na miesiąc odraczałem rozpoczęcie płatnej promocji.

Rozmawiałem z Tobą w grudniu 2016 r., który też był miesiącem bardzo dobrym – 347 tys. zł przychodu z samej książki – i wtedy na przełomie stycznia i lutego podjąłem decyzję, że zacznę stosować płatną reklamę dopiero wtedy, gdy przychód spadnie poniżej 100 tys. złotych miesięcznie. I to nastąpiło w kwietniu. 

C: Czyli ustaliłeś dokładny próg, poniżej którego zaczniesz stosować reklamę płatną?

M: Dokładnie. Od maja zacząłem działać płatnie, wyłącznie na Facebooku. I to przyniosło efekty. Nie przepalałem tego budżetu na reklamę – można powiedzieć, że każda wydana na Facebooku złotówka wracała do mnie jako 2-3 złote zysku. 

C: Jeśli korzystasz z silnika Facebooka, to dlaczego nie korzystasz z silników reklamowych Google’a?

M: Wszystkie działania prowadzę samodzielnie. Miałem nawet taki moment, gdzie korzystałem z zewnętrznych usług, jeśli chodzi o promocję na Facebooku, ale raczej się na tym sparzyłem. Działania ekspertów w tym zakresie przynosiły gorsze wyniki niż wtedy, gdy prowadziłem je samodzielnie. Zdałem sobie sprawę, że moja wiedza w tym obszarze, jak docierać do osób, które są potencjalnie zainteresowane moją książką, jest na tyle dobra, że – mówiąc wprost – trudno jest zewnętrznym ekspertom ją przebić. Nie uważam się za eksperta – dla jasności, nadal uważam, że raczkuję w tym obszarze – ale jednak efekty były takie, a nie inne.

Jednak kompletnie nie posiadam wiedzy w kontekście reklam Google’a na takim poziomie, aby zająć się tym samodzielnie, tak by taką reklamę skutecznie robić, dlatego nie korzystam z tej formy promocji. Jest to z pewnością kolejna rzecz na liście „to do”, podobnie jak zdobycie wiedzy w zakresie tego, jak działać skutecznie na Instagramie.J Instagram też jest moją piętą achillesową; nigdy tego nie robiłem i podchodzę do tego jak pies do jeża.

C: A jeśli mówimy o ruchu płatnym na Facebooku, to używasz głównie remarketingu czy może głównie kierowania do fanów, czy jeszcze jakiegoś bardziej specyficznego kierowania?

M: Wykorzystuję różne formy kierowania i działań –  uzależnione w dużej mierze od tego, co jest przedmiotem reklamy. Można to sobie wyobrazić w ten sposób, że mam – powiedzmy – pewien lejek. Przykładowo: w artykule o karcie walutowej Revolut umieszczam, np. ramkę, w której daję informację o promocji mojej książki do konkretnego dnia. Czyli łączę promocję z artykułem – świadomie umieszczam ją tuż przy treści, która będzie ciekawa i poczytna, szczególnie w tym okresie przedwakacyjnym [karta Revolut umożliwa płatności za granicą bez dodatkowych prowizji – przyp. red.]. Daję wartość, poprzez wartość daję się poznać i daję także poznać jakość tych treści, które tworzę i jednocześnie w tym samym miejscu tworzę – nazwijmy to –„upsell” mojego produktu. Zupełnie inaczej podchodzę do promocji takiego wpisu na blogu niż do promocji strony sprzedażowej książki. Artykuł zatem targetuję na moich fanów tak, by dotrzeć z nim do osób, które już miały wcześniej kontakt ze mną.

Koszt za klik jest dla mnie mało istotny, to jest między kilkanaście a kilkadziesiąt groszy, ale dla mnie kluczową sprawą jest pomiar konwersji. Czyli zestawienie tego, ile wydałem na kampanię versus to, na jakim poziomie wygenerowała ona przychód. To, że jednostkowy koszt kliknięcia będę miał wysoki, jeszcze nic nie mówi mi na temat tego, jak bardzo ta kampania była efektywna. Dla mnie metryką jest sprzedaż.

Kolejna metoda, którą stosuję to remarketing – remarketing do czytelników, którzy odwiedzili bloga w okresie ostatnich 30 dni i remarketing do osób, które odwiedziły strony sprzedażowe „Finansowego ninja” i „Zaufanie, czyli waluta przyszłości”.

Kolejny sposób to targetowanie do określonych grup – tutaj często posługuję się „lookalike”, czyli grupami podobnych odbiorców. Czyli oczywiście zasilam Facebooka informacjami o tym, kim są moi klienci i na tej podstawie tworzę grupy podobnych do nich odbiorców.

C: Kierowanie to jest kluczowy element, ale drugą istotną kwestią jest kreacja. Który z formatów u Ciebie najlepiej działa?

M: Ja akurat mam dość prymitywne podejście do kreacji reklamowej, bo wszystko, tak jak wspomniałem, przygotowuję sam. Czyli znowu: jeżeli mam promocję cenową, na przykład polegającą na tym, że zdejmuję koszty wysyłki książki, to walę bardzo prosto po oczach moją twarzą, okładką książki i prostym komunikatem „Darmowa wysyłka”. Stosuję to nagminnie, bo to działa u mnie bardzo skutecznie. Tutaj z każdej włożonej złotówki w okresie promocji, wyciskam od 4 do 8 złotych zwrotu. Przy czym wtedy ponoszę koszt wysyłki – dlatego nie liczę tylko kosztu reklamy, ale także koszt, który w efekcie niesie za sobą ta konkretna promocja.

Przy standardowych działaniach, gdzie promocji nie ma, staram się używać wideo, czyli trailery książek, w których jest po prostu opowiedziana konkretna historia. W przypadku „Finansowego ninja” od roku stosuję cały czas ten sam format wideo, który wciąż działa – jedyne czym się różni, to tekst, które dopisuję nad kreacją.

Najlepszy wynik pod względem wielkości sprzedaży osiągnąłem w grudniu ubiegłego roku –jednomiesięczne przychody ze sprzedaży książki wyniosły 747 tys. zł, z czego reklama na Facebooku bezpośrednio przyczyniła się w 7-dniowym oknie konwersji do wygenerowania przychodu w wysokości 240 519 zł przy kosztach reklamy na poziomie 32 761 zł. Mówiąc inaczej, każda włożona wtedy w reklamę złotówka wygenerowała przychód powyżej 6 zł – już po uwzględnieniu kosztu reklamy. [szczegóły na temat wyników reklam Michała znajdziesz pod tym adresem àzcwp.pl/reklamy]

C: Może wszyscy na Gwiazdkę kupowali? J

M: Zapewne, ale na pierwszą Gwiazdkę nie sprzedałem tyle, ile na drugą. To pokazuje też pewną „dojrzałość” produktu. Rośnie świadomość produktu – to, że istnieje, że jest wartościowy. Nie zakładam też tego, że konwersja będzie natychmiastowa. Wiele moich działań jest nastawionych na to, że pozyskuję na przykład osoby, które ściągają darmowy rozdział mojej książki. I OK – to nie jest natychmiastowa konwersja na sprzedaż, ale dzięki temu dana osoba wpada do mojego newslettera. I do takiej osoby co tydzień wysyłam emaile – mam stworzoną sekwencję kilkunastu takich wiadomości i średnio po pięciu-sześciu z nich zazwyczaj taka osoba kupuje książkę.

C: A jakie jest Twoim zdaniem najbardziej niedoceniane źródło ruchu?

M: Nadal uważam, że właśnie newsletter. Pomimo tego, że wszyscy dobrze wiemy, że newsletter sprzedaje, to mało kto potrafi go robić dobrze i w związku z tym rodzi się opinia, że newsletter to jest przeżytek i nie sprzedaje. Gdyby newsletter nie sprzedawał, to nie mielibyśmy tyle spamu.

C: Czy nie doszliśmy do meritum sprawy? Bo czy nie jest tak, że newsletter sprzedaje, ale tylko wtedy, gdy między Tobą a odbiorcą jest już zbudowane pewne zaufanie?

M: Niekoniecznie. Możemy wykorzystywać newsletter właśnie do budowania zaufania. U mnie ścieżka jest taka: ktoś wpisuje w Google dane hasło – „Jak kupić tanie OC?”. Trafia na mojego bloga i często trafia na treść, która nie odpowiada na jego pytanie. Ale już na podstawie tego jednego artykułu widać, że autor bloga być może ma coś sensownego do powiedzenia. I teraz następnym krokiem jest to, czy ja, jako gość, który ma coś do powiedzenia, potrafię skutecznie zachęcić tę osobę do tego, by zostawiła mi swój adres e-mail. Na przykład wyświetlając komunikat” „Ściągnij darmowy rozdział książki, bo znajdziesz tam masę wiedzy na temat tego, jak skutecznie poprawić swoje finanse osobiste”. I ktoś mówi: „Dobra, zaryzykuję”. I tylko dzięki temu jestem w stanie dotrzeć do tej osoby z nowymi treściami, dlatego że ona prawdopodobnie nie wpisze w wyszukiwarkę ponownie świadomie nazwy bloga.

C: No właśnie, ale wydaje mi się, że takie wymuszanie adresu mailowego, gdzie nie ma jeszcze zbudowanego zaufania, powoduje, że zostawiamy w formularzu ten drugi czy trzeci adres mailowy, bo nie chcemy mieć kontaktu z działem marketingu danej firmy. A swój prawdziwy adres e-mail, ten, z którego korzystamy na co dzień, zostawiamy tylko wtedy, kiedy już wiemy, że tam są fajne treści, co tydzień coś ciekawego, kiedy dostaliśmy już jakąś wartość.  

M: Czarek, ale mówisz jak profesjonalista. To znaczy mówisz jako osoba, która ma kilka skrzynek mailowych do różnych celów. Większość osób ma jedną skrzynkę mailową. Jedną lub dwie – jedną prywatną, a jedną służbową. Nie kilka. Większość osób tak funkcjonuje. Większość osób ma problem ze spamem, ale część osób również świadomie podejmuje taką decyzję: „Jak mi coś dadzą, to zostawię swój adres mailowy.” I to działa.

I teraz kwestia jest taka: jeżeli ta osoba dała nam takie mikro-zaufanie – „Dobra, daje mi coś, zostawię adres e-mail” – to my jako marketerzy, możemy ten kontakt spalić albo nie. I ja staram się tego kontaktu nie palić. Dostarczam wartościowe treści. Prawdziwe zaufanie buduję przez te treści, które dostarczam e-mailem, a one są często tylko źródłem kliknięcia do bloga, gdzie temat jest dużo szerzej omówiony. Buduję ten dialog i im sprytniejszy jestem, tym bardziej ten dialog będzie dopasowany do potrzeb danej osoby. Jeżeli kogoś interesuje zakup mieszkania, to podsuwam mu artykuł dotyczący kredytów hipotecznych, jak dobrze kupić mieszkanie, jak negocjować jego cenę.

C: A jak odkrywasz te intencje?

M: Po kliknięciach tej osoby. Mam takie sekwencje mailowe, w których ktoś sam mówi, co go interesuje. Wysyłam pytanie: „Czy jesteś tym tematem zainteresowany czy może innym?”, i na podstawie tego kliknięcia odbywa się segmentacja. Każda osoba trafia do trochę innego mailowego lejka. To są rzeczy totalnie proste. 

C: Jakie są, na podstawie Twojego doświadczenia, najlepsze generatory adresów mailowych, które u Ciebie zadziałały? Jaka forma zapisu najlepiej skłania, by zostawić ten adres i wpaść do sekwencji, o której mówisz?

M: Dużo form zapisu w różnych miejscach.

C: O tym też piszesz w książce?

M: Tak. I podaję statystyki, która działa najlepiej. Czyli – definitywnie odpowiadając na Twoje pytanie – moim zdaniem, najlepszym źródłem ruchu jest wciąż newsletter, generowany organicznie z mądrze pozyskanymi odbiorcami. 

C: Trzeba przyznać, że masz ciekawy, niestandardowy model i podejście do biznesu. Piszesz też o tym w książce, podajesz źródła, mówisz o tym, kto Cię inspirował.  Starasz się nie mieć ludzi na etacie, dużo zlecać na zewnątrz, sporo także pracujesz – to jest konsekwencja tego modelu, który przyjąłeś. Jednak jest to wynagradzane w szczodry sposób. Powiedz proszę trochę o tym niestandardowym podejściu do prowadzenia biznesu, który byłby może dobrą inspiracją dla osób, które dopiero zaczynają.

M: Trudno będzie mi to streścić, bo cała moja książka jest praktycznie o takiej mojej filozofii biznesowej. Więc bardzo mocno odsyłam do książki –  to z jednej strony, ale z drugiej powiem, że to, z czym się najczęściej stykam, to fakt, że wiele osób, które zabierają się za prowadzenie swojej firmy, ma wyobrażenie, że powinny to robić w jakiś konkretny, określony sposób. Albo że one, np. robią to źle, bo inni działają inaczej. I wydaje mi się, że nie warto zbyt dużej wagi przywiązywać do tego, co robią inni. Warto się skupić na tym, co my robimy i robić to po swojemu, dlatego że tylko wtedy – tak mi się wydaje – będziemy w stanie osiągać dobre efekty. Jeśli próbujemy robić coś, dostosowując się do tego, w jaki sposób działają inni, to po pierwsze, nie wiemy do końca, dlaczego u nich to działa, a po drugie nie jest to zgodne z nami do końca – z naszą filozofią działania, sposobem działania, kompetencjami i tak dalej. W związku z tym może nam być trudno osiągnąć zadowalające efekty.

Patrząc na zewnętrzny świat, mam wrażenie, że lansuje się taki model rośnięcia firm, poprzez właśnie skalowanie: zwiększanie liczby pracowników, zatrudnienia, zwiększanie kosztów. Można tak, ale jest też inne podejście na zasadzie: „Jestem mały, jestem jednoosobowy, firma nie jest celem, a pewnym narzędziem w tym, co chcę zrobić”, i jeżeli to narzędzie jest zbyt kłopotliwe w użytkowaniu, to najwyraźniej należy to narzędzie zastąpić jakimś innym. Niekoniecznie trzeba mieć wielką firmę. Jest jak najbardziej okej to, że chcemy być po prostu mali, że chcemy, by firma pozwalała nam żyć na jakimiś fajnym poziomie – czytaj: by generowała zyski, ale też pozwalała po prostu cieszyć się życiem. 

C: Jakie warunki trzeba sobie założyć, żeby taki model realizować?

M: Potrzeba dużo wiary w siebie i nieoglądania się na zewnątrz. Uwierzenie w to, że mamy jakiś pomysł na siebie. Nawet jeśli faktycznie go nie mamy – to ważne jest jego aktywne poszukiwanie. To wszystko w zasadzie sprowadza się do pytania „Dlaczego?” – „Dlaczego robię to, co robię?”. Jeśli nie odpowiesz sobie na to pytanie, to będziesz błądzić. Samo błądzenie, w gruncie rzeczy, nie jest złe. Błądząc też zderzasz się z rzeczywistością. Tu też trzeba wypracować jakąś drogę. Uważam, że nie da się jej wypracować teoretycznie. Czasem dobrze się zderzyć ze ścianą, by dojść wreszcie do wniosku: „Okej, ściany są twarde, nie należy na nie wpadać.”

C: A gdybyś miał coś powiedzieć o Twojej filozofii prowadzenia firmy?

M: Postanowiłem nie mieć pracowników etatowych. Także dlatego, że już wystarczająco długo pracowałem z ludźmi, aby wiedzieć, że trudno jest dogodzić wszystkim. Im więcej masz pracowników, tym więcej zadań możesz delegować, ale tu też zaczyna działać statystyka – nie wszyscy będą świetni, będą jednostki wybitne, będą średniacy i będą jednostki słabe.  Ja nie lubię pracować z jednostkami słabymi i jednostkami średnimi.

C: Nie myślałeś choćby o asystencie, który by Cię trochę odciążył?

M: Nie – bo poza tym, że nie chcę mieć pracowników, to miałbym wtedy zbyt dużą skłonność do delegowania zadań, którymi moja firma i tak nie powinna się zajmować. Bycie jednoosobowym wymusza na mnie asertywność i pomaga szukać kompromisu – są rzeczy które muszę odpuścić, bo wszystkiego nie zrobię. Bardzo świadomie odpuszczam. I gdy wiem, że mój czas jest ograniczony, w bardzo świadomy sposób alokuję siebie tylko do tych zadań, które uważam za ważne – z mojej perspektywy, czy też z perspektywy mojego audytorium, bo próbuję pogodzić jedno z drugim.

To dlatego odmówiłem Ci kilka razy wystąpienia na konferencji – bo postanowiłem występować na konferencjach tylko dwa trzy razy do roku, żeby nie wystąpiło tzw. „zmęczenie materiału”, żebym nie miał poczucia, że nie zdążyłem się przygotować tak, jakbym chciał i tak dalej, i tak dalej.

A druga rzecz, którą mówię, to, że trzeba się nauczyć czuć komfortowo z zostawianiem pieniędzy na stole. Ktoś do Ciebie przychodzi i mówi: „Michał, tutaj mam taki projekt, może on nie do końca do Ciebie pasuje, ale mam na to pół bańki – zrób to.” I tak na to patrzysz i myślisz: „Okej, ale czy to jest zgodne z tymi moimi celami, moimi założeniami i wyobrażeniami na temat tego, co ja chcę zrobić?”. Jeżeli nie, to przepraszam, ale dziękuję. Sztuka mówienia „nie”. To jest bardzo trudne. Szczególnie trudne, gdy prowadzimy biznes na granicy rentowności, a musimy mieć co do garnka włożyć. Trudno się wtedy odmawia. Ale w sytuacji, w której prowadzimy biznes dochodowy, im więcej zarabiamy, tym z większej liczby rzeczy możemy rezygnować – pomijając kryterium finansowe.

C: I ostatnie pytanie: Michale, kiedy Tesla?

M: Nie będzie Tesli.

C: Nie kupisz nigdy?

M: Nie, bo już przetestowałem, że w Polsce nie da się normalnie używać tego samochodu. Czytaj: Ja jestem kierowcą, który traktuje auto jak narzędzie. Coś, co ma być dostępne non stop, wtedy, kiedy tego potrzebuję. A Tesla – przy moim stylu jazdy – nie potrafi nawet przejechać dystansu z Warszawy do Poznania bez ładowania. Nie oszukujmy się: w tej chwili w Polsce to jest zabawka dla geeków, a nie samochód, którego można używać bezstresowo. 

C: Czyli Elon Musk musi wymyślić większy akumulator, czy musi powstać więcej punktów ładowania na trasie?

M: Po prostu premier Morawiecki musi zrealizować swoje obietnice dotyczące rozwoju elektromobilności w Polsce. A czy zrealizuje, to zobaczymy. A druga sprawa, że Tesla jest pioruńsko droga. Przy kilometrażu, który ja przejeżdżam, a jest to stosunkowo mało, nie bardzo widzę…ROI. Podobną frajdę z jazdy można mieć w tańszych i łatwiejszych w użytkowaniu autach z silnikami V8.

Konferencja o inluencer marketingu

Artykuł Jak na blogu zarobiłem miliony – wywiad z Michałem Szafrańskim pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Jaki jest najlepszy magazyn marketingowy?

Z końcem kwietnia będzie miało miejsce premierowe wydanie magazynu sprawny.marketing. Roczną prenumeratę można zamówić za 97 zł!

magazyn sprawny.marketing

Dlaczego warto zamienić swój dotychczasowy magazyn na sprawny.marketing?

W każdym numerze znajdziecie przekrój najważniejszych nowości ze wszystkich działów online marketingu:

  • Google i SEO
  • Google AdWords i kampanie płatne
  • Facebook Marketing
  • Instagram
  • LinkedIn
  • YouTube i Video Marketing
  • Twitter i Periscope
  • Messenger, WhatsUp, Snapchat
  • E-mail Marketing

Wysokość wynagrodzenia autorów będzie zależała od głosów czytelników – im więcej głosów, tym wyższe wynagrodzenie. Łącznie na gaże autorów przeznaczymy aż 20 000 zł. Gwarantuje to treści najwyższej jakości.

Głosować na najlepszy artykuł będą mogli jedynie prenumeratorzy – nie będzie to więc konkurs popularności w mediach społecznościowych, a faktyczna ocena czytelników.

Co wyróżnia magazyn sprawny.marketing?

  • Darmowa aplikacja mobilna w pakiecie z magazynem – głosowanie na artykuły odbywa się za pomocą QR kodów w aplikacji mobilnej sprawny.marketing, która dzięki temu zyskuje unikalną funkcjonalność
  • Każdy artykuł jest sprawdzany pod względem wskaźnika mglistości Gunninga-Foga, dzięki czemu o skomplikowanych tematach piszemy w przystępny sposób
  • Angażujące historie i polskie studia przypadków
  • Grupa dyskusyjna na Facebooku, gdzie można mieć kontakt z autorami tekstów i zdawać pytania
  • Jest to jedyny magazyn marketingowy w Polsce dostępny w Apple Store, Google Play i Amazon

 

sprawny-logo-magazyn
Pomoże Ci rozwiązać najczęstsze problemy, z którymi na co dzień mierzysz się w pracy marketera, a także dostarczy wielu nowych pomysłów i inspiracji do działania!

Artykuł Jaki jest najlepszy magazyn marketingowy? pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Black Hat SEO hostingodawcy z wykorzystaniem protokołu https

Podczas wtorkowego szkolenia SEO, w trakcie analizy LIVE działań Link Buildingowych, wzięliśmy pod lupę znaną (w szczególności wśród blogerów) firmę hostingową zenbox.pl. Niestety szybko pojawiły się podejrzenia o świadome stosowanie technik Black Hat.

Ogromne zaciekawienie wzbudziły poniższe wykresy:

Wykres przedstawiający przyrost witryn zawierających linki do domeny zenbox.pl
Wykres przedstawiający przyrost witryn/stron zawierających linki do domeny zenbox.pl

Widząc tak efektowny przyrost nie pozostało nam nic innego jak wczytać się głębiej i dokładniej przeanalizować technikę pozyskiwania takiej skali linków w tak (jakby nie było) krótkim czasie.

Linki = Wzrost!

Za wzrostem linków idzie także wyraźny przyrost widoczności słów kluczowych:

Wzrostu pozycji slow kluczowych w semstorm

Podejrzeń mieliśmy wiele, ale to co zobaczyliśmy, delikatnie mówiąc, wprawiło nas w osłupienie.

To jest tylko skromy wycinek z listy domen linkujących do zenbox.pl – jak sami widzicie pojawiają się tutaj domeny znanych blogerów (Paweł Tkaczyk, Andrzej Tucholski, Jakub Prószyński, Łukasz Kielban, Michał Kędziora, Michał Szafrański). W pierwszej kolejności pomyśleliśmy o szeroko zakrojonej akcji content marketingowej, w którą zaangażowały się popularne osoby z blogosfery i z takim założeniem zaczęliśmy szukać „treści” linkujących do beneficjenta tych działań, czyli zenbox.

Content w większości przypadków wygląda następująco:

03-zen

https://mrvintage.pl

09 zen

https://andrzejtucholski.pl

10 zen

https://pijarukoksu.pl

07 zen

https://czasgentlemanow.pl

06 zen

https://blog.paylane.com

13 zen

12 zen

Żeby dotrzeć do tego widoku… w przeglądarkach Chrome i Firefox trzeba się przeklikać przez tryb ZAAWANSOWANY (1 krok) i kliknąc link w stopce (krok 2):

tryb zaawansowany w google chrome

Jak pokazują narzędzia analizujące linki przychodzące, Zenbox częściowo poradził sobie z problem na takich domenach jak:

linki z ssl do zenbox z jakoszczedzacpieniadze

link z wersji https upolujebooka do zenbox

Linki oraz pełne wersje witryny w https:// zostały usunięte.

Dlaczego pomimo upływu 8 miesięcy nie załatwiono problemu kompleksowo na wszystkich domenach?

  • Czy to celowe działanie zenbox.pl czy może błąd w konfiguracji serwera?
  • Czy klienci firmy hostingowej wiedzą o posiadaniu szyfrowanego protokołu swojej domeny i czy są świadomi tego, jak wygląda ich strona w wersji https?
  • Czy takie działanie jest etyczne?
  • Czy jest możliwe przypadkowe wygenerowanie i uruchomienie protokołu SSL dla blisko 2000 domen?

Te i inne pytania pojawiły się w naszych głowach, dlatego poprosiliśmy o wsparcie w (kwestiach technicznych) Jakuba Orłowskiego z LH.pl, z którym w ostatnim czasie skonfigurowaliśmy szyfrowany protokół SSL dla https://sprawnymarketing.pl

Wypowiedź Jakuba Orłowskiego, Specjalisty ds. Marketingu w LH.pl:

  • Czy zenbox.pl wie o tej sytuacji?

    Myślę, że to jest pytanie do Zenbox :) Sądząc po sprzedażowych treściach i linkach SEO zawartych w landing page’ach wygląda to na zamierzone działanie. Kilka lat temu jeden z liderów rynku hostingowego zamieszczał dość nachalne reklamy w stronach 404, jednak pod falą krytyki zostały one usunięte. Myślę, że tu będzie podobnie. Tak naprawdę pytanie powinno brzmieć „Czy klienci i użytkownicy wiedzą o tej sytuacji i się na nią godzą?

  • Czy jest to błąd w konfiguracji? Jaki dokładnie?

    Nigdy nie można wykluczyć błędu w konfiguracji, ale liczba zaindeksowanych stron w google (333 000) pozwala sądzić, że to masowe działanie. Jeśli byłby to błąd, to oznacza, że został zreplikowany na wszystkich serwerach i plikach konfiguracyjnych. Błąd mógłby polegać na ustawieniu domyślnego „DocumentRoot” i skierowaniu na błędny katalog na serwerze (zawierający landing). Takie niedopatrzenie świadczyłoby o braku profesjonalizmu, o co nie podejrzewam administratorów Zenbox.

  • Czy jest to błąd trudny do wychwycenia?

    Myślę, że nie. Nie wiem jak długo taka sytuacja trwa, ale prędzej czy później administrator powinien sprawdzić, co się pojawia pod adresami  https:// w domenach klientów.

  • Czy jest to stosowana praktyka przez firmy hostingowe?

    Nie spotkałem się z taką praktyką zarówno w Polsce jak u zagranicznych dostawców. Umieszczanie treści pod domeną klienta bez jego wyraźnej zgody jest dość dyskusyjne.Moim zdaniem pod adresem https:// powinna się pojawiać treść tożsama z http://, błąd 404 lub inna, zdefiniowana treść użytkownika. Nie powinno się umieszczać tam reklam, zewnętrznych odnośników, bo może to powodować chociażby duplicate content i mieć negatywne skutki dla SEO.

  • Czy jest możliwe przypadkowe wygenerowanie i uruchomienie protokołu SSL dla blisko 2000 domen?

Nie wszystkie domeny mają uruchomiony protokół https z automatu. Gdyby nie landingpage (no sam się nie wgrał przecież) kierujący do zakupów w zenbox moglibyśmy mówić o jakimś przypadkowym działaniu i błędzie ludzkim. Tutaj poszlaki wskazują na celowe działanie.

Co na to BOK Zenbox.pl?

Jak widać z odpowiedzi biura obsługi klienta Zenbox – problem nie istnieje. Nie masz wykupionego certyfikatu SSL? Nie interesuj się tym, co widzisz pod wersją https swojej domeny…

Zenbox.pl - Odpowiedź BOK

Czy powyższa technika to Black Hat SEO?

Jak widać skala zaindeksowanych w Google podstron jest bardzo duża (ponad 300 tysięcy), a według naszych analiz problem dotyczy około 2000 domen hostowanych w zenbox.pl

04 zen

Jak inaczej nazwać umieszczanie na naszych stronach obcych treści z linkami wychodzącymi (bez naszej wiedzy)?

Wracając do kwestii Black Hat…można było lepiej wykorzystać te strony pod kątem link buildingu np. wrzucając exact anchory (hosting, hosting stron, hosting www itp.)

05 zen

W celu uniknięcia jakiegokolwiek zarzutu o celowe wykorzystywanie takiego działania pod SEO, radzilibyśmy zenbox.pl wrzucić atrybut rel=”nofollow” do wszystkich linków zawartych na tej podstronie albo wykluczyć z indeksacji takie podstrony (robots.txt).

Z jakimi konsekwencjami może się ta sytuacja wiązać dla zenbox i ich klientów?

Przy takiej skali domen – istnieje duże ryzyko – potraktowania przez Google takiego rozwiązania jako sieć wymiany linków, co wielokrotnie kończyło się karą zarówno dla domeny linkowanej jak również dla domen publikujących linki, w tym przypadku znanych blogów.

Linki, które mogą manipulować wartością PageRank lub pozycją witryny w wynikach wyszukiwania Google mogą zostać uznane za element systemu wymiany linków oraz za przykład naruszenia zasad podanych we Wskazówkach dla webmasterów. Dotyczy to wszystkich działań polegających na manipulowaniu linkami prowadzącymi do Twojej witryny lub z niej wychodzącymi.

Oto przykłady systemów wymiany linków, które mogą negatywnie wpłynąć na pozycję witryny w wynikach wyszukiwania:

  • używanie zautomatyzowanych programów lub usług do tworzenia linków do witryny.

Ponadto tworzenie linków, które nie zostały umieszczone w tekście strony lub poręczone przez właściciela witryny, zwanych sztucznymi linkami, może również zostać uznane za naruszenie zasad wynikających z naszych wskazówek. Oto kilka typowych przykładów sztucznych linków naruszających nasze wytyczne:

  • reklamy tekstowe przekazujące PageRank;

Odsyłamy do pełnego tekstu Wytycznych Google dla Webmasterów

 

Aktualizacja:

Wskazujecie nam w komentarzach inne firmy hostingowe, które w podobny sposób traktują wersje https Waszych stron.

Hekko.pl - strona https

Na szczególną uwagę zasługuje Hekko.pl , na ich stronach znajdziemy już „piękny” exact anchor: „tani hosting”, „tanie serwery”:

Hekko.pl - exact anchor

Strony https znajdujące się na hekko.pl są zaindeksowane w Google

Hekko.pl - zaindeksowane strony https

Zostawiamy temat do otwartej dyskusji.

Wykop artykuł na Wykopie :)

wykop_middle

 

Do tematu odnieśliśmy się także w formie Facebook Live:

Omawiamy dzisiejszy artykuł na Sprawnym Marketingu https://spr…Omawiamy dzisiejszy artykuł na Sprawnym Marketingu https://sprawnymarketing.pl/black-hat-seo-hostingodawcy/

Posted by Sprawny.Marketing on Thursday, June 9, 2016

Artykuł Black Hat SEO hostingodawcy z wykorzystaniem protokołu https pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

[Video] Content marketing, share’y i wirusowe treści w trudnej branży

Z tej prezentacji dowiesz się, co zrobić i jakie działania podjąć, promując
i kreując małą firmę
na potentata branży. Zobaczysz, co robić w zakresie content marketingu i jak wykorzystuje social media, outreach oraz blogerów
w trudnej, niewdzięcznej i „nieseksownej” branży.

Ta prezentacja Cezarego Lecha na konferencji I ♥ Marketing zajęła II miejsce
w głosowaniu publiczności, zdobywając średnią 4,60/5 z 298 głosów!

Konferencja I love Marketing

Obejrzyj całą prezentację:

Zobacz też prezentację na SlideShare

(Jeśli nie chcesz oglądać ponownie video, przejdź od razu do slajdów)

Artykuł [Video] Content marketing, share’y i wirusowe treści <br>w trudnej branży pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

5 nowych narzędzi marketingowych Facebooka!

W ostatnich tygodniach Facebook pokazuje, jak reagować na szybko zmieniającym się rynku social media, stając się tym samym jednym z lepszych przykładów zwinnego przedsiębiorstwa ostatnich lat. Facebook bierze to, co najlepsze z każdego serwisu społecznościowego, wykorzystując równocześnie swoją największą przewagę konkurencyjną, jaką jest liczba aktywnych użytkowników.

Zobacz, jakie funkcjonalności Facebook przejął od konkurencji w ostatnich tygodniach:

    • Facebook Video zaczyna przeganiać YouTube, a materiały video natywnie wgrywane na Facebooka osiągają znacznie lepsze zasięgi organiczne niż te, które linkują do YouTube.

  • Facebook Mentions bezpośrednio konkuruje z Periscope i Meerkat, które jak na razie mają mikroskalę i małe zasięgi. W tym samym czasie Facebook Mentions – mimo że to nowa aplikacja – z marszu zyskuje setki tysięcy widzów, co dobrze pokazują przykłady wykorzystania tego narzędzia na fanpage Prezydenta Dudy czy Zbigniewa Stonogi
  • Wprowadzając Facebook Notes, FB przejmuje funkcjonalność nie tylko od LinkedIn Pulse, ale także od serwisów contentowych typu Medium.com oraz platform blogowych (WordPress, Blogspot, Tumblr):

    Facebook „notes” have a new Medium-like appearance. (See comments on this note.) https://t.co/e8QQwWEXeN

    — Dave Winer (@davewiner) August 17, 2015

  • Facebook Instant Stories – czyli sposób na szybkie ładowanie najlepszych tresci od wyselekcjonowanych wydawców. Odpowiedź na popularność BuzzFeed?
  • Instagram Direct (też należący do Facebooka) coraz bardziej upodabnia się do SnapchataSnapstagram? ;)
  • Facebook Messenger oraz należący do Facebooka WhatsUp – na bazie tych dwóch aplikacji powstanie prawdopodobnie kolejna odpowiedź Facebooka na sukces Snapchata.
  • Instagram natomiast skutecznie rywalizuje z serwisami bazującymi na contencie graficznym, takimi jak Pinterest, warto też przypomnieć sobie, dlaczego wg obserwatorów tego rynku to Instagram będzie największym systemem social

To wszystko powoduje, że marketing na Facebooku w nadchodzącym 2016 roku będzie moim zdaniem najbardziej wyraźnym trendem zarówno pod względem zaangażowania i czasu spędzanego przez użytkowników w serwisie, jak i pod względem alokacji budżetów reklamowych. Wiedza z Facebook Marketingu staje się jeszcze bardziej niezbędna dla absolutnie każdego marketera!

Myślę, że powyższe przykłady pokazują, jak Facebook konsekwentnie wchodzi w kolejne segmenty rynku social mediów i ,,rozpycha się” na nich bez pardonu, poprzez przejęcia rozwijających się platform lub poprzez szybkie uruchomienie  w swoim serwisie funkcjonalności podobnych do tych, jakie ma konkurencja.

Facebook jest w tej chwili na bardzo uprzywilejowanej pozycji – większość konkurencyjnych kanałów social nie ma wielu użytkowników, a zatem długo i mozolnie będzie musiało budować ich bazę, a to, jak wiadomo, jest najdroższy i najbardziej czasochłonny proces. Jeśli kierownictwo Facebooka zachowa czujność, to można sądzić, że przez najbliższe lata Facebook nie odda pozycji największego serwisu social.

PS Dobre decyzje podejmowane przez Facebooka nabierają jeszcze większego znaczenia, kiedy przyjrzymy się pozostałym serwisom social, które notują znacznie wolniejsze wzrosty, stagnacje lub mają problem ze spieniężeniem ruchu. Klasycznym przykładem jest Google+, ale – co pokazują ostatnie wyniki – także Twitter zaczyna mieć problemy:

Pomimo pozornie dużej różnorodności serwisów social, okazuje się, że tak naprawdę mamy na tym rynku 7 ważnych graczy, którzy skupiają w swoich rękach wszystkie ważne serwisy:

  • Flickr, Tumblr = Yahoo
  • Twitter i Vine
  • LinkedIn i Slideshare
  • Snapchat
  • Pinterest
  • YouTube i Google+ = Google – nie zarabia
  • Facebook, Instagram, WhatsUp = Facebook

I, co ważne, bardzo prawdopodobne jest dalsze zawężenie a rynku, jak np. zakup Twittera przez Google.

PS2 Na tę chwilę czekamy jeszcze tylko na sensowną wyszukiwarkę, która pozwoli nam przeszukiwać i odnajdywać treści, na które natknęliśmy się za pośrednictwem Facebooka. To może być prawdziwy cios dla Google i bardzo ważny krok dla Facebooka!

Artykuł 5 nowych narzędzi marketingowych Facebooka! pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

7 powodów: „Instagram będzie najpotężniejszą platformą social!”

Analityk Scott Galloway w artykule na LinkedIn Pulse „Winners and Losers in a Digital Age” przygotował zestawienie danych przedstawiajace Instagrama na tle innych platform społecznościowych, takich jak: Facebook, Twitter, Pinterest, Google+ i Tumblr…

Zobaczcie  7 grafik, w których znajdziecie 7  faktów wyraźnie wskazujących to, przed którą platformą social media są najlepsze perspektywy wzrostu!

Polecam także nagranie z webinaru Michała Bajorka o tym, jak promować markę na Instagramie:

1. Serwisy społecznościowe oparte na aplikacjach mobilnych i contnet wizualny wygrywają…

visual-mobile-content-social-media-wins

2.Instagram jest aktualnie serwisem społecznościowym z najszybciej rosnącą liczbą użytkowników

przyrost uzytkownikow instagrama lata 2010-2014

3.Wskaźniki interakcji – czyli procent użytkowników, którzy lajkują, komentują lub tworzą content – jest na Instagramie 15 razy większy niż na Facebooku, 17 razy większy niż na Google+ i 40 razy większy niż na Twitterze!

wskazniki interakcji dla instagram facebook twitter google+

4.Stopień zaangażowania użytkowników Instgrama, Facebooka, Google+ i Twittera w porównaniu do ilości kont:

stopien zaagnazowania uzytkownikow-instgrama facebooka google twitter

5.Instagram pozostaje najszybciej rosnącą społecznością. Poniżej szybkość przyrostu użytkowników platform social media w drugiej połowie 2013 roku…

szybkosc przyrostu uzytkownikow social media 2013

6. 2/3 użytkowników Instagrama jest na nim codziennie, podczas gdy na Pinterest codziennie zagląda tylko nieco ponad 20% userów

czestotliwosc przebywania instagram vs pinterest

7.Największym przegranym w zakresie platforma social media wydaje się być Tumblr, przejęty w podobnym okresie, co Instagram, z podobną bazą użytkowników i wartością przejęcia – mimo upływu czasu, dalej nie zarabia:

porownanie instagram tumblr-pod wzgledem przychodow

Artykuł 7 powodów: „Instagram będzie najpotężniejszą platformą social!” pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Prezentacja video Content Marketing + SEO

29 stycznia w Warszawie odbyło się ważne spotkanie dla polskiej branży e-commerce – SemCamp. SprawnyMarketing miał również swój udział w tym wydarzeniu – Cezary Lech przedstawił podczas konferencji prezentację Content Marketing + SEO. Z tej prezentacji dowiecie się, czym naprawdę jest content marketing i  i jak ewoluował on na skutek mariażu z SEO. Zachęcamy do jej obejrzenia:)

Garść statystyk:

a) Przeciętny internauta spędza tylko 5% czasu na stronach wyszukiwarek...
b) …ale za to 47% na stronach z treścią

Tak duża jest moc content marketingu. Więc na temat tego, jak wygląda współczesny content marketing, dowiesz się z naszej prezentacji:)

Wideo w skrócie zawiera:

  • aktualne informacje i statystyki dotyczące content marketingu;
  • ciekawe case study;
  • informacje o tym o zależnościach pomiędzy content marketingiem a SEO.

Miłego oglądania:)

Prezentacja video:

Prezentacja SlideShare:

Artykuł Prezentacja video Content Marketing + SEO pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Instagram Marketing i 25 porad jak zdobywać więcej followersów i like’ów?

Kiedy blisko dwa lata temu Facebook przejmował Instagram za 1 mld dolarów, branżowi eksperci łapali się za głowy. Czym bowiem „banalna” aplikacja zasłużyła sobie na taką wycenę?! Wielu uważało ten krok za fanaberie społecznościowego giganta w stylu: „kto bogatemu zabroni…”.

W ostatnich miesiącach pojawia się coraz więcej sygnałów uzasadniających tę decyzję. Nastolatki coraz częściej rezygnują z Facebooka i przenoszą swoją aktywność w inne miejsca sieci oraz do aplikacji mobilnych. Wśród wymienianych kierunków migracji wskazuje się takie aplikacje jak: Whats App (kupione ostatnio przez Facebooka za 19 miliardów dolarów!), SnapChat, Vine i w dużej mierze właśnie Instagram

Firmy natomiast zaczynają dostrzegać potencjał marketingowy Instagrama, a tego, jak skutecznie promować się na tej platformie, dowiecie się m.in. z poniższego video:

social media sites most popular teens facebook instagram Screen przedstawiający najpoularniejsze serwisy wśród młodych użytkowników sieci społecznościowych, zródło: Business Insider

W dzisiejszym artykule przedstawiam 11 praktycznych porad wspomagających Growth Hackingowy ;) wzrost ruchu z tego kanału.

Wiele trafnych wskazówek dotyczących Instagrama wynotował swego czasu Neil Patel w artykule: The Science of Instagram: How to Get More Followers and Likes, porady dotyczą jednak głównie profili prywatnych użytkowników, ja przygotowałem spis praktycznych wskazówek dotyczących profili firmowych:

1. Na poczatek coś dla fanów SEO – 11 profili z opcja dodania linka :). W opisie profilu umieść link do strony www, jest to link nofollow, pamiętaj jednak, że Instagram jest aktualnie intensywnie indeksowany/kopiowany przez wiele innych serwisów, które często tworzą kopie profili już z linkiem dofollow, powodując wzrost ruchu z tego serwisu.

http://instagram.com/sprawnymarketing (nofollow)
(dofollow)
http://websta.me/n/sprawnymarketing (nofollow)
(tekstowy URL)
(tekstowy URL)
(dofollow)
(nofollow)
(dofollow)
(nofollow)
http://expdata.com/instagram/user.php?id=427553890 (dofollow)
(nofollow)

[TIP] Podając pełne dane adresowe Twojej firmy w opisie, zwiększysz tzw. Citation Rank, mający znaczenie przy ustalaniu wyników lokalnych.

2. Linkowanie do strony www i produktów – wrzucając na Instagram zdjęcie produktu, pamiętaj, żeby umieścić link do produktu w pierwszej linii opisu. Używaj bardzo „mobilnych” skracaczy linków, typu bit.ly i goo.gl. Link na poziomie aplikacji nie będzie klikalny, jednak stosunkowo łatwo go skopiować/zapamiętać, a następnie wkleić/wpisać w okno przeglądarki i trafić wówczas bezpośrednio do promowanego produktu. Tak to wygląda w praktyce:

stosowanie skracaczy linkow na instagram

[TIP] Zdecydowanie bardziej przyjazny dla użytkowników mobilnych jest link z opisowym, łatwym do zapamiętania urlem (dostępne np. po założeniu konta bit.ly):

bit.ly/1fZU4Sw ➜ bit.ly/crewtshirt

[TIP] Nic nie stoi też na przeszkodzie, aby uruchomić własny firmowy skracacz, jak np.: sprawny.pl lub najbardziej kontrowersyjny przykład skracacza linków, jaki udało mi się znaleźć: kut.as ;)

[TIP] Jeśli zdecydujemy się na skracacz, to warto pamiętać, że jest to doskonała okazja do dodania parametrów śledzących np. przy pomocy Narzędzią tagowania linków Google! To pozwoli Ci lepiej mierzyć konwersje z Instagrama.

3. Tagowanie zdjęć – używaj popularnych tagów, takich jak #love #kiss #cool #funny #cute … #instagood #instacool itp. Top 100 gorących tagów na Instagram znajdziesz na web.stagram.com, najlepiej wyszukać popularne tagi dopasowane do Twojej branży i grupy produktów.

[TIP] Polskim instagramowym mistrzem w tagotwórstwie [to chyba też nowe słowo ;)] wydaje się być AbstrachujeTV

4. Utwórz lokalizację niestandardową, podając adres swojej witryny, i taguj dodawane zdjęcia w utworzonej lokalizacji. Dzięki temu wiele osób jeszcze w głównym feedzie będzie cały czas ,,opatrywać się” z adresem Twojej strony.

[TIP] Warto pamiętać o poprawnej pisowni adresu www – zapisany w całości małymi znakami jest mniej czytelny niż adres zapisany z użyciem kapitalików na początku każdego słowa:
www.SprawnyMarketing.pl

5. Nie zapominaj, że Instagram to także Video – jeśli tworzysz autorskie video, to wskazane jest przygotować osobny kontent z myślą o Instagramie (materiał max. 15 sekund). W tym zakresie doskonałą robotę robi GO PRO:

Film zamieszczony przez użytkownika gopro (@gopro)

[TIP] Zarówno zdjęcia, jak i filmy z insta można osadzać w treści stron, korzystając z funkcji Embed, tak, jak zrobiłem powyżej! Pod tym linkiem znajdziesz kilka dodatkowych możliwości osadzenia kontentu z Instagrama.

6. Oprogramowanie PC/MAC do publikowania zdjęć na Instagramie – jeśli prowadzisz działania na Instagramie, to pamiętaj, że jest odpowiednie oprogramowanie zarówno na Mac, jak i na PC, wspierające dodawanie zdjęć – podszywające się pod telefon komórkowy. Znacząco upraszcza cała sprawę i powoduje, że dodanie kolejnego kanału social media w firmie jest praktycznie bezbolesne ;)

[TIP] Jest kilka bardzo przydatnych aplikacji dla osób zarządzających kilkoma kontami lub dużą ilością followersów.

7. Don’t buy followers!! – Pamiętaj, że Instagram należy do Facebooka i prawdopodobnie prędzej czy później FB wdroży podobne mechanizmy jak EdgeRank – kupieni fani szybko znikną albo obniżą widoczność naszych postów.

8. Kontent i Konkursy – czyli co wrzucać na profil? Nie mogą to być tylko zdjęcia Twoich produktów, bardzo dobrze share’ują się cytaty i złote myśli, ew. kontent w stylu „demotywatory”. Zachęcaj też użytkowników do fotografowania i oznaczania profilu sklepu na produktach, które zostaną w nim zakupione, np. poprzez robienie konkursów na najlepsze zdjęcia z Insta, lub za zdjęcia o największej liczbie like’ów.

Abercrombie wzywa do dzielenia się swoimi zdjęciami już w opisie profilu:

[TIP] Pamiętaj o właściwym dla tego kanału Call to action, jak np. „Double Tap…” lub „Spam me with likes…”. PICLAB to natomiast genialna aplikacja do tworzenia własnych grafik z tekstami.

9. System reklamowy Instagram Ads – Pamiętaj, że już wkrótce na Instagramie będzie można wykupić także reklamy i posty sponsorowane.

Więcej na ten temat

[TIP] W praktyce reklamę można kupować już teraz, trzeba się jednak kontaktować bezpośrednio z właścicielami profili lub szukać w Google.

10. Aby wesprzeć rozwój i szybkość przybierania fanów w tym kanale, warto umieścić wtyczkę na stronie www, która będzie wyświetlała nasze ostatnio umieszczone zdjęcia. Kod HMTL do pobrania tutaj, wygląda to np. tak (przykład z theyallhateus.com):

[TIP] Użyj także innych kanałów Social Media do promocji kanału na Instagramie:

[TIP] Pamiętaj, że podczas dodawania zdjęcia na Instagram, możemy z poziomu aplikacji automatycznie umieścić zdjęcie także na portale Facebook, Twitter, Tumblr lub Flickr.

11. Instagramowa Netykieta – Republikując czyjąś fotkę. nie zapomnij wskazać źródła jej pochodzenia, poprzez otagowanie autora @nazwaprofiluzrodla lub – jak to zgrabnie uczyniło abercrombie – wrzucając nazwę źródła na samą fotkę:

how to corectly repost photos on instagram

Czy Instagram ma już skalę w Polsce?

Instagram pół roku temu ogłosił, że przekroczył 200 mln użytkowników, wgrywane zdjęcia idą już w miliardy, specjaliści branżowi głoszą, że stajemy się „społeczeństwem obrazkowym”, a najszybciej rosnąca grupa userów to #selfie mamy 40+ :)

Polskie największe konta mają po 100-170 tys. followersów (Ewa Chodakowska i Jessica Mercedes). Warto jednak pamiętać, że do skutecznej kampanii na Instagramie często wystarczy znacznie skromniejsze dotarcie – jest to związane z tym, że jak na razie serwis w żaden sposób nie filtruje/ogranicza widoczności treści.

Czy moja firma powinna być na Instagramie?

Na to pytanie niezwykle trudno w tej chwili odpowiedzieć. Najszybciej do działań reklamowych – co zresztą naturalne – zaadaptowały Instagram  branże fashion oraz lifestyle. Nieprzypadkowo za przykłady w tym artykule posłużyły mi głownie strony modowe – to właśnie ta branża wydaje się być w tej chwili najmocniejsza na Insta. „Musisz być tam, gdzie Twoi klienci” – zatem jeśli Twoja grupa docelowa jest na Instagramie i masz pomysł na generowanie tam treści, to moim zdaniem zdecydowanie warto już w tej chwili w ten kanał wchodzić. Przykład trudnej branży na Instagramie: General Electric

PS Ostatnio, przechadzając się po poznańskim Starym Browarze, miałem okazję przekonać się, że nawet największe polskie marki już inwestują w social media, w tym także w mniej popularne kanały social takie jak: Pinterest, Instagram, LinkedIn, Twitter czy Google+. W moim przekonaniu największy potencjał wzrostu na 2015 rok kryje się właśnie w w/w serwisach społecznościowych.
Jeśli zatem czujesz, że potrzebujesz wiedzy i wsparcia z social marketingu, to klikaj w logotypy social na poniższej grafice :)

PS 2 Znacie przykłady Instagramowych profili z tzw. „trudnych branż”?!

PS 3 Followujcie nasze jedyne firmowe instagramowe konto
http://instagram.com/sprawnymarketing

Artykuł Instagram Marketing i 25 porad jak zdobywać więcej followersów i like’ów? pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Content Marketing jest teraz tym czym Social Media były w 2007 roku

Wszystko, co jest używane przez człowieka, ewoluuje w kierunku rozwiązań zapewniających wygodę oraz maksymalną użyteczność. Skoro Internet został oddany „w ręce ludu”, nic dziwnego, że ewoluuje w kierunku „od maszyny do człowieka”. W tym sensie Internet można porównać do języka – wbrew zapędom purystów i technofili, język mimo swoich ram gramatycznych, „technologicznych”, jest środowiskiem ewolucji, której efektem jest powstanie możliwie prostego i zrozumiałego nośnika komunikacji. Podobnie jest w przypadku sieci Internet, która ewoluuje w kierunku człowieka, w kierunku użytecznego contentu, treści angażującej użytkowników, wreszcie treści przez nich tworzonej. Gdzie podąża „pospolite ruszenie” użytkowników, tam, niczym markietanka, podążają trendy e-marketingu, a zwłaszcza SEM.

Umarł Link Building, niech żyje Content Marketing

Wybór podejmowanych zadań powinien być uzależniony od celów wyznaczonych przez charakter naszego biznesu bądź konkretnej kampanii internetowej. Pewne narzędzia – kampanie AdWords, Facebook Ads, RTB, kampanie remarketingowe, przynoszą szybki efekt i mogą być wykorzystane do sezonowych akcji. Podobnie zaczyna być postrzegany link building – często twórcom stron typu MFA (made for AdSense) zależy na krótkotrwałym efekcie w postaci wysokich pozycji dla danej domeny. Mając na uwadze krótkie, intensywne efekty, koszty w postaci kary lub założenia limitu budżetowego są zwyczajnym ograniczeniem przy założeniu danych celów.

Jaką drogę należy wybrać jednak, jeśli zależy nam na długotrwałym efekcie?

Content Marketing to nowe SEO

Niektórych przeraża fakt, że Internet nie zapomina. Ofiary memów Internetowych proszą o usunięcie ośmieszających zdjęć nie wiedząc, że Internetowego flow nie da się zatrzymać. Gdy rodził się social media marketing, a firmy nie miały rozeznania w potędze i prawidłach blogosfery, negatywne opinie kłuły w oczy bezradnych menedżerów firm. Okazało się, że walka prawna i pieniądze to nie wszystko – liczy się natomiast długotrwała strategia contentowa, której celem jest dominacja na kluczowych pozycjach w wyszukiwarkach Internetowych.

Skoro Internet nie zapomina, można tym samym wysoko określić wartość contentu w czasie. Zasoby utworzone w ramach kampanii contentowej nie zostają usunięte, wciąż pracują dla naszego biznesu generując dodatkową ilość ruchu sprowadzonego na stronę za darmo. Za stworzenie treści płaci się raz, a wraz z zakończeniem kampanii PPC kierującej do nowej treści, kampania content marketingowa nie kończy się. Treść pracuje przez kolejne lata przez cały czas sprowadzając nowy ruch i zainteresowanie.

Content Marketing i zarządzanie treścią w wyszukiwarkach to pole działania współczesnego specjalisty ds. PR. – mówi Włas Chorowiec z LeadBullet SA, twórcy projektu NextContent.pl:

PR-owiec (a może SEO’wiec?) przyszłości to osoba, która łączy kompetencje klasycznego PR, social media managera z content managerem. Myślę, że obserwujemy rozwój hybrydowej komunikacji rozumianej jako zespół umiejętności wykorzystania współczesnych narzędzi w efektywnym dotarciu do konsumenta (…) Dodałbym do tego jeszcze SEO. Pozycjowanie to dzisiaj niezbędne narzędzie wspierające w skutecznym dotarciu do konsumenta z naszym komunikatem.

W roku 2014 poniższe stwierdzenia staną się jeszcze bardziej wiążące:

    • Content Marketing jest największą bronią w walce o dobrą reputację marki w wyszukiwarkach. Poprzez tworzenie wartościowych treści na wiarygodnych domenach, często jesteśmy w stanie szybko zdominować SERP na nazwę naszej firmy/produktu
    • Chcąc osiągnąć zadowalający efekt na polu SEO lokalnego – możemy do budowania strategii contentowej wykorzystać media i serwisy lokalne.
    • Google Authorship – Dzięki możliwości dodania linku do profilu Google+ autora w artykule publikowanym na łamach serwisu o wysokiej reputacji, jesteśmy w stanie zyskać efekt w postaci wyświetlenia nazwiska oraz zdjęcia autora poprzez określenie authorship.
    • Wykorzystując narzędzia do zarządzania Content Marketingiem typu NextContent.pl, można ułatwić publikacje także infografik, galerii zdjęć oraz osadzić materiały video.
    • Część wydawców zgadza sie tylko na linki nofollow lub tekstową wzmiankę o stronie www autora. Przy dobrze napisanym artykule czasami wystarczy drobna wzmianka o twojej firmie/produkcie, a użytkownik już sam ją znajdzie – często efektem ubocznym content marketingu jest wzrost wyszukań i wejść z brandowych słów kluczowych. Do mierzenia tego efektu dobrze sie nadaje Google Trends.
    • Jeśli w 2014 chcesz spać spokojnie (nie myśląc o kolejnych update’ach Google) to jedną z najważniejszych rzeczy jest odpowiednia dywersyfikacja ruchu. Także w tym punkcie Content Marketing jest jednym z ciekawszych trendów. W 2014 postaraj się aby proporcje ruchu na Twojej stronie wyglądały podobnie jak na poniższym screenie z narzędzia Fokus (Google – 20-30%) zrodla ruchu social media content marketing

 

Długość kontentu a korelacja z pozycjami w Google

Jak zauważa Neil Patel w artykule How Content Length Affects Rankings and Conversions długość kontentu ma bezpośrednie przełożenie na wskaźnik konwersji ale także na pozycje w wyszukiwarce. Okazuje się że rekomendowana długość tekstu to min. 2000 słów:

dlugosc tekstu a pozycje strony w wyszukiwarce

Podobne analizy przeprowadzone przez Moz.com idą krok dalej sugerując że dłuższy bardziej rozbudowany kontent ściąga też wyraźnie więcej linków!

Content Marketing jako doskonałe źródło ruchu z kampanii PPC/Social Media

Dobra treść, którą umieściliśmy w popularnych portalach może okazać się znakomitym landing page’m dla naszych kampanii. Uznane przez internautów źródło informacji może się okazać doskonałym nośnikiem virala. Jak wiadomo, w programach reklamy CPC liczy się klikalność. Dobry content ściąga ruch za grosze. Za reklamy, które klikają się lepiej, zazwyczaj płacimy mniej – jest tak na YouTube, na Facebooku, a także programach RTB oraz w Google AdWords.

Umieszczając artykuł w nowej, niezależnej lokalizacji, możemy także zyskać wejścia całkowicie nowych użytkowników. Ponieważ docieramy do grupy docelowej, której nie byliśmy w stanie dosięgnąć za pomocą reklam, możemy się spodziewać dodatkowych konwersji – trafiamy bowiem do użytkowników o nawykach innych niż przeciętny użytkownik naszego serwisu, o takich, którzy nigdy nie słyszeli o naszej marce.

Nowości w promocji contentu

Warto również zauważyć, iż po zmianie algorytmu Edge Rank na Facebooku bardziej eksponowane będą posty z linkami do artykułów. Wartościowa treść już teraz wyświetla się lepiej od zdjęć.

A oto dowód:

Kolejnym faktem godnym zauważenia jest wzrost liczby wyświetleń wyników typu In-depth articles w Google. Zajawki do artykułów występują już na około 6,4% zapytań

Opcje Google związane z promocją contentu pojawiają się dla sporej części zapytań (źródło: Mozcast)

Nowe możliwości promocji contentu będą dotyczyły już wkrótce także Google+ i AdWords na stronach w sieci reklamowej Google. Formy reklamy promujące content opublikowany na Google+ już wkrótce będą dostępne w jednostkach reklamowych sieci Google.

W trakcie szkolenia Content Marketing pokazuję realne case’y content marketingowe m.in. w oparciu o tzw. ciężkie branże, takie jak Kabiny WC :)

Tekst współtworzył Rafał Kowalewski

Artykuł Content Marketing jest teraz tym czym Social Media były w 2007 roku pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

15 faktów o Google Disavow Tool i usuwaniu flitra

W ostatnich dniach na polskich blogach SEO jeden z najpoluarniejszych tematów to jak wyciągnąć stronę z filtra po Pingwin Update, jak poprawnie używać Disavow Tool oraz jak pisać reinclusion request. Wpisując się nieco w ten trend publikujemy zagregowaną listę 15 kluczowych informacji o których warto pamiętać podczas walki z Pingwinem.

1. Disavow tool dziala i potrafi wyciągnąć witryny z Pingwina! Matt Cutts potwierdził to na twitterze w odpowiedzi na pytanie Josha Bachynskiego, jest tez kilka publicznych case’ów to potwierdzajacych.

@joshbachynski disavows can help for Penguin.

— Matt Cutts (@mattcutts) June 28, 2013

2. Zanim użyjesz Google Disavow Tool sprawdź czy Twoim problemem oby napewno jest Pingwin Update czy nieco zapomniany Panda Update? To kolejna kwestia poruszona przez Josha Bachynskiego w trakcie Search Marketing Day – w dużym skrócie: Wez daty updateow z http://moz.com/google-algorithm-change, uruchom swoje statysyki np. za ostatnie dwa lata i zobacz czy spadki ruchu nie pokrywaja sie ze wcześniejszymi updatet’ami Panda ktorych bylo okolo 12 oraz z najnowszymi Pingwinami. Jeśli znajdziesz punkty wspólne to źródeł problemów szukaj na znacznie wczesniejszym etapie.

3. Zwróć uwagę na format przesyłanego pliku – poprawny format w jakim należy wgrać plik to UTF-8, a nie domyślnie stosowany przez Notatnik ANSI. To podobno najczęstszy błąd i powód odrzucania prośby o ponowne rozpatrzenie witryny.

4. Zgłaszając linki zwróć uwagę na subdomeny i linki z głębokich podstron lub ew. wykluczaj całe domeny komenda: „domain:”

5. Pisząc reconsideration request nie zapomnij dodać informacji że dodaleś także plik z linkami do wykluczenia w Disavow Tool.

6. Nie wysyłaj kolejnych reconsederation request jeśli na poprzednie nie dostales odpowiedzi.

7. Plik z linkami można tez umieścić jako plik w docs.google.com wybierając opcję, iż plik może oglądać każdy kto otrzyma link, nie zastąpi to jednak wysłania pliku przez Disavow Tool.

8. Pamiętja że poprzez wykluczenie linków w Disavow Tool wyjście z filtra niekoniecznie musi powodować powrót na dawne pozycje.

9. Nie marnuj czasu na ręczne działania i „fizyczne” usuwanie linków, w większości wypadków wystarczy wykluczenie linków w narzedziu Disavow. Wszelkie działania podjęte ręcznie warto jednak opisać w reinclusion request.

10. Problematyczne linki nie muszą kierować tylko do strony głównej (przypomnę, że można dostać komunikat o „Nienaturalnych linkach” za linki prowadzące tylko do jednej podstrony…)

11. Warto pamiętać że do rozwiązania problemu wystarczy analiza linków dostępnych w Narzędziach Google dla Webmasterów.

12. Tylko ostatnia najświeższa wgrana wersja pliku jest brana przez Google pod uwagę, zatem jesli wgrałeś plik zbyt rozbudowany, w błędnym formacie lub zawierający dobre, jakościowe linki – wgraj jak najszybciej nowy poprawiony plik.

13. Jeśli po zgłoszeniu pliku czekasz tygodniami, odpowiedzi brak i nic sie nie zmienia to pamiętaj ze problemem nie koniecznie muszą być linki – wróć ponownie do punktu drugiego tego zestawienia.

14. Dobrą praktyką jest pisane reconsideration request przez właściciela firmy/strony lub przez osobe na możliwie wysokim stanowisku, warto wówczas podpisać się pod wnioskiem z imienia i nazwiska oraz podając stanowisko. Dobrze jest opisac całą historie, co sie stało, dlaczego oraz jakie kroki zostaly podjęte aby sytuacja nie powtórzyła się w przyszłości np.: zmiana agencji, przejcie procesu przez dział wewnatrz firmy itd.

15. Zanim zaczniesz wykluczać jakiekolwiek linki dokładnie przeczytaj oficjalne pliki pomocy narzedzia Google Disavow

Jestem otwarty na sugestie kolejnych punktów pasujących do tego zestawienia, proszę śmiało pisać w komentarzach jakie jeszcze punkty powinny się znaleść w tym zestawieniu. Zachęcam zatem do komentowania oraz do klikania +1 :)

Żródło grafiki – Google Disavow Tool

Artykuł 15 faktów o Google Disavow Tool i usuwaniu flitra pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Google zbanował 235 000 domen Systemów Wymiany Linków!

To już koniec Systemów Wymiany Linków! Era SWLi ostatecznie, konsekwentnie i powoli ale jednak przechodzi do historii. Wskazują na to twarde dane o ilości zbanowanych domen – przez ostatni rok z polskich Systemów Wymiany Linków zniknęło 235 tys. domen!

Na ten sam fakt zwracał już w tym roku uwagę Piotr Cichosz oraz Michał SEO Hero. Okazuje się jednak że dopiero gdy zsumujemy straty wszystkich większych SWLi jesteśmy w stanie dostrzeć szerszy trend w jakim ten proces zmierza:

e-weblink.com

Lipiec 2011: 115 tys. domen
Aktualnie: 35 tys. domen
Spadek o: 80 tys. domen

spadajac ilosc domen w systemach wymiany linkow
Żródło: e-weblink (wybaczcie nofollow, domena była ostatnio zbanowana :/ )

 

 

 

 

 

 

 

 

gotlink

Listopad 2011: 180 tys domen
Aktualnie: 65 tys. domen
Spadek o: 115 tys. domen

spadająca ilosc domen w systemie gotlink w 2011 i 2012 roku
Zródło: Gotlink.pl

 

 

 

 

 

 

 

 

Inne SWLe:

  • SEOmatik spadek o około 40 tys. domen
  • LinkMe.pl spadek o około 10 tys. domen
  • Jeśli macie info o spadkach w innych systemach proszę o info w komentarzach, zaktualizuję wpis

W 13 miesięcy ubyło z SWLi conajmniej: 235 000 domen!

[edycja 31.10.2012]
W komentarzach wiele osób zwróciło mi uwagę że praktyce za spadek ilości domen obecnnych w SWLach odpowiada takżę kilka innych czynników o których warto pamiętać, takich jak:

  • Subdomeny – kilka systemów w „domeny” wlicza także subdomeny
  • Zmiana wymagań jakościowych przez SWLe
  • Bany
  • Część domen znajdowała się w więcej niz jednym systemie

Czy mamy kryzys w branży SEO? ;)

Jakiś czas temu Kaspar Szymański wyraźnie wymienił z nazwy dwa SWLe jako przyczyny filtrów dla wielu witryny, a co jak teraz widzimy było także przyczyną banów wielu stron, które w tych systemach brały udział:

…witryny uczestniczyły w systemach wymiany linków, które przekazują PageRank, takich jak e-weblink czy gotlink. Korzystanie z SWLi lub pozyskiwanie innych nieorganicznych linków może spowodować spadek pozycji witryny w naturalnych wynikach wyszukiwania i nie zalecamy takiej strategii.

Tak czy inaczej należy się uznanie dwóm największym SWLom za transparentność i pełny dostęp do jednak newralgicznych danych. Założyciel jednego z SWLi demonstrował już jednak kilka razy że potrafi być bardzo szczery i otwarty podając np. gotowe przepisy na depozycjonowanie stron konkurencji.

Przy okazji tego artykułu warto wspomnieć czy i ew. jak można zabezpieczyć swoją stronę przed linkowaniem z SWLi, co ciekawe niektóre systemy każą sobie za to płacić :) Warto też pamiętać o nowym narzedziu Google Disavow Links.

  • Jakich metod na Link Building Ty używasz?
  • Czy SWLe są już passe?
  • Czy branża dojrzała do ostatecznego zrezygnowania z systemów wymiany linków?

Ciekawy jestem waszych opinii w komentarzach. Przypominam też że już za niecały miesiąc na szkolenie SEO PRO: Link Buidling przyjedzie do Polski Martin MacDonald. Obecność potwierdził mi już dwukrotnie, bilet lotniczy kupiony, a termin zabookowany od Maja.

Artykuł Google zbanował 235 000 domen Systemów Wymiany Linków! pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Infografika: Czy polskie SEO to rynek kanciarzy?

Za kilka dni na łamach Sprawnego Marketingu ukaże się nowy Kodeks Etyczny SEO przygotowany IAB Polska. Nie zależnie od tego co przygotowuje w nowym dokumencie IAB już jakiś czas temu postanowiliśmy przygotować polskie tłumaczenie infografiki, która ukazała się w grudniu 2011 w serwisie SEOBook.com pod tytułem: SEO Lemons.

Naszym zdaniem Aaron Wall w bardzo ciekawy sposób opisał rynek pozycjonowania stron a infografika doskonale oddaje realia zarówno amerykańskiego jak i polskiego rynku usług SEO! Wbrew powszechnej opinii nasz kraj nie różni się od inncyh rynków tak bardzo jak dotychczas myśleliśmy, zapraszam do lektury…

Czy SEO to rynek kanciarzy?

czy-seo-to-rynek-kanciarzy

Różnica wiedzy

W 2001 roku George Akerlof dostał Nagrodę Nobla za swój artykuł “A Market for lemons”. W tym słynnym tekście Akerlof wyjaśnia, że gdziekolwiek istnieje duża różnica wiedzy między sprzedawcą a kupującym, sprzedawca zwykle wykorzystuje niewiedzę kupującego sprzedając mu towary lub usługi po nieuczciwej cenie.

“Sprzedawca zwykle wykorzystuje niewiedzę kupującego”

Nigdzie ta reguła nie jest widoczna tak mocno, jak w branży używanych samochodów. Bez pomocy niezależnego rzeczoznawcy, przeciętny kupujący jest w stanie ocenić najwyżej estetykę auta.

“Czy można lepiej podnieść wartość towaru, niż przez podniesienie jego ceny?”

W rezultacie, w autokomisach ludzie podejmują decyzje zakupowe na podstawie postrzeganej przez siebie wartości samochodu. A czy można skuteczniej podnieść tę wartość, niż przez podniesienie jego ceny?

Lepszym biznesem jest kupowanie po niskich cenach uszkodzonych aut i sprzedawanie ich po cenach sugerujących wyjątkowo dobry stan, niż kupowanie droższych, ale naprawdę sprawnych aut.
Przeciętny klient zamawiający usługi SEO ma nikłą wiedzę i nie potrafi odróżnić dobrego SEO od złego SEO. Korzystają z tego firmy SEO, sprzedające złe SEO w cenie dobrego, wypychając dobre SEO z rynku.

A co to ma wspólnego z kupowaniem usług SEO?

WSZYSTKO!

Prawdziwe koszty i korzyści z pierwszego miejsca

Inaczej niż w przypadku ruchu z Google AdWords, wielu ludzi uważa ruch SEO za “darmowy”. Tymczasem koszt efektywnej kampanii SEO istnieje i zależy od konkurencji z innymi witrynami. To nie “twoja firma przeciwko Google”. To “twoja firma przeciwko wynikom wyszukiwania znajdujących się powyżej twojego”.

“Wielu ludzi uważa ruch SEO za “darmowy”

W pozycjonowaniu obowiązuje zasada “zwycięzca bierze większość”. Według licznych badań, pierwsze 3 wyniki przyciągają przeszło 55% kliknięć, a pierwszy wynik dostaje 2 razy więcej kliknięć, niż drugi.

Reklamodawca doświadczający korzyści z zyskania wysokich pozycji, agresywnie inwestuje w SEO dla wytworzenia bariery konkurencyjnej, przeciwdziałającej przechwyceniu przez konkurencję korzystnych pozycji w wynikach wyszukiwania.

Ponadto, liderzy rynku z natury rzeczy mają dostęp do najlepszych danych rynkowych i badań, dzięki którym wiedzą, w co warto inwestować najmocniej.

Sprzedawcy uliczni

Od kiedy SEO stało się najgorętszym słowem w internetowym biznesie, wiele firm niemających doświadczenia i wiedzy potrzebnej do prowadzenia efektywnych kampanii w wyszukiwarkach podejmuje próby pozyskania udziałów w tym torcie… a czasem nawet zagarnięcia całego tortu.

Wiele firm projektujących witryny internetowe przeszło błyskawiczną “metamorfozę” w “ekspertów SEO”. Dla części z nich “działania SEO to optymalizacja kodu”, dla innych “SEO to relacje z klientami”. Większość nie potrafi podjąć skutecznych działań w najważniejszych obszarach, takich jak pozyskiwanie linków.

Wielu rejestratorów domen i wiele firm hostingowych podejmuje próby sprzedawania swoich usług w postaci “SEO za 100 zł miesięcznie”. Takie usługi prawie nigdy nie dają żadnych efektów w wynikach wyszukiwania, są po prostu wyłudzaniem nadwyrężąjącym zaufanie klienta. Ulubioną ofertą takich firm jest “zgłaszanie witryn do wyszukiwarek”.

Spamerzy, telemarketerzy, a nawet niektóre “agencje SEO” prowadzą agresywną sprzedaż “usług SEO” w nieprawdopodobnie niskich cenach

  • Wiele z takich firm wiąże klientów restrykcyjnymi, długoterminowymi umowami, których klient nie może wypowiedzieć, choćby agencja nie wywiązała się z żadnych zobowiązań.
  • Zdecydowana większość takich usług jest całkowicie nieskuteczna. Jeśli można dopatrzyć się jakichś efektów, zwykle mają one charakter krótkoterminowy, a uzyskiwane są metodami wysokiego ryzyka, które mogą skończyć się poważnymi karami.
  • Oszuści często proponują ofertę “pierwsza strona wyników gwarantowana w ciągu 30 dni”. Nie dodają jednak, że będzie to pierwsza strona wyników na zapytania, których nikt nie wpisuje. [red. Adkowy „wypas owiec w bieszczadach” ;)]

“Zdecydowana większość takich usług jest całkowicie nieskuteczna”

Nie ma bariery wejścia

Każdy, kto używa internetu chociaż pół roku i potrafi opanować kilka związanych z SEO pojęć, może ogłosić się “ekspertem pozycjonowania” i sprzedawać usługę pozycjonowania niczego niespodziewającym się klientom. Tacy pozycjonerzy prawie nigdy nie mogą pochwalić się żadnymi wystawionymi przez stronę trzecią dowodami swoich kwalifikacji.

“Jestem pozycjonerem.
Kto tak mówi?
Ja tak mówię!”

 

  • Istnieje trochę branżowych witryn tworzących “niezależne” rankingi “najlepszych” firm SEO. W rzeczywistości takie witryny zapełniają najgorsi gracze na rynku, obecni tam dzięki słonym opłatom za miejsce w rankingu.
  • Kiedy oszuści zauważają skuteczność tej techniki, inwestują zyski w członkostwa w branżowych organizacjach. Witryny najbezczelniejszych są wprost obwieszone odznakami z rzekomo wiarygodnych źródeł.
  • Wiele agencji marketingu internetowego publikuje na swoich witrynach certyfikat Google AdWords. Wielu klientów traktuje te certyfikaty jako dowodzące kwalifikacji agencji w obszarze SEO. W rzeczywistości certyfikat ten nijak nie odnosi się do pozycjonowania, wytwarza jedynie u klientów złudne poczucie bezpieczeństwa.
  • Oficjalne Wskazówki Google AdWords mówią m.in., że “niedozwolone są reklamy zawierające nieuzasadnione stwierdzenia, superlatywy i niezweryfikowane korzyści”. O ile zasady te obowiązują w wielu branżach, z pewnością nie przestrzega się ich na rynku SEO. Reklamy AdWords wypełnione są deklaracjami typu “gwarancja pierwszego miejsca” i innymi uproszczeniami obliczonymi na zmylenie nieświadomego klienta.


Jak zarabia utalentowany pozycjoner?

Przed dobrym pozycjonerem stoi wiele intratnych możliwości zarabiania:

Sprzedaż wiedzy SEO (np. usługi szkoleniowe)

Prowizja za podnoszenie zyskowności witryn

Reklamy kontekstowe

Wysokopłatny etat w korporacji

Stworzenie własnego sklepu internetowego

Kupowanie i sprzedawanie domen i witryn internetowych

Sprzedaż ruchu

Programy partnerskie

Sprzedawca kontra ekspert

Niektórzy pozycjonerzy skoncentrowani są na sprzedaży. Każdemu klientowi mówią: “da się zrobić”, niezależnie od sytuacji.
Pozycjonerzy z dużą wiedzą, dbający o jakość usług często wtrącają słowa takie jak “prawdopodobnie”, “może”. Wiedzą bowiem, że wyszukiwarki to dziedzina jednocześnie złożona i podlegająca ciągłym zmianom.
Paradoksalnie, najczęściej im lepiej pozycjoner sprzedaje, tym gorszym jest pozycjonerem.

Nie ma zachęt do chwalenia się sukcesami

Kiedy pozycjoner odniesie sukces, nie chwali się. Chwalenie się sprowadziłoby na niego szereg niebezpieczeństw, w tym konkurencję prześwietlającą źródła jego sukcesu i kontrolę ze strony inżynierów wyszukiwarek.

Doświadczony pozycjoner widząc udaną kampanię SEO jest w stanie przeprowadzić jej “inżynierię wsteczną”, użyć we własnych kampaniach, obniżając tym samym jej skuteczność dla autora.
Tymczasem inni pozycjonerzy uwielbiają przechwałki. Niektórzy z nich robią to “dla lansu”, kolejni chcą sprowokować innych pozycjonerów do stosowania szkodliwych metod.

Kim bywa ekspert SEO?

Większość pozycjonerów zdaje sobie sprawę, że promować należy nie tylko klientów, ale także siebie samych. Problem polega na tym, że niemal każdy pozycjoner chce zyskać miano merytorycznego lidera branży. Jest to bardzo czasochłonne, a jednocześnie wytwarza zgiełk komunikacyjny, spośród którego trudno się przebić.
Niewielu ma czas na czytanie, testy, promowanie samych siebie, branżowe konferencje i jednocześnie pracę nad projektami klientów.
W rezultacie wielu samozwańczych ekspertów SEO pozyskuje klientów dzięki swojej marce, a następnie zleca działania operacyjne stażystom.

“Wielu samozwańczych ekspertów SEO pozyskuje klientów dzięki swojej marce, a następnie zleca działania operacyjne stażystom”

Agencje SEO to biznes słabo skalowalny

Marketing w wyszukiwarkach to gra o sumie zerowej. Żeby ktoś mógł zyskać, ktoś musi stracić.
Ilekroć następuje zmiana algorytmu wyszukiwarki, ktoś wygrywa, a ktoś przegrywa.

Każdy kto pozycjonuje na dużą skalę, jest najczęściej narażony na te same niebezpieczeństwa w pracy dla kolejnych klientów. Liczebność klientów skłania do kopiowania tych samych strategii i technik w poszczególnych projektach.

“Marketing w wyszukiwarkach to gra o sumie zerowej. Żeby ktoś mógł zyskać, ktoś musi stracić.”

Trudno dobrze dobrać wielkość firmy pozycjonującej. Z uwagi na ciągłe zmiany w algorytmie potrzeba wielu pracowników do przeprowadzania badań, testów i wdrażaniu ich wyników w praktyce. Biznesy funkcjonujące w statycznym otoczeniu mają znacznie mniejsze zapotrzebowanie na pracowników.
Kiedy zmiany w algorytmie tworzą nowe szanse, agencjom może brakować mocy przerobowych, by je wykorzystywać ze względu na zbyt dużą liczbę klientów (patrz Panda Update).

JAKIE JEST ROZWIĄZANIE?

Wiedza + Cierpliwość + Inwestowanie + Testy +

Zatrudnienie pozycjonera + Ciągłe Szkolenia

 

Infografika w wersji pdf:
http://sprawnymarketing.pl/wp-content/uploads/2012/07/seo-rynek-kanciarzy.pdf

Artykuł Infografika: Czy polskie SEO to rynek kanciarzy? pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Po filtrze dla porównywarek: 8 ważnych czynników decydujących o mocy linków!

W ostatnich tygodniach miało miejsce głośne usunięcie z wyników wyszukiwań wielu polskich sklepów i porównywarek cen. Głównym czynnikiem wskazywanym zarówno przez Kaspara Szymanskiego z Google Search Quality Team (Kaspar będzie w Polsce na majowej konferencji SEO Search Marketing Day 2012) jak i same porównywarki w oficjalnych wypowiedziach był tzw. nienaturalny backlink profile tych witryn. Czyli mocne naruszenia wytycznych w zakresie metod zdobywania linków prowadzących do witryny, takich jak korzystanie z automatycznych systemów wymiany linków oraz innych SPAMerskich i łatwo skalowalnych metod pozyskiwania odnośników.


W dzisiejszym artykule wskażemy na jakie elementy w procesie link building należy zwracać szczególną uwagę oraz jak zdobywać poprawne wysoko jakościowe i wiarygodne dla Google odnośniki do naszych stron.

W dużym skrócie tak można podsumować całe zamieszanie: „Linki prowadzące do Twojej witryny świadczą o Tobie i mogą być przyczyną filtra a nawet bana w wyszukiwarce Google”.

Jeśli tak, to czy nie jest to najłatwiejszy sposób na wyeliminowanie konkurencji?

Wraz z karami nałożonymi na polskie porównywarki i sklepy, SEO w Polsce ale także na świecie (kilka miesięcy temu za te same wykroczenia z wyników wyszukiwań został usunięty duży amerykański sklep J.C. Penny) wkroczyło w nowy etap. Od teraz do nowych obowiązków działów marketingu/SEM/SEO należy monitorowanie nowo powstających odnośników do witryny.

Rozpoczynjąc dyskusję nt. linków prowadzących do naszych stron należy sobie zadać pytanie jak możemy sprawdzić, które strony do nas linkują i w jakis sposób? W tym celu działa na rynku kilka narzędzi stworzonych zarówno przez Google jak i zewnętrzne firmy.

Należy pamiętać że komenda link:twojadomena.pl wpisana do Google wskaże nam zaledwie kilka, kilkadziesiąt odnośników i w żadnym stopniu nie jest to miarodajna wartość. Aby dowiedzieć się więcej musimy dodać naszą stronę do Google Webmaster Tools (www.google.pl/webmasters/tools), które jest absolutnie koniecznym i obowiązkowym narzędziem analitycznym SEO dla każdego właściciela strony internetowej, któremu zależy na pozycjach w Google.

W Google Webmaster Tools dostępna jest zakładka:

1 linki do twojej witryny

Po kliknięciu naszym oczom ukaże się rozległa i całkiem precyzyjna lista stron które linkują do naszej witryny:
2 wszystkie domeny
Screen z narzędzia Google Webmaster Tools pokazujący ilość i źródła odnośników prowadzących do domeny SprawnyMarketing.pl

Google Webmaster Tools to także narzędzie w którym przyjdzie nam zgłaszać ewentualne nienaturalne przyrosty linków, które uda nam się zauważyć dzięki narzędziom wymienionym w dalszej kolejności. Pod adresem: https://www.google.com/webmasters/tools/reconsideration?hl=pl możemy także prosić Google o przywrócenie naszej witryny do wyników wyszukiwania. Z tego samego formularza zmuszone były skorzystać na przełomie stycznia i lutego największe polskie porównywarki cen i kilka sklepów. Formularz można wypełniać po polsku, szczerze opisując sytuację i odpowiadając na pytania zawarte w formularzu.

Inne narzędzia do analizy linków prowadzących do witryny

Majestic SEO

Narzędzie dostępne pod adresem http://majesticSEO.com narzędzie brytyjskiego specjalisty Dixona Jones (też będzie w tym roku na Search Marketing Day 2012) posiadające własne roboty indeksujące linki znajdujące się w internecie od ponad 8 lat. W tej chwili jest to największa dostępna baza odnośników, co ciekawe narzędzie pokazuje także historyczne dane o ilości i rodzajach backlinków…

3 majestic seo
Wykres pokazujący ilośc linków prowadzących do trzech zbanowanych ostatnio przez Google porównywarek cen. Dane za okres 5 lat

Open Site Explorer

Kolejne narzędzie znanej amerykańskiej firmy SEOmoz.org dostępne pod adresem www.OpenSiteExplorer.com. Nieco uboższa baza odnośników jest skutecznie rekompensowana przez bardziej rozbudowany element społecznościowy. Ciekawa jest także koncepcja czynników Domain Authority, mozRank, mozTrust – będących odpowiednikami Google’owego wskaźnika Page Rank i pochodnych.
4 seomoz porownywarki
Screen z narzędzia porównujący trzy domeny pod względem parametrów SEO

Cognitive SEO

CognitiveSEO integracja z innymi narzędziami
Cognitive SEO zasysa po API dane z obu wyżej wymienionych narzędzi a także z ahrefs, niemieckiego SEOkicks oraz pobiera linki z wyszukiwarki blekko. Następnie dokonuje bardzo szczegółowej analizy znalezionych linków prowadzących do naszych stron prezentując nam na przejżystych wykresach statystyki:

  • monitoruje jaki % linków znika
  • w jakim miejscu znajdują się linki (położenie na stronie: stopka, site bar, top)
  • z jakich stron linki pochodzą,
  • czy są to linki graficzne (jaki mają tekst alternatywny)
  • jakie mają teksty zaktwiczenia (anchor text)
  • jaki maja PR domeny główne
  • .itp.

Podstawowa wersja narzędzia kosztuje 19$ miesięcznie, zobacz szczegółowy rozpis funkcjonalności.

Nowe czynniki decydujące o mocy linków SEO

Gdy wiemy już jak monitorować i sprawdzać linki prowadzące do witryny czas pomyśleć nad formami i metodami pozyskiwania nowych odnośników. Zanim jednak odpowiemy sobie na pytanie skąd i jak pozyskiwać linki musimy zwrócić jeszcze uwagę na parametry powodujące że pozyskane linki będa miały swoją moc w oczach Google.

  1. Autorytet domeny linkującej

    Pozyskuj linki z dużych wiarygodnych witryn, portali, stron uczelnianych, rządowych i innych stron powszechnie rozpoznawalnych. Domain Authority czyli autorytet witryny można łatwo sprawdzić m.in. we wcześniej wymienionym narzędziu Open Site Explorer, wyrażony jest w zakresie od 0 do 100.

  2. Zdobywaj linki z nowych stron i domen

    Link z zupełnie nowej domeny z której dotychczas nie miałeś odnośnika jest znacznie więcej warty niż kolejny link z domeny na której masz już swoje linki.

  3. Pamiętaj o zasadzie First Link Count

    Jeśli linkujesz do adresu www.strona.pl to pierwszy linki z góry znajdujący się w kodzie strony będzie uwzględniony i policzony przez algorytm. Kolejne linki w tym samym dokumencie/podstronie linkujące do adresu www.strona.pl nie bedą już zliczane przez Google Bota.

  4. Położenia linka w kodzie strony

    Linki położone wyżej w kodzie HTML mają większy wpływ na pozycje strony. Jest związane prawdopodobieństwem że dany link zostanie kliknięty przez użytkownika.

  5. SEO PR

    Prowadząc działania Public Relations zwracaj uwagę na umieszczanie linków w notkach prasowych pamiętając o zasadzie First Link Count czyli z jednej notki prasowej jeden link do danej podstrony. Pozostałe miejsce na linki wykorzstaj do podlinkowania innych podstron lub domen.

  6. Social Media

    Bądź aktywny w social mediach: Google+, Facebook.com, Twitter.com itp. to tzw. czynnik społecznościowy, który ma coraz większy wpływ na wyniki wyszukiwań. Wskazane jest umieszczenie na swoich stronach przycisku +1 (http://www.google.com/intl/pl/+1/button/) oraz założenia konta firmowego w serwisie Google+ (https://plus.google.com/pages/create)

  7. Różnicowanie Anchor Text

    Długość linków i różnicowanie tekstu zakotwiczenia czyli tekst będący klikalną częścią linka np.: „kliknij tutaj” jest tekstem zakotwiczenia (Anchor Text). Jeśli chcesz być wysoko w Google na frazę: “Wczasy egipt” linkuj do swojej strony właśnie tym słowem kluczowym.

    Pamiętaj jednak o różnicowaniu tekstu zakotwiczenia. Szczególnie w ostatnich tygodniach jest to coraz ważniejsze, nadużywanie tego czynnika rankingowego może się skończyć filtrem na domenie. Poniżej przykładowy poprawny i naturalny rozkład tekstów zakotwiczenia:

    5 tabelka zawartosc anchor tekstu

  8. Linki nofollow też pozytywnie wpływają na pozycje strony

    Mimo ze linki nofollow nie przenoszą Page Rank to cały czas przekazują stronie linkowanej tzw. TrustRank i wcześniej wymieniane Domain Authority. Komentarze np. na blogach są zatem cały czas wartościowym źródłem linków.

Powyższe wskazówki są na tyle uniwersalne że śmiało mogą być stosowane przez każdą stronę, której zależy na wysokich pozycjach w
Google. Na koniec warto dodać że wspominane w artykule porównywarki cen wróciły już do wyników wyszukiwań! O małą analizę postarał się ostatnio Cezary Glijer oraz Lexy w artykule: Linki przychodzące szkodzą.

Powyższy artykuł pierwtonie został opublikowany na łamach marcowego wydania gazety Marketing w Praktyce.
Grafika z nagłówka pochodzi z witryny eKomandosi.pl.

Artykuł Po filtrze dla porównywarek: 8 ważnych czynników decydujących o mocy linków! pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Jak zdobyć link ze strony rządowej gov.pl?!

SEO Pro: Link Building zbliża sie wielkimi krokrami, zainteresowanie tym szkoleniem trochę nas zaskoczyło i w tym tygodniu pewnie zamkniemy rejestrację. Nadszedł jednak czas aby powiedzieć nieco więcej o formie w jakiej będzie się to szkolenie odbywało oraz pokazać próbkę zawartości merytorycznej tego szkolenia. W opisie i na bannerach podajemy informacje iż łącznie przekażemy 7896 miejsc na nowe linki. W praktyce konkretnych adresów URL będzie znacznie więcej, na szkoleniu robimy także gruntowaną analizę kilkunastu tysięcu katalogów stron (także zagraniczncych), których nie wliczamy we wspomniane podsumowania statystyczne.

W dzisiejszym wpisie chciałem wam pokazać link jaki udało się nam zdobyć z serwisu rządowego pod adresem .

Parametry domeny:

  • Page Authority (PA) 68
  • mozRank (mR) 5.72
  • mozTrust (mT) 6.16
  • ACRank: 8
  • Linki OSE: 52,501
  • Linki Majestic: 258,130 linków z 789 domen

Co ciekawe nawet komenda link: w Google zwraca 197 linków! W tym sporo linków z zagranicznych domen. Musicie zatem przyznać że domena prezentuje się całkiem solidnie, do tego URL gov.pl, jakże rzadki w backlink profile naszych witryn.

Do momentu publikacji tego artykułu poniższa podstrona nie była zaindeksowana:
Robimy zatem mały test indeksacji, zobaczymy ile czasu zabierze Google zaindeksowanie podstrony i przy okazji sprawdzimy siłe i TrustRank Sprawnego Marketingu :)

Jak zdobyć link dofollow ze strony rządowej gov.pl?

    1. Pierwszy krok to rejstracja konta pod adresem:

Wypełniamy formularz:
rejestracja konta eksporter gov pl

    1. Po kilku dniach dostajemy większy dokument, ktory należy wypełnić, dodać adres strony (w tym przypadku http://kabinysanitarne.pl) podpisać i odesłać:

dokument zgloszenia do eksporter gov

    1. Czekamy na sprawdzenie zgłoszenia i aktywację profilu
    1. Po około 2-3 tygodniach naszym oczom ukazuje się piękny link, bez anchora co moim zdaniem wygląda naturalniej i poprawia TR linkowanej domeny

link-ze-strony-rzadowej-gov-pl

Ostatnie zadanie, które stoi przed nami to zaindeksowanie linka, czyli podsunięcie go Google pod nos… Jak pokazuje nasz wcześniejszy przyklad nie jest to takie łatwie. Oferty poszczególnych firm nie są w żaden sposób linkowane wewnętrznie zatem musimy ten link zaindeksować linkując do podstrony oferty z zewnątrz.

Więcej tego typu przykładów przedstawimy na szkoleniu SEO Pro, podobnych case’ów jest około 100 i to głównie z polskich domen!

P.S. Jeśli ktoś z was obawia sie ze teraz strona eksporter.gov.pl zostanie zasypana spamem to warto pamietać że wszystkie dane są ręcznie moderowane przez pracowników ministerstwa i generalnie nie ma większych obaw że przejdą mało wartościowe strony.

P.S.S. Jak to powiedział kiedyś Bartek Damek nt. linków TR ze stron .pl:

„I o takie linki właśnie nam chodzi. Jeden taki link jest wart 100 marnej jakości.”

Atakowanie stron internetowych w celach SEO?!

Na koniec chciałem zwrócić waszą uwagę na jeszcze jedno szkolenie, które wydaje się że przeszło zupełnie bez echa. Szkolenie jest tylko dla 10 osób, prowadzi je Piotrek Konieczny z dobrze znanego Niebezpiecznik.pl a w trakcie szkolenia przedstawione zostaną m.in. hardcorowe metody pozyskiwania linków! Jeśli myslisz ze stosując xRumera kwalifikujesz się do grona Black Hat SEO to na tym szkoleniu dowiesz się że jesteś małym pikuśem.

Jest to jedyne na polskim rynku szkolenie SEO przygotowane z myślą o zaawansowanych technicznie pozycjonerach! Zapoznaj się z programem.

Artykuł Jak zdobyć link ze strony rządowej gov.pl?! pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Historia polskiej branży SEO! :D

W ostatnim artykule napisałem: „Czas leci do przodu, zmienia się Google, zmienia się SEO”, jedno jednak się nie zmienia… polska branża SEO skupiona wokół forum PiO! W dzisiejszym artykule przypomnimy szerszemu gronu czytelników kilka istotnych osób, które kiedyś brylowały w dyskusjach „Pozycjonowanie i Optymalizacja”, pokażemy także kilka zapomnianych i już nie istniejących blogów a także z rozżewnieniem powspominamy pierwsze spotkania SEO… zapraszam do wnikliwej lektury historii polskiej branży SEO! :D

Podczas ostatniego zamieszania na Forum PiO uświadomiłem sobie jak długo siedze juz w tej branży oraz jak wielu nowych uczestników rynku SEO nie ma pojęcia kim był Szook lub Paweł Kobis. Zrozumiałem także ile osób, które kiedyś były kimś teraz są anonimowe… sprzedają lody lub siedzą w więzieniu. Czas wszystko weryfikuje… odsiewa pieniaczy a nieokrzesane pokemnony dojrzewając przepoczwarzają się w poczytynych ekspertów i moderatorów dyskusji. Czasami warto sięgnąc pamięcią wstecz, tak dla samego siebie, żeby nie zapomnieć… :)

Spotkania SEO

Menel Party - seo party 2007 Odkąd pamiętam jednymi z bardziej emocjonujących momentów na forum były spotkania SEO. Najczęściej spotkania sprowadzały się do picia piwa i siedzenia w knajpie. Sporadycznie zdarzało się nam pograć w piłkę (piłkę z podpisami śmietanki ze spotkania 2k7 wylicytował Bartek Berliśnki i do dzisiaj wala się po biurze ;) ) co momentalnie pokazywało jak dużo czasu większa część społeczności spędza tylko przed monitorem :).
Co by jednak nie mówić o spotkaniach SEO to miały one swoją wartość, (wbrew temu co sądził wujek wnyk (SEO zlot) i zly sir nimek (Spotkanie w Warszawie), którego nigdy nie chcieli wpuścic ;)) ja w ten sposób poznałem m.in. swoich wspólników a proces ten opisałem już nieco dokładniej na swojej stronie.

W 2007 roku odbyło się pierwsze większe spotkanie w Dzierżąznej pod Łodzią organizowanie przez Szook’a, Xann’a i braci Makaruków spotkanie SEO 2k7 (strona spotkania) lub jak kto woli Menel Party 3k2 LOL! ;D. Do Dzierżaznej zjechało sie dwadzieścia kilka osób, w większości dobrze znanych z forum, a pozostałością po tym evencie jest film ze spotkania SEO Party 2k7 z kilkoma pytaniami do takich SEO jak: Jeż, Adek, mKane, Jimmi, Sobiesiu, Michał Makaruk, Bartek Danowski, AQQry. Tomek Frontczak w roli przepytującego a ja w roli operatora kamery. Zachęcam do oglądnięcia, Tomek prosił żeby wogóle o tym nie przypominać, generalnie chłopaki wyglądają młodo ;).

Blogi z kategori SEO Humor :)

seo pokemony by google W poprzednim akapicie podlinkowałem już dwa „ciekawe blogi SEO” czas zatem przypomnieć sobie twórczość pozostałych: troli, nimków, pokemonów, wujków, kebabów itp. samozwańczych SEO poetów:

Jeśli ktoś nie rozumie aktualnych dyskusji na PiO to zapewniam że dogłębna lektura powyższych blogów pozowli mu skojarzyć sporo faktów. W tych blogach wiele informacji jest przekazanych między wierszami, jeśli jednak przestawimy sie na abstrakcyjne myślenie autorów to zapewniam że pozytywny uśmiech wkrótce zagości na Twojej twarzy :).

Ludzie polskiej branży SEO

Michał Makaruk – Założyciel Forum PiO, zna wszystkich istotnych w branży, można powiedzieć że od początku w polskim SEO, prowadzi często aktualizowanego bloga o seo… ;)

Kuba Makaruk – Brat Michała, którego chyba zawsze bardziej fascynowała ta ciemna strona mocy :)

Bartek Kordynski – Założył jedne z pierwszych systemów wymiany linków – linkuj.pl oraz linkujpro.pl, które swego czasu były znaczącymi graczami na rynku swli.

Piotr Połomski „Piotrek” – Założyciel Otwartego Katalogu Internetowego webwweb.pl

Kill Bill – Znany i lubiany aktualnie działa w branży porno, kiedyś prowadził prześmiewczego bloga o branży SEO, teraz mozemy się tylko zastanawiać gdzie jest Kill Bill… warto też rzucić okiem na wywiad z kill billem :D

Erbit – Swego czasu bardzo aktywny na PiO, następnie zupełnie się wycofał by teraz powrócić i przypomnieć się młodzieży.

Beerbant – Krzysztof Ziókowski – bardzo często głos rozsądku zarówno na PiO jak i w dyskusjach na GoldenLine.

Xann – Tomasz Wieliczko – Właściciel e-weblinka, od wielu lat nieustannie bardzo aktywny, [edycja]

Jeż – Swego czasu uruchomił seodopalacz.pl, ostatnio z pasją rozwija i promuje faceplus.pl, prowadził także blog.jeza.pl, mocny w branży Zdrowie, Uroda.

nrm – Mirosław Okoński – Organizator Spodek 2.0 oraz autor bloga http://normanos.com/, ten wycelowany pistolet zawsze mnie troche przerażał… ;)

Adek – Adrian Kłos – założył system statlink.pl, pierwszy system linków statycznych z mocną moderacją.

SirNimekTego bloga nie prowadził Sir Nimek ale powstał on w konsekwencji zachowania Sir Nimka na PiO, który udzielał się w praktycznie każdym wątku, czasami w najgłupszych tematach byle tylko nabijać sobie licznik postów ;). Bloga uważam z jednego z najlepszych w kategorii „SEO humor” :D

Szook – organizator SEO party 2k7, znany głównie z akcji donoszenia i wysyłania spam raportów do Google i Onet, ostatnio sprzedawał domene szook.pl zatem najpradopodobniej już na SEO emeryturze.

Paweł Kobis, Anioł – założyciel systemu linkorn.pl, firmy AtiBit i Work Elite. Swego czasu prowadził bloga topseo.pl. Niektórzy uważaja że jest to aktualny Piotr Kiper :)

Piotr Kiper – Koyotek_OX – Twórca dodawarki do katalogów OmniiAdd, założyciel HackSEO.pl a ostatnio prowadzi także bloga, który podobno jest przyczyną ostatnich nieszczęść ;). Ostatnia afera została już streszczona a tutaj wydaje się że została umieszczona odpowiedź Piotra.

Inne ważne osoby z branży…

Intruder 2600, szy, MMP, vel, Kava, mKane, Lexy, Noone, zero3, Yeden, zerocool, pneuma, Kaspar Szymanski, it_management, shpyo, zgred, itd.

Wybaczcie że o niektórych nawet nie wspomniałem… o części userów PiO ciężko mi było cokolwiek napisać bo zwyczjanie nie znam ich osobiście lub nie znam ich dokonań. Poza tym myślę że jest w polskiej branży wielu SEO wymiataczy, którzy nigdy się nie ujawnili publicznie. Mam też wrażenie że pominąłem kilka blogów z kategorii „SEO humor” przpomnijcie mi proszę w komentarzach :)
Na koniec polecam także SEO komiks w wykonaniu starej gwardi.

Kto jest kim…?
Myślę że każde kłamstwo ma krótkie nogi a cała prawda prędzej czy później wyjdzie na jaw!

Artykuł Historia polskiej branży SEO! :D pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Link Bulding – różnicowanie parametrów linków

W ostatnim artykule na Sprawny Marketing pt. „Linki do naszej strony – czy nofollow jest coś warte?” Piotr Kiper zwrócił uwagę „że posiadanie 100% linków dofollow do strony może zostać odebrane przez algorytm Google jako próba manipulacji wynikami i tym samym doprowadzić do obniżenia strony w rankingu” w dzisiejszym artykule, odniosę się (po długiej przerwie) do kwestii naturalności linków (backlink profile) prowadzących do naszej strony.

Podczas czerwcowego Search Marketing Day, Ravzan Gavrilas zaprezentował narzędzie Cognitive SEO, którego wszystkie funkcjonalności sprowadzają się do analizy dziesiątek parametrów dotyczących tylko i wyłącznie linków prowadzących do witryny! To narzędzie pozwala nam bardzo z bardzo dużym prawdopodobienstwem określić czy nasz backlink profile wygląda naturalnie czy nie, zachęcam do testowania… wkrótce możecie liczyć na szerszy opis tego narzędzia na Sprawnym.

Większość branży SEO zapewne pamięta powtarzane jak mantra: Różnicuj anchor text!
Czas leci do przodu, zmienia się Google, zmienia się SEO.
Jednak najważniejsza zasada Link Buidlingu: Różnorodność! Pozostaje niezmienna…

Na co zwracać uwagę pozyskując linki?

  • IP
  • DNS
  • Whois
  • Rejestrant
  • Skrypt zaplecza

…to kilka pierwszych i podstawowych elementów o których większość twórców prywatnych sieci blogów, precli lub sieci katalogów zdaje się zapomniała! Robiłem ostatnio większy przegląd rynku i niestety sytuacje podsumować można krótko: tworzone sieci są słabe, skupiają się na ilości domen, prędzej czy później każdy właściciel ulega i zaczyna dodawać co popadnie na niskiej jakości tekstach. Nie wspominając o wątku TR linków z tych stron. Zachęcam do sprawdzenia ogólno dostępnych sieci pod kątem pięciu powyższych czynników i przy okazji lekturę artykułu: Detecting undetectble link networks.

Link Building = Różnorodność

Podobnie mało naturalnie wygląda sytuacja kiedy za bardzo skupiamy się na jednym skalowalnym i łatwym źródle linków… jak np. katalogi, precle, profile z for lub linki z SWLa i gdy ilość linków z jednego źródła wyraźnie dominuje w baclink profile strony! Zastanówcie się ile z pozycjonowanych przez was stron ma obiektywnie ponad 50% linków z katalogów? Narzędzia takie jak omniiAdd, Adder czy SWLe znacząco ułatwiają budowanie linków i to jest jedna z przyczyn dla których na forach pojawiają się wątki w stylu „dodałem kilkasetlinków a strona ani drgnęła” czasami mamy do czynienia ze skrajnymi sytuacjami kiedy usunięcie znacznej części linków (np. z SWLa) powoduje wzrost pozycji strony!

Budując dobry, naturalny backlink profile witryny zdobywaj także takie linki jak:

  • linki site wide oraz pojedyńcze linki z domeny
  • linki ze strony głównej oraz z głębokich podstron
  • link z grafiki oraz link z dokładnym anchor tekstem
  • linki z dłuższym wielowyrazowym anchor tekstem – Long Anchor Text Link Building
  • linki z plików .pdf, .doc, .csv itp.
  • link z podstrony do podstrony
  • link ze stron o wysokim oraz bardzo niskim PageRank
  • linki z blogów, katalogów, z profili, precli, z notek Public Relations
  • linki ze stron polskich oraz zagranicznych
  • linki ze stron o wysokim oraz niskim Trust Rank
  • linki ze stopki, z tresci artykułu, z sidebaru, z menu/topu strony
  • linki z różnego rodzaju skryptów, (WordPress, Drupal, Joomla, itp. mniejsze CMSy i autorskie skrypty)
  • linki dofollow oraz… także linki nofollow!

Polecam także lekturę artykułu: Jak google rozpoznaje spamerskie linki…

Artykuł Link Bulding – różnicowanie parametrów linków pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Ban za Keyword Stuffing – Upychanie słów kluczowych

Wczoraj kilka godzin po publikacji artykułu o SEO Copywritingu dotarła do nas wiadomość że zaprzyjaźniona strona została zbanowana. Okazuje się że jest możliwy ban za upychanie słów kluczowych! czyli Keyword Stuffing. Czytając wytyczne Google dla webmasterów chyba tylko poniższy zapis można podciągnąć pod przyczynę bana:

Unikaj sztuczek mających na celu poprawienie rankingu w wyszukiwarkach. Zastosuj praktyczną zasadę: zastanów się, czy możesz bez oporów opisać swoje działania wydawcom konkurencyjnej witryny. Inny przydatny test to zadanie sobie pytania:
,,Czy to przynosi korzyść moim użytkownikom? Czy warto byłoby to robić, gdyby nie istniały wyszukiwarki?”

Na poniższej stronie istniał duży boks tekstu, wykorzystujący sporo pogrubień i powtórzeń tych samych słów kluczowych w różnych odmianach. Cały boks tekstu został zacytowany przez członka Google Search Quality Team i przesłany na w Centrum Wiadomości w Google Webmaster Tools:

Ban Usunięcie witryny z indeksu Google

Mówiąc zupełnie szczerze pierwszy raz spotkałem się z tego typu przypadkiem, pilnie przejrzyjcie swoje strony pod tym kątem. Zacytowany teksty był naprawdę stosunkowo niewinny w porównaniu do niektórych „SEO copywriterskich arcydzieł sztuki”.

————————-
Grafika w nagłówku autorstwa użytkownika David Castillo Dominici z freedigitalphotos.net

Artykuł Ban za Keyword Stuffing – Upychanie słów kluczowych pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Linkowanie wewnętrzne, indeksowanie i przyjazna SEO paginacja

Kilka dni temu Maciek Gałecki z Bluerank opublikował w serwisie SEOmoz.org artykuł poruszający problem paginacji (artykuł dostępny także w wersji polskiej), gratulacje! Z artykułem zapoznałem się już jakiś czas temu, jednak dopiero publikacja na SEOmoz.org wywołała wymianę zdań w naszej firmie i zmotywowała mnie do dłuższej wypowiedzi na ten temat. W artykule odnoszę się bezpośrednio do audytowanej strony pokazując i opisując kroki polepszające indeksację witryny oraz rozwiązujące problem paginacji na znacznie wcześniejszym etapie.

Moim zdaniem artykuł podchodzi do problemu od nieco złej strony, analizuje bowiem dopiero finalny/krytyczny/ostateczny etap optymalizacji strony internetowej. Jednocześnie w mojej opinii przedstawione rozwiązanie ma zastosowanie w bardzo ograniczonej liczbie serwisów. Poniżej przedstawiam cztery kroki jakie powinniśmy podjąć przed zastosowaniem specyficznej paginacji opisanej we wspomnianym artykule.

Cztery kroki SEO poprawiające indeksację witryny:

1. Lepsza segregacja treści – rozbudowa struktury kategorii

Najprawdopodobniej twórca strony słabo przemyślał strukturę informacji witryny, czyli kategorie. W przypadku wspomnianej w artykule strony www.morusek.pl, największą kategorię koty (3600 ogłoszeń) można znacznie lepiej posegregować tematycznie, czyli utworzyć podkategorie takie jak np. rasy kotów, kolor sierści, miasta itp.
Wydłuża to długi ogon zapytań i co najważniejsze znacznie zmniejsza ilość ogłoszeń w jednej kategorii.

W tym przypadku dodanie 15 podkategorii w dziale koty spowoduje spadek średniej ilości ogłoszeń w kategorie do 240 .

2. Większy listing ofert – np. po 50 ofert na stronę

Z tego co widzę większość listingów na stronie morusek.pl ogranicza się do dziesięciu „ofert”. Wiemy wszyscy o teoretycznym limicie 100 linków na stronę, (w praktyce limit jest płynny np. dla mocnych stron jak strona główna). Na przeciętnej stronie tego serwisu znajduje się około 60-70 linków. Część z nich można śmiało ukryć przed oczyma Google np. przy pomocy tagu area, zostanie nam zatem liczba około 50-60 linków na stronę. Możemy zatem śmiało rozszerzyć listing/ilość ofert na stronie paginacji do 50 ofert.

Zatem, 240 / 50 =5 podstron paginacji na kategorię!.
W drugim kroku optymalizacji praktycznie rozwiązujemy problem!

3. Linkowanie do ofert i kategorii z tzw. mocnych punktów.

W trzecim kroku warto zadbać o linkowanie stron ofert i kategorii np. ze strony głównej. Istotą problemu indeksacji wszystkich podstron jest poprawne linkowanie wewnętrzne i zarządzanie przepływem Page Rank w obrębie witryny. W tym konkretnym przypadku kolejnym krokiem jest wspieranie (linkowanie) stron konkretnych ogłoszeń i podkategorii z mocnych punktów witryny czyli stron linkowanych np. site-wide lub mocno podlinkowanych przez strony zewnętrzne.

Na stronie „oferty” listę „podobnych ogłoszeń” można śmiało rozszerzyć do np. 5 podobnych ofert – doskonale polepsza tematyczność ogłoszenia – dodaje treść i tematyczne linki, dobre dla użytkowników, a także polepsza indeksację ogłoszeń na czym nam finalnie zależy.

4. Paginacja

Rozwiązanie przedstawione przez Maćka jest ciekawe ale dosyć zaawansowane i chyba mocno abstrakcyjne dla większości webmasterów, a co najważniejsze wydaje mi się że w tym konkretnym przypadku zbędne. Jeśli jednak powyższe trzy kroki nie przyniosą pożądanego rezultatu, wówczas odsyłam was jeszcze raz do posta na blogu Bluerank.

Jak stworzyć idealnie zaindeksowaną stronę?

forum maxroy com screen Na Forum.MaxROY.com przedstawiłem ciekawe Case Study poprawnie skonstruowanej strony, przypadek opiera się o teorię przepływu PageRank koncepcja szczególnie interesując dla małych, średnich stron. Kilka slajdów będących idealnym uzupełnieniem prezentacji z SEMcamp. Zarejestrowanych użytkowników zapraszam do wątku: – Jak zbudować idealnie zaindeksowaną stronę ?

Pomijam kwestie najbardziej banalnych elementów optymalizacji strony jak mapa .xml czy pozyskiwanie mocnych linków. Skupiłem się na elementach mniej oczywistych i często zaniedbywanych. Wydaje mi się że nieco podobny temat poruszyliśmy przeprowadzając Audyt SEO dla Gadzinowski.pl.

Reasumując, problem paginacji ma szanse zaistnieć dopiero na naprawdę dużych serwisach jak np. Allegro.pl lub inne rozbudowane serwisy ogłoszeniowe. W 99% przypadków polskich stron problem paginacji w ogóle nie powinien istnieć a rozwiązania problemu należy szukać na znacznie wcześniejszym etapie budowy i SEO optymalizacji witryny. W mojej opinii rozwiązanie zaproponowane przez Maćka ma bardzo ograniczone zastosowanie i w jego artykule zabrakło mi wyjaśnienia istoty problemu i rozwiązań znacznie bardziej kluczowych dla poprawnej optymalizacji strony.

P.S. Tak czy inaczej rozwiązanie ciekawe, warte przetestowania, (Bartek coś wspominał że chce przetestować na jakimś dużym polskim e-commerce ;)) fajnie że dzielimy się wiedzą.

P.S.S. Zobaczcie jaki fajny odzew na SEOmoz.org otrzymał post Maćka: Testing How Crawl Priority Works, zachwycony jest sam Rand Fishkin :)

Artykuł Linkowanie wewnętrzne, indeksowanie i przyjazna SEO paginacja pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Nowy mechanizm Page Rank Sculpting

Kilka dni temu na SEOmoz.org pojawił się ciekawy artykuł Link Consolidation: New Page Rank Sculpting, w którym Rand Fishkin opisuje nową technikę kierowania przepływem Page Rank w obrębie witryny. W dzisiejszym wpisie rozwijamy temat i wprowadzamy do zagadnienia polską branżę SEO.

Mówiąc szczerze ta sama technika chodziła mi po głowie w pierwszych dniach po ogłoszonych zmianach w algorytmie nofollow, o których było głośno kilka tygodni temu. Wówczas zabrakło testów aby potwierdzić hipotezę, uznałem też że kierując się zasadą First Link Count można rozwiązać większość problemów z kierowaniem Page Rank. Najważniejsze jednak że wszystko wskazuje na to że mamy sensowny substytut dla rel=nofollow…

Aby zrozumieć nowe zasady Page Rank Sculpting należy pojąć działanie dwóch mechanizmów wyszukiwarki Google:

Zasada First Link Count

Wytyczna sprowadza się do zrozumienia sposobu indeksowania linków przez wyszukiwarkę Google. W sytuacji gdy umieszczamy dwa linki do tego samego adresu URL, wówczas robot Google dostrzega i indeksuje tylko pierwszy link, który znajdzie w kodzie strony ! Jest to bardzo często popełniany błąd przez wielu pozycjonerów oraz przez wiele dużych firm i to zarówno w linkowaniu wewnętrznym jak i zewnętrznym.

O First Link Count pisał już dawno temu także Rand Fishkin. Mam nadzieje że wkrótce uda nam się umieścić Videocast, w którym rozszerzymy to pojęcie oraz omówimy wyniki naszych testów.

Jak widać na załączonym obrazku nawet firmy teoretycznie z branży nie pamiętają o zasadzie pierwszego linka:
Zasada pierwszego linka
i jak to wygląda w kodzie:
Linki Sote.pl First Link Count

Efekt ?

Pierwsza dziesiątka sote.pl na frazę „oprogramowanie
Trzecia dziesiątka sote.pl na frazę „sklepy internetowe

Przypomnijcie, czym się zajmuje ta firma… ? Oprogramowaniem ?

Indeksowanie # Hash

Druga kwestia to znak Hash czyli: # w adresie URL. Standardowo znacznik był stosowany jako tzw. kotwice html czyli służył do linkowania między poszczególnymi fragmentami tekstu jednej podstrony (często stosowany w plikach FAQ). Taka a nie inna funkcjonalność kotwicy spowodowała, iż GoogleBot nie indeksuje treści i adresów URL znajdujących się za znakiem # w adresie.

Mając zatem na uwadze First Link Count i sposób postrzegania # w adresie można bardzo sprawnie wykluczyć z indeksowania niektóre treści na naszej witrynie.

Czyli linkując np. logtypem do adresu domeny głównej, czyli do: http://www.stronaglowna.pl/
inne linki do stron typu:

http://www.stronaglowna.pl/#polityka-prywatnosci
http://www.stronaglowna.pl/#o-nas
http://www.stronaglowna.pl/#o-autorach
http://www.stronaglowna.pl/#kontakt

…będą wg. GoogleBota prowadzić do http://www.stronaglowna.pl/ !

Dodając do tego zasadę First Link Count, anchor lub alt zostanie pobrany z pierwszego linka, który GoogleBot odnalazł w kodzie strony !

Mechanizm bardzo przejżyście zobrazował autor wspomnianego wcześniej posta na SEOmoz.org:
Nowy Page Rank Sculpting

W ten oto sposób możemy sprawnie selekcjonować strony, które zasługują na wysokie pozycje w Google.

Uwaga:
Z Hashem wiążą się także pewne komplikacje – # jest często stosowany we wdrożeniach w technologi Ajax i Flash co powoduje niemożność zaindeksowania podstron witryn w tych technologiach tworzonych.

  • Menu stron umieszczaj wysoko w kodzie.
  • Wszystkie ważne linki tekstowe z poprawnym anchor text umieść wysoko w kodzie strony.
  • Jeden link do jednego URLa.
  • Jeśli jest więcej linków do jednego URLa, pamiętaj aby link tekstowy z anchor text był wyżej w kodzie.
  • Jeśli są linki, którym nie chcesz przekazywać żadnej mocy używaj # w URL tej podstrony.
  • Wniosek z Video Matt’a: usuwajmy nofollow z naszych linków wewnetrznych !

Osobom, które jeszcze nie widziały polecam moją prezentację z SEMcampu pt. Zrozumieć Page Rank. Dzisiejszy artykuł jest bowiem dobrym rozszerzeniem i odpowiedzią na część pytań wywołanych wystąpieniem.

Artykuł Nowy mechanizm Page Rank Sculpting pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Wyniki testu SEO. Rel=canonical

W dzisiejszym wpisie omówimy wyniki testów i pokażemy działanie tagu, który zaistniał w SEO w lutym 2009 roku. Do dnia dzisiejszego nie komentowaliśmy tego wydarzenia na Sprawnym Marketingu, wydaje się więc że czas najwyższy przedstawić nasz punkt widzenia…


Do dzisiejszego wpisu zmotywował mnie blip mendaxa i post Blueranków. W drugim przypadku dywagacje należałoby zacząć od sensu stosowania rel=canonical w sytuacji w której problem można rozwiązać na poziomie Google Analytics i wprowadzenie # (hash’a) w URL źródła GA – cały proces bardzo fajnie opisał Tomek. Bardzo fajna funkcja rzadko w Polsce używana, w MaxROY.com w ten sposób mierzyliśmy m.in. skuteczność kampanii AdTaily i Flaker – tym samym linki z tych systemów reklamowych były SEO Friendly.

Podobnie pozbawione sensu wydaje mi się testowanie rel=canocnial na wersjach strony „z www” i „bez www” – do tego celu są bowiem stworzone odpowiednie narzędzia w Google Webmaster Tools. Co więcej Google może traktować subdomeny jak inne domeny a o czym piszemy dalej rel=canonical działa tylko w obrębie jednej domeny.

Zanim przejdziemy dalej chciałbym wam pokazać zestawienie jakie przygotowałem na pierwsze szkolenie SEO. Zalety i wady przekierowania 301 i rel canonical:
Wady i zalety rel canonical i przekierowania 301

Zwracam uwagę przede wszystkim na ostatni punkt tabelki – rel=canonical to sugestia dla wyszukiwarki! Taka informacja widnieje w plikach pomocy Google nt. tagu rel=canonical:

Czy atrybut rel=”canonical” to sugestia, czy dyrektywa?

Ta nowa opcja pozwala właścicielowi witryny zasugerować wersję strony, którą Google ma traktować jako kanoniczną. Google weźmie to pod uwagę, łącznie z innymi sygnałami, podczas określania, który z zestawów adresów URL zawiera identyczne treści, i wyznaczy najbardziej odpowiednią stronę do wyświetlenia w wynikach wyszukiwania.

W dalszych krokach chciałem wam pokazać jak wg. naszych doświadczeń działa tag rel=canonical. Działanie canonical przetestowaliśmy m.in. na starym spisie certyfikatów Google. Pod adresem: http://sprawnymarketing.pl/certyfiakty-google/ został umieszczony tag

link rel canonical

Po trzech tygodniach od umieszczenia tego tagu widzimy iż strony nie ma już w indeksie:

wyindeksowana podstrona

A na zapytanie „site:sprawnymarketing.pl certyfikaty” zwracany jest canonicalny adres url:

poprawny adres canonicalny

Powyższy test potwierdza skuteczność tego tagu i wydaje się że w nasze ręce trafia kolejne ciekawe narzędzie SEO.


Zapraszamy do komentarzy, ciekawy jestem także wyników waszych testów w tym zakresie.

Artykuł Wyniki testu SEO. Rel=canonical pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Rel=Nofollow – koniec dotychczasowej funkcjonalności!

Przyznam szczerze, że w dniu wczorajszym wstrząsnęła mną informacja o zmianach jakie nastąpiły w algorytmie Page Rank, a tak naprawdę o zmianie sposobu indeksowania tagu rel=nofollow. Jest to moim zdaniem najpoważniejsza zmiana algorytmu Google w ciągu ostatnich kilku lat.

W dużym skrócie. W ostatnich dniach w Seatlle odbywała się konferencja SMX Advanced, podczas której Matt Cutts zapytany o Page Rank sculpting i przyczyny stosowania linków nofollow na stronie głównej YouTube.com, niespodziewanie mocno rozwinął swoją wypowiedź:

2) Pagerank sculpting

Why does Google not support this? What Matt / Maile tried to communicate earlier is that you can use the rel=”nofollow” attribute, but you can spend far better time working in other areas of your site. if you have 5 nofollowed links on a page with 10, the old theory that the 5 followed links get the value is less effective thesedays, but you won’t get a penalty. If you’re using nofollow, it’s almost like a band aid. Think about how to link within your site more effectively.

Why is it less effective now? (Danny). Youtube was mentioned because a lot of internal links in Youtube were / are nofollowed. We didn’t want videos featured on the homepage to receive the incredible levels of pagerank from the Youtube homepage and that was a deliberate choice by Google.

What was the change? Initially if you had the 5/10 links scenario, the spread of pagerank was easy to predict. That’s not the case now because of feedback from the “crawl / index” team.

5) Back to PR sculpting – where is the lost pagerank going?

Think of pagerank “evaporating” when you nofollow a link. Think about your architecture and use nofollow sparingly. If you’re a power user then do nofollow register links because the URL isn’t wanted in the Google index. The ways we determine our opinion of pagerank are definitely more sophisticated now compared to the past.


Rand Fishkin
w swoim artykule zwrócił uwagę iż wg. jego szacunków opartych na danych zebranych z 474,779,069,489 linków, rel=nofollow jest stosowany przy 2,7% linków, z czego 75% to linki wewnętrzne. Mówimy zatem o zmianie dotyczącej ponad 9 milionów linków.

O co chodzi ? – w dużym skrócie

News z zagranicy szybko na polski rynek przełożyli Bynajmniej.pl oraz Lexy.
Na poniższej grafice prezentujemy, jak aktualnie Google bot rozpatruje linki nofollow i jak aktualnie przepływa Page Rank:

Nowy algorytm PageRank/Nofollow

Zasady działania nowego algorytmu pagerank nofollow

Co dalej ?

Wydaje mi się, że wczorajszego newsa należy połączyć z innym aspektem algorytmu o którym pisał Mendax oraz była Googlerka Vanessa Fox. Czyli o wynikach testów indeksacji Flasha oraz JavaScript. Okazuje się, że linki zapisane w tego typu formatach indeksują się coraz lepiej, a co za tym i idzie także tego typu linki zaczęły przekazywać Page Rank, Anchor text i inne SEO atrybuty.

Jest to o tyle ważne bowiem do niedawna istniały 2-3 sposoby na sprawienie aby link przestał dla robota Google istnieć:

  • nadanie linkowi rel=nofollow
  • zapisanie linka w JavaScript
  • zapisanie linka we Flashu

Na dzień dzisiejszy wszystkie trzy opcje nie funkcjonują tak jak dotychczas, co generuje pytanie o inne White SEO możliwości ukrywania obecności linka w treści strony ?

Przyczyny wprowadzenia zmian w nofollow

W mojej opinii w całym zamieszaniu chodzi głównie o webmasterów, którzy wynaturzyli dotychczasową funkcjonalność tagu rel=nofollow. Wspomniany znacznik powstał głównie jako zabezpieczenie przed spamem i tu trzeba przyznać twórcom, że znakomicie spełnia on swoje zadanie, mając do pomocy szereg filtrów oraz wtyczek antyspamowych.

Problem z nofollow na szeroką skalę pojawił się w 2008 roku kiedy to webmasterzy podjęli próby testowania tagu rel=nofollow na wewnętrznych linkach swoich serwisów. Celem takiego działania było sterowanie przepływem mocy pomiędzy podstronami serwisu, kierowanie „real Page Rank” w miejsca słabo zaindeksowane, lub wybieranie z pomocą nofollow najlepszego anchora linka.

Drugi problem, który mojej opinii przelał czarę goryczy to nadmierne stosowanie tego rozwiązania przez nowo powstające serwisy.

Zauważcie że rel=nofollow używają największe serwisy społecznościowe na świecie takie jak np.:

  • Wikipedia – jest naczelnym przykładem serwisu, który rozpoczął stosowanie rel=nofollow na szeroką skalę, i to właśnie w ślad za Wikipedią poszła szeroka rzesza twórców stron. Wikipedia sporo skorzystała na takim podejściu do sprawy, co zaowocowało wysokimi pozycjami strony w SERPach.
  • Twitter.com – kolejny serwis który zdobywa olbrzymią popularność w sieci i co za tym idzie generuje masę coraz bardziej kłopotliwych dla Google wątpliwości i pytań ukazujących wady obecnego/starego algorytmu.
  • YouTube.com – to od pytania o powody stosowania nofollow na serwisie Google jakim jest YouTube zaczęła się cała afera ;).
  • WordPress, Blogspot.com – wszystkie komentarze z automatu otrzymują rel=nofollow.
  • Także polski wykop.pl jest przykładem serwisu, który niemal w naturalny sposób powinien linkować do wartościowych treści a tego nie robi używając znacznika nofollow.

Linki nofollow są przydzielane niemal z automatu przez wszystkie nowo powstające serwisy web 2.0, społecznościowe, blogi itp. Przeważają dwie motywacje:
– Bo robią tak wszyscy duzi
– Zachłanności na „Page Rank” i wiara w to że nielinkowanie na zewnątrz podniesie nasze własne pozycje np. wikipedia jest przykładem serwisu który dostawał masę linków zewnętrznych natomiast w ogóle nie linkował na zewnątrz.

Reasumując ostanie zmiany algorytmu wymierzone są przede wszystkim w duże strony oraz Page Rankowo skąpych webmasterów. Page Rank jest w internecie walutą, natomiast Google, Narodowym Funduszem Walutowym regulującym przepływ tej waluty. Duże serwisy coraz wyraźniej zakłócały model przepływu Page Rank (Link graph) w sieci i zmiana powinna mieć dla nas maluczkich pozytywny wpływ.
Ewolucja nofollow nie jest wymierzona w drobnych webmasterów a wręcz przeciwnie, Google broni naszych SERPowych interesów przed dominacją olbrzymów a także przywraca nadzieję na powrót bezinteresowności linkowania w sieci.

Na tą chwilę sugeruję spokój i rozwagę, Google musi przeindeksować całą sieć :) (być może już to zrobił w postaci majowego niespodziewanego upadte PR), poczekajmy także na post na blogu Matt’a Cutts’a oraz na pierwsze testy przeprowadzone po nowych zmianach.

P.S. Zalążkiem do artykułu był komentarz jaki zacząłem pisać w pod postem Lexy ;). Pozdrawiam.

Edycja – dodane: 08.06.2009

W związku z artykułem jaki pojawił się na Interaktywnie.com odpowiedziałem Grzegorzowi Miłkowskiemu na kilka pytań:

– jak ta zmiana wpłynie na pracę pozycjonerów, co będzie musiało się zmienić?

Na tą chwile jeszcze bardzo ciężko ustalić czy zmiana już została wdrożona. Jeśli tak, to z naszych symulacji wynika że wkrótce powinny spaść pozycje a także ruch z Google na duzych stronach powszechnie stosujących parametr nofollow takich jak np. Wikipedia lub polski Wykop.pl
Czas pokaże jak te zmiany przełożą się na pozycje w SERPach.

– jaka jest Pana zdaniem przyczyna takiego ruchu Google’a i decyzji o wprowadzeniu tych zmian?

Nadużywanie tego parametru przez serwisy będące swego rodaju papierekiem lakmusowym globalnego internetu (głównie serwisy typu User generated content) z popłochem tagowały każdy link wychodzący tagiem rel=nofollow. W tym znaczeniu Google stał się ofiarą swoich własnych wytycznych dla webmasterów a konkretnie zdania dotyczącego: Linkowania do treści pochodzącej z niezaufanego źródła.
Nadużycia w tym zakresie powodowały że Google z opóźnieniem indeksował lub algorytym niedoszacowywał wartościowych stron i treści.

– jaki będzie to miało wpływ na przeciętnego użytkownika / blogera?

Teoretycznie zgodnie z algorytmem Page Rank powinny ucierpieć strony które obficie linkowały na zewnatrz ale linki te tagowały znacznikiem rel=nofollow. Zwracam uwagę że na takiej zasadzie są linkowane kometarze na większości blogów w polsce.

– może branża SEO już „szepta” o jakichś kolejnych zmianach w algorytmie? Co następne może się zmienić? ;)

Myślę że zamiana jest na tyle poważna że potrzeba czasu na przełożenie się tej zmiany na wyniki wyszukiwań. Co więcej cały czas czekamy na bardziej i oficjalną i precyzyjną wypowiedz przedstawicieli Google.

Artykuł Rel=Nofollow – koniec dotychczasowej funkcjonalności! pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Tworzenie SEO przyjaznych adresów URL – Videocast

Wreszcie ruszamy z długo oczekiwaną i odwlekaną serią videocastów. Pisanie artykułów wydaje się być coraz trudniejsze i bardziej angażujące, postaramy się więc w najbliższych tygodniach sporo materiałów publikować w formacie video.

Wspomniane w Videocascie video Matta Cutts’a: Podkreślenia czy myślniki w adresach URL ?

 

Warto także rzucić okiem na wykład Mariusza Gąsiewskiego m.in. o stosowaniu # (hash’a) w tagowanych linkach Google Analytics. I informacja testowaniu rozwiązania z # w URLu przez Google: New Type of Google Result URL.

Artykuł Tworzenie SEO przyjaznych adresów URL – Videocast pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Patenty Google o SEO i pozycjonowaniu…

W naszych artykułach o SEO i pozycjonowaniu zawsze staramy się czerpać z najlepszych źródeł… Z jednej strony podążamy za poszlakami poszukując odpowiedzi na domniemany wpływ ruchu na wyniki organiczne, staramy się rozszyfrować wpływ CTR na nasze pozycje w Google… Z drugiej strony zasięgamy informacji u źródła przeprowadzając wywiady z Guglarzem lub tłumacząc zachodnie webdinary z Googlersami

[zwykopu][/zwykopu]

W komentarzach pod artykułami czasami narzekacie że Guglarz nic ciekawego powiedzieć nie może lub że niektóre artykuły to bardziej fantastyka niż rzeczywistość… Przestaliśmy zatem pytać a zaczęliśmy szukać… Mamy nadzieję że dzisiejszy artykuł zadowoli naszych nawet najbardziej wybrednych czytelników.

Dotarliśmy do bardzo wiarygodnego źródła informacji jakim są naszym zdaniem patenty Google! Kładą one zupełnie nowe światło na naszą dotychczasową wiedzę… Żadna książka nie tłumaczy tak dobrze działania największej na świecie wyszukiwarki jak jej własne, opisane i opatentowane rozwiązania…

  • Jak Google określa datę powstania dokumentu ?
  • Jak aktualizacje treści wpływają na pozycję strony ?
  • Czy i jak Google mierzy szybkość przyrostu linków ?

Tych informacji nie znajdziecie w plikach pomocy Google… żaden forumowy Guru SEO nie odpowie wam na te pytania…

Odpowiedzi przedstawiamy w dzisiejszym artykule…

Będziemy wdzięczni jeśli w ramach docenienia naszej pracy wykopiesz ten artykuł:

[wykop][/wykop]

„Information retrieval based on historical data”

Taką nazwę nosi pierwszy patent, który chcemy dzisiaj omówić… Pod patentem podpisał się m.in. Matt Cutts, który co ważne jest z Google od początków istnienia tej firmy.

Myślę że warto osobiście zapoznać się z całą treścią patentu Google… Artykuł jest bardzo obszerny, w sumie około 20 stron tekstu A4 napisanego czcionką 12. Poniżej wersja pdf:

Ikona PDF Patent Google patent-google-o-seo-i-pozycjonowaniu.pdf

Data Powstania dokumentu

Ważne z punktu widzenia zrozumienia zasad określania np. Duplicate Content.

Dział: DESCRIPTION – EXEMPLARY HISTORY DATA
Akapity: [0034] – [0044]

„…there are several techniques that can be used to determine a document’s inception date…”

Jest kilka technik mierzenia daty powstania dokumentu…
Kilka najważniejszych wymienionych w dokumencie:
– Data pierwszego zaindeksowania
– Data odkrycia pierwszego linku prowadzącego do dokumentu (jak istnieje link to i strona musi już istnieć)
– W niektórych przypadkach za datę powstania dokumentu może zostać uznana data rejestracji domeny na której powstał dokument.
– Data powstania dokumentu zapisana przez serwer czyli np. nagłówek „HTTP If-Modified-Since” itp.

Do określenia daty powstania dokumentu Google może używać kombinacji kilku technik.

Search engine may use the inception date of a document for scoring of the document. For example, it may be assumed that a document with a fairly recent inception date will not have a significant number of links from other documents (i.e., back links). For existing link-based scoring techniques that score based on the number of links to/from a document, this recent document may be scored lower than an older document that has a larger number of links (e.g., back links). When the inception date of the documents are considered, however, the scores of the documents may be modified (either positively or negatively) based on the documents’ inception dates.

Do oceny dokumentu wyszukiwarka może wykorzystać datę jego powstania, na przykład, można śmiało założyć, iż dokument z dość niedawną datą powstania nie będzie miał znacznej liczby linków z innych dokumentów. Dla aktualnych algorytmów opartych na ocenie linków do i z dokumentów, młodszy dokument może więc zostać oceniony niżej od starszego, który liczbę takich linków ma znacznie większą. Gdy jednak data powstania dokumentów jest brana pod uwagę przy ustalaniu rankingu, wówczas wyniki wyszukiwania mogą być modyfikowane (pozytywnie lub negatywnie) na podstawie tychże dat.

Consider the example of a document with an inception date of yesterday that is referenced by 10 back links. This document may be scored higher by search engine than a document with an inception date of 10 years ago that is referenced by 100 back links because the rate of link growth for the former is relatively higher than the latter. While a spiky rate of growth in the number of back links may be a factor used by search engine 125 to score documents, it may also signal an attempt to spam search engine 125. Accordingly, in this situation, search engine 125 may actually lower the score of a document(s) to reduce the effect of spamming.

Rozważmy przykład dokumentu z wczorajszą datą powstania, który posiada 10 linków. Ten dokument może być oceniany wyżej niż dokument z datą powstania 10 lat temu, który jest wskazywany przez 100 linków ponieważ szybkość wzrostu linków nowego dokumentu jest wyższa. Podczas gdy szybki przyrost linków może być czynnikiem ocenionym na plus dokumentu, może być to jednak także sygnał o próbie SPAMu. W związku z tym zbyt szybki przyrost linków może skutkować obniżeniem oceny dokumentu.

…search engine may use the inception date of a document to determine a rate at which links to the document are created (e.g., as an average per unit time based on the number of links created since the inception date or some window in that period). This rate can then be used to score the document, for example, giving more weight to documents to which links are generated more often.

…wyszukiwarka może użyć daty powstania dokumentu do oceny szybkości przyrostu liczby linków (średnia ilość linków utworzona w określonym czasie od powstania dokumentu). Ten współczynnik może następnie być użyty do oceny dokumentu np. mocniej punktując dokumenty do których linki są tworzone częściej [lub bardziej regularnie].

Zależność można podsumować poniższym wzorem:

H=L/log(F+2),

H – historia przyrostu linków
L – ilość linków prowadzących do dokumentu
F – czas, który minął od utworzenia dokumentu

For some queries, older documents may be more favorable than newer ones. […]search engine 125 may determine the age of each of the documents in a result set (e.g., using their inception dates), determine the average age of the documents, and modify the scores of the documents (either positively or negatively) based on a difference between the documents’ age and the average age.

Dla niektórych zapytań, starsze dokumenty mogą być bardziej faworyzowane niż nowe. […] wyszukiwarka może określić wiek każdego z dokumentów, wyliczyć średni wiek wszystkich dokumentów z wyników wyszukiwań, a także modyfikować Score Rank dokumentów (znów pozytywnie lub negatywnie) w oparciu o różnicę między wiekiem poszczególnych dokumentów a średnim wiekiem wszystkich stron.

Kontent – Uaktualnienia i Zmiany

Dział: DESCRIPTION – Content Updates/Changes
Akapity: [0046] – [0056]

Ten punkt dobrze wyjaśnia dlaczego regularnie aktualizowane strony i blogi tak ładnie wchodzą w SERPy.

…information relating to a manner in which a document’s content changes over time may be used to generate (or alter) a score associated with that document. For example, a document whose content is edited often may be scored differently than a document whose content remains static over time. Also, a document having a relatively large amount of its content updated over time might be scored differently than a document having a relatively small amount of its content updated over time.

…informacje odnoszące się do sposobu, w jaki treści dokumentu ulega zmianie z biegiem czasu mogą zostać wykorzystane do generowania (lub zmiany) Score Rank owego dokumentu. Na przykład, dokument, którego treść jest często edytowana może być oceniany inaczej niż dokument, którego treść pozostaje niezmienna. Ponadto, dokument o stosunkowo dużej ilości aktualizowanej treści w miarę upływu czasu może być punktowany inaczej niż dokument o stosunkowo małej ilości aktualizowanej treści.

Wzór:

U=f(UF, UA)

f – suma lub suma ważona
UF – współczynnik częstotliwości zmian
UA – procentowa ilośc zmienianej treści w określonym czasie

UA may also be determined as a function of one or more factors, such as the number of „new” or unique pages associated with a document over a period of time. Another factor might include the ratio of the number of new or unique pages associated with a document over a period of time versus the total number of pages associated with that document. Yet another factor may include the amount that the document is updated over one or more periods of time (e.g., n % of a document’s visible content may change over a period t (e.g., last m months)), which might be an average value. A further factor might include the amount that the document (or page) has changed in one or more periods of time (e.g., within the last x days).

According to one exemplary implementation, UA may be determined as a function of differently weighted portions of document content. For instance, content deemed to be unimportant if updated/changed, such as Javascript, comments, advertisements, navigational elements, boilerplate material, or date/time tags, may be given relatively little weight or even ignored altogether when determining UA. On the other hand, content deemed to be important if updated/changed (e.g., more often, more recently, more extensively, etc.), such as the title or anchor text associated with the forward links, could be given more weight than changes to other content when determining UA.

UA może być również określana jako funkcja jednego lub więcej czynników, takich jak:

  • liczba “nowych” lub unikalnych stron związanych z dokumentem powstałych przez pewien okres czasu
  • stosunek liczby nowych lub unikalnych stron związanych z dokumentem w porównaniu do całkowitej liczby stron pozwiązanych [tematycznie] z tym dokumentem
  • wartość średnią stopnia aktualizacji dokumentu w ciągu jednego lub większej ilości okresów czasu (np. n % z widocznej treści dokumentu może ulec zmianie w okresie t (np. ostatnie m miesięcy))
  • liczba zmian treści danego dokumentu w jednym lub większej ilości okresów czasu (np. w ciągu ostatnich x dni).

Według jednego z zastosowań, UA może być określona jako funkcja inaczej ważonych części treści dokumentu. Na przykład, zmiana zawartości może przy ustalaniu UA zostać uznana za mało ważną (lub nawet zignorowana) jeżeli dotyczy takich kwestii jak:

  1. kod JavaScript,
  2. komentarze,
  3. reklamy,
  4. elementy nawigacyjne,
  5. formularze,
  6. znaczniki daty i czasu

Z drugiej strony, zawartość uznaje się za ważną, jeżeli aktualizacje i zmiany (np. częstsze, świeższe, obszerniejsze, itp.) dotyczą takich elementów jak tytuł tekstu lub anchor text linków wychodzących, te elementy mogą mieć większą wagę przy określaniu UA.

…wszystko to może mieć stosunkowo małą wagę lub być nawet całkowicie ignorowane przy określaniu UA. Z drugiej strony, zawartość uznaje się za ważną, jeżeli aktualizacje i zmiany (np. częstsze, świeższe, obszerniejsze, itp.) dotyczą takich elementów jak tytuł tekstu lub anchor text linków wychodzących, te elementy mogą mieć większą wagę przy określaniu UA.

UF and UA may be used in other ways to influence the score assigned to a document. For example, the rate of change in a current time period can be compared to the rate of change in another (e.g., previous) time period to determine whether there is an acceleration or deceleration trend. Documents for which there is an increase in the rate of change might be scored higher than those documents for which there is a steady rate of change, even if that rate of change is relatively high. The amount of change may also be a factor in this scoring.

UF i UA mogą być wykorzystywane również do wywierania innego rodzaju wpływu na wynik przypisany do dokumentu. Na przykład, wskaźnik zmian w bieżącym okresie czasu można porównać do tempa zmian w innym (np. poprzednim), aby ustalić, czy istnieje przyspieszenie czy spowolnienie trendu. Dokumenty, dla których istnieje wzrost wskaźnika zmian mogą być wyżej niż te, które mają stałe tempo zmian, nawet jeżeli wskaźnik zmian jest stosunkowo wysoki. Wielkości zmian mogą również być czynnikiem w tej punktacji.

In some situations, data storage resources may be insufficient to store the documents when monitoring the documents for content changes. In this case, search engine may store representations of the documents and monitor these representations for changes. For example, search engine may store „signatures” of documents instead of the (entire) documents themselves to detect changes to document content. In this case, search engine may store a term vector for a document (or page) and monitor it for relatively large changes. According to another implementation, search engine may store and monitor a relatively small portion (e.g., a few terms) of the documents that are determined to be important or the most frequently occurring (excluding „stop words”).

W niektórych sytuacjach, zasoby przechowywania danych mogą być niewystarczające do przechowywania dokumentów w celu kontroli zmian treści. W takim przypadku wyszukiwarka może przechowywać reprezentacje dokumentów i oświadczenia do monitorowania tych zmian, na przykład, “cechy charakterystyczne” [sumy kontrolne ?] danych dokumentów. W takich warunkach wyszukiwarka może przechowywać wektor słów kluczowych dokumentu (lub strony) i monitorować go w momentach stosunkowo dużych zmian [supplemental index ?]. Zgodnie z innym zastosowaniem, wyszukiwarka może przechowywać i monitorować stosunkowo niewielką część (np. kilka słów kluczowych) z dokumentów, które są uznane za ważne lub najczęściej występujące (z wyłączeniem “stop words”).

Ostatnie fragmenty powyższego akapitu nawiązują do jednego z pytań zadanych Guglarzowi podczas naszego wywiadu:

Cezary Lech: – Czy Google indeksuje tylko część treści na stronach znajdujących sie w supplementalu? Podobno Google indeksuje tylko tzw. “ważne” słowa stron znajdujących się w Supplemental Index?

Kaspar Szymanski: W przeszłości Supplemental index był używany do nietypowych dokumentów, które pojawiały się na raczej niecodzienne zapytania. Z perspektywy webmastera, niższa frekwencja pobierania była główną różnicą pomiędzy Supplemental indeksem a naszym głównym indeksem. Inżynierowie z Google pracowali intensywnie nad rozwiązaniem tego problemu i zniwelowaniem różnic między indeksami, odnosząc sukces we wrześniu 2007. W chwili obecnej różnice są minimalne. Każdemu, kto by chciał wiedzieć więcej o tym, jak Google indeksuje i rankuje strony, polecam ten link :-)

Wracając do dalszych zapisów patentu…

For some queries, documents with content that has not recently changed may be more favorable than documents with content that has recently changed. […] In other words, search engine may determine a date when the content of each of the documents in a result set last changed, determine the average date of change for the documents, and modify the scores of the documents (either positively or negatively) based on a difference between the documents’ date-of-change and the average date-of-change.

Dla niektórych zapytań, dokumenty, których treść ostatnio się nie zmieniła mogą mieć bardziej korzystne pozycje niż dokumenty, których treść uległa zmianie. […] Innymi słowy, wyszukiwarka może określić ostatnią datę zmian w zawartości każdego z dokumentów w wynikach wyszukiwania, ustalić średnią datę zmiann w dokumentach i zmodyfikować ocenę dokumentu (pozytywnie lub negatywnie) bazując na różnicy pomiędzy datą ostatniej zmiany a średnią datą ostatniej zmiany dla wszystkich dokumentów.

Reasumując:
Dla niektórych zapytań treść stron z niezmieniającą się zawartością może być bardziej wartościowa niż treść często aktualizowana.

Analiza zapytań

Dział: DESCRIPTION – Query Analysis
Akapity: [0058] – [0065]

Zgodnie z założeniami patentu, istnieje nawet kilka algorytmów odpowiadających za dostosowanie wyników wyszukiwania do zapytania użytkownika np.:

…one query-based factor may relate to the extent to which a document is selected over time when the document is included in a set of search results. In this case, search engine might score documents selected relatively more often/increasingly by users higher than other documents.

– Google może podwyższać pozycje dokumentów które są częściej wybierane przez użytkwników.

…terms relating to a „hot” topic that is gaining/has gained popularity or a breaking news event would conceivably appear frequently over a period of time. In this case, search engine may score documents associated with these search terms (or queries) higher than documents not associated with these terms.

…further query-based factor may relate to a change over time in the number of search results generated by similar queries. A significant increase in the number of search results generated by similar queries, for example, might indicate a hot topic or breaking news and cause search engine to increase the scores of documents related to such queries.

– ten fragment może być wskazówką do niedawnych testów Jeża… który starał się wprowadzić nazwę firmy w miejsce sugerowanych i powiązanych z zapytaniem fraz.

…factor may relate to queries that remain relatively constant over time but lead to results that change over time. For example, a query relating to „world series champion” leads to search results that change over time (e.g., documents relating to a particular team dominate search results in a given year or time of year). This change can be monitored and used to score documents accordingly.

Streszczając: Wyniki jakie należy prezentować użytkownikowi na zapytania typu „world series champion” muszą się zmieniać w czasie wraz ze zmianą stanu faktycznego czyli np. zwycięscy rozgrywek sportowych w danym roku.

Kilka fragmentów w których Google przyznaję że ruch i CTR może mieć wpływ na wyniki wyszukiwań…

…another query-based factor might relate to the „staleness” of documents returned as search results. The staleness of a document may be based on factors, such as document creation date, anchor growth, traffic, content change, forward/back link growth, etc.

Wyraźnie wymieniony, szeroko pojęty ruch obok tak oczywistych czynników jak: wiek, anchor linków czy aktualizacja treści…

For some queries, recent documents are very important (e.g., if searching for Frequently Asked Questions (FAQ) files, the most recent version would be highly desirable). […] More specifically, search engine may consider how often users favor a more recent document that is ranked lower than an older document in the search results.

Dla części zapytań aktualność dokumentów może być szczególnie ważna (np. szukając działu FAQ „Najczęściej zadawanych pytań” aktualność będzie bardzo istotna). Wyszukiwarka może zwracać uwagę na to jak często bardziej aktualne dokumenty znajdujące się niżej w wynikach są częściej wybierane niż starsze dokumenty.

In some situations, a stale document may be considered more favorable than more recent documents. […] For example, if for a given query, users over time tend to select a lower ranked, relatively stale, document over a higher ranked, relatively recent document, this may be used by search engine as an indication to adjust a score of the stale document.

W niektórych sytuacjach starszy dokument może być bardziej faworyzowany niż ten aktualny. Na przykład, jeśli dla danego zapytania użytkownicy zdają się częściej wybierać stronę starszą i niżej notowaną niż aktualną stronę z czołówki, to może to zostać użyte przez wyszukiwarkę i może mieć wpływ na pozycje (Score Rank) dokumentu.

Tym samym Google potwierdza w tym patencie możliwy wpływ wyborów dokonywanych przez użytkowników na pozycje stron w wynikach wyszukiwań.

W dalszych częściach patentu Google znajdujemy jeszcze bardziej precyzyjne informacje… wybaczcie ale przestanę cytować gdyż artykuł rozrósł się już do monstrualnych rozmiarów… Dalej czyste sparafrazowane tłumaczenie:

Czynniki związane z linkowaniem

Dział: DESCRIPTION – Link-Based Criteria
Akapity: [0067] – [0080]

Google jest w stanie mierzyć wiele czynników wpływających na ocenę dokumentu i związanych z linkami, są to m.in.:

  • Daty pojawiania sie nowych linków do witryny/podstrony
  • Daty, w których linki do witryny/podstrony zniknęły
  • Zmieniające się w czasie zachowanie linków do danej strony oraz wszelkie powstałe w ten sposób trendy i „tendencje” np. czy strona w ogólnym rozrachunku ma więcej nowo powstałych linków, czy wręcz przeciwnie. Tendencja wskazująca na spadek ilości nowych linków może wskazywać, iż dany dokument jest „nieaktualny”, natomiast tendencja wzrostowa może wskazywać na jego potencjalną „świeżość”.
  • Google może sprawdzić ilość nowych linków do dokumentu powstałych w określonym czasie i porównać ją do ilości linków, które dokument otrzymał od daty swojego powstania. Może również ustalić wiek najstarszego z y% ostatnio stworzonych linków i porównać go do wieku pierwszego stworzonego linku”.
  • Google w patencie podaje przykład dwóch stron stworzonych 100 dni wcześniej:
  • Strona 1 – 10% linków powstało w ciągu ostatnich 10 dni
  • Strona 2 – 0% linków powstało w ciągu ostatnich 10 dni
  • Te dane mogą również zostać użyte żeby „przewidzieć czy dana strona przynależy do konkretnego typu (np. stron, które nie są już aktualizowane, stron z rosnącą lub malejącą popularnością, lub do stron zastąpionych itp.)”

Ocena świeżości samego linku może również zostać użyta przy ustalaniu pozycji stron/podstron. Kilka czynników może wpłynąć na „świeżość” linku:

  • Data pojawienia się
  • Data zmiany anchor tekstu
  • Data zmiany na stronie, na której znajduje się link
  • Data pojawienia się strony, na której znajduje się link
  • Google informuje, iż według nich link, który pozostaje niezmienny kiedy strona jest (w znaczącym stopniu) aktualizowana jest linkiem „dobrym i istotnym”

Inne czynniki oceniające link to:

  • Zaufanie do linku (Google w szczególności wspomina dokumenty rządowe jako te z przypisanym zwiększonym zaufaniem (np. domeny .gov))
  • Jaki autorytet i wiarygodność (Trust Rank) posiadają strony linkujące
  • Świeżość strony/podstrony – wspominają stronę domową Yahoo! jako tą gdzie linki często znikają i pojawiają się.
  • „Suma mocy (wagi) linków” kierujących do strony/podstrony może zostać użyta do zmiany pozycji. Google zmierzy świeżość strony na podstawie świeżości prowadzących do niej linków oraz świeżości stron, z których te linki pochodzą.
  • Rozkład linków w czasie również zostanie zmierzony, przeglądarka oceni łączną ilość powstałych linków do strony/podstrony w określonym czasie oraz to, kiedy one powstawały.

Google może użyć daty pojawienia się linku do „wykrywania spamu”, „gdy właściciele dokumentów lub ich koledzy tworzą linki do swoich własnych stron w celu uzyskania lepszych pozycji w wyszukiwarce”. Google twierdzi, iż na prawidłowych stronach/podstronach „linki zwrotne powstają stosunkowo wolno” i że „nagły wzrost liczby backlinków” może oznaczać albo „gorący temat” albo „próbę spamu”.

Google podaje stronę CDC po wybuchu paniki wokół SARS jako przykład „gorącego tematu”

Google wspomina 3 przykłady spamerskiego pozyskiwania linków – „wymianę linków”, „kupowanie linków” oraz „pozyskiwanie linków od dokumentów które nie posiadają jasno określonej ‘polityki linkowania’ „(na przykład księgi gości, referrery i „strony pozwalające dobrowolnie dodawać linki do dokumentu”)

Spadek liczby linków, które posiada dokument w określonym czasie może zostać użyty aby wskazać jego nieistotność i Google zaznacza, że w takim przypadku wyszukiwarka będzie przypisywać mniejszą wartość linkom wychodzącym z takich stron lub nawet je ignorować.

Dynamika (rotacyjność) zmian linków również jest mierzona i oceniana na podstawie tego jak konsekwentnie i systematycznie przypisywane są linki do danej strony. Google podaje przykład „wyróżnionych linków dnia” i zaznacza, linki takie także będą liczone i dokument będzie otrzymywać Score Rank wyznaczony na podstawie wszystkich linków zwrotnych (także tych rotujących). – „Google Page Rank jest obliczany w czasie rzeczywistym.”

Anchor Text

Google może użyć danych dotyczących anchor tekstu, żeby wyliczyć Score Rank dokumentu:

  • Zmiany w anchor tekście mogą wskazywać na „uaktualnienie lub zmianę tematyki” strony/podstrony.
  • Anchor text, który przestał być tematycznie związany ze stroną, do której się odnosi może zostać zlokalizowany i zignorowany w razie konieczności. Duże objętościowo zmiany w dokumencie spowodują sprawdzenie przez wyszukiwarkę powiązanych anchor tekstów i ocenę ich spójności z dokumentem.
  • Świeżość anchor tekstu może być wyliczona za pomocą:
  • Daty pojawienia się/zmiany anchor tekstu
  • Daty pojawienia się/zmiany strony, do której anchor tekst prowadzi
  • Daty pojawienia się/zmiany strony, na której znajduje się link
  • Google podkreśla, że data pojawienia się/zmiany strony, na której znajduje się link czyni anchor tekst „bardziej odpowiednim i lepszym”

Traffic – Ruch

Google może również ocenić ruch na stronie/podstronie i uwzględnić uzyskane dane przy wyliczaniu Score Rank dokumentu.

  • „Duży spadek ruchu na stronie może świadczyć o tym, iż przestała ona być aktualna”
  • Google może porównać średni ruch na stronie/podstronie przez ostatnie „j dni” (na przykład j=30) do średniego ruchu na stronie/podstronie przez ostatni rok, żeby sprawdzić czy strona w dalszym ciągu jest odpowiednia dla danego zapytania.
  • Google może również użyć sezonowości, żeby ocenić czy konkretna strona/podstrona jest bardziej/mniej odpowiednia dla zapytania podczas określonych okresów w ciągu roku.
  • Google może także zmierzyć tzw. „advertising traffic”:
  • „zakres oraz szybkość z jaką reklamy są prezentowane lub aktualizowane w danym dokumencie w określonym czasie”
  • „Jakość reklamodawców”. Google zaznacza, że reklamy takich firm jak Amazon.com będą obdarzane większym zaufaniem i oceniane wyżej niż reklamy np. „stron pornograficznych”.
  • „The click-through rate” (współczynnik klikalności) uzyskany z ruchu powstałego ze stron na których są reklamy.

User Behavior – Zachowania użytkowników

Google może mierzyć „sumarczyne zachowania użytkowników”. Można tu zaliczyć:

  • „Ilość razy jaką dokument jest wybrany spośród wyników wyszukiwania” (CTR w wynikach)
  • „Ilość czasu jaką jeden lub więcej użytkowników spędza na danej stronie/podstronie”
  • Względną „ilość czasu” poświęcaną na daną stronę/podstronę w prównaniu do średniej ilości czasu.
  • Google podaje przykład podstrony z rozkładem godzinowym pływalni, na której użytkownicy zazwyczaj spędzali 30 sekund, a ostatnio nie poświęcają tej podstronie więcej niż „parę sekund”.
  • Google twierdzi, że może o twskazywać, że podstrona „zawiera nieaktualny rozkład godzinowy pływalni” i Score Rank takiej strony zostanie obnizony.

Informacje powiązane z domeną

Informacje powiązane z domeną również moga zostać wykorzystane przez Google przy ocenie dokumentu. Wspomina się o kilku specyficznych rodzajach „informacji związanych z tym w jaki sposób dany dokument jest hostowany w sieci (Internecie, intranecie, itd.)” wliczając w to:

W patnecie Google zauważa że wartościowe domeny, są „często opłacane są na kilka lat z góry”, natomiast tzw. ’throwaway domains’ rzadko kiedy używane są dłużej niż przez rok”.

Rejestr z DNS może również zostać sprawdzony w celu ustalenia:

  • Kto zarejestrował domenę
  • Adresy i kontakt do admina oraz obsługi technicznej
  • Dane name serwerów
  • Stabilność hostowania danych (i firmy hostingowej) vs. duża ilość zmian

Google twierdzi, że może zostać użyta „lista znanych ‘złych’ informacji kontaktowych, name serwerów i/lub adresów IP”, żeby wykryć domeny spamerskie.
Google twierdzi że może wykorzystać również w podobny sposób informacje dotyczące konkretnych name serwerów:
„Dobry name serwer może zawierać mix różnych domen, różnych rejestratorów i posiadać historię hostowania tych domen, natomiast ‘zły’ name serwer będzie hostował głównie pornografie, doorway pages, Made for Adsense lub dużą ilość domen od jednego rejestrującego, może to być też zupełnie nowy name serwer.

Historia rankingu, pozycji strony

Google może zwracać uwagę na historię rankingu (pozycji) danej strony oraz dane z tym związane.
Między innymi:

  • Strona której „pozycja skacze przy wielu zapytaniach może oznaczać tematyczny dokument lub próbę spamu”
  • „Ilość lub tempo zmiany pozycji dokumentu w rankingu może wpłynąć na przyszłą ocenę tego dokumentu”
  • Strony mogą zostać ocenione w zależności od ich pozycji w wynikach wyszukiwania. Najwyższa pozycja zostaje w takim wypadku oceniona najlepiej, natomiast niższe pozycje odpoweidnio gorzej.
    Google używa równania:[((N+1)-SLOT)/N]Gdzie N=ilość wyszukiwań a SLOT to pozycja w rankingu ocenianej strony
    W tym równaniu 1-szy wynik ocenia się na 1.0 natomiast ostatni wynik otrzymuje ocenę bliską 0.
  • Google może sprawdzać w szczególności wyniki na „komercyjne zapytania” i dokumenty, które zyskają x% w rankingu mogą zostać oznaczone, lub uzyskany procent w rankingu może zostać użyty do określenia prawdopodobieństwa ryzyka spamu.
    Google może też monitorować:

  • „Ilość wejść z wyników wyszukiwania na daną stronę/podstronę w określonym czasie”
  • Sezonowość – wahania zachodzące w określonym czasie w roku/miesiącu
  • Nagłe zwiększanie się lub zmniejszanie liczby kliknięć
  • Inne dane oferowane przez CTR

Wskaźnik zmian w ocenach (score rank) dokumentów w określonym czasie może być mierzony, żeby określić czy szukany termin staje się bardziej konkurencyjny i czy potrzebna jest dodatkowa uwaga.
Google „może monitorować Score Rank dokumentów, żeby wykryć nagłe wzrosty w rankingu”. Takie wydarzenie, według patentu, może oznaczać „albo jakieś aktualne zjawisko np. ‘gorący temat’ albo próbę spamu”

Google może przeciwdziałać próbom spamu w następujący sposób:

    „Wykorzystując histerezę (opóźnienie w reakcji na czynnik zewnętrzny) umożliwić nagły wzrost lub spadek Score Rank do określonego (niezbyt dużego) tempa” – histereza w tym wypadku może oznaczać ‘podciąganie’ wyniku przy nagłym obniżeniu wskaźnika wzrostu.

  • Ograniczając „maksymalną wartość progową wzrostu w określonym czasie” dla danej strony/podstrony.
  • Google „weźmie również pod uwagę wzmianki i linki do strony umieszczane w notkach prasowych, artykułach, na forach i grupach dyskusyjnych itp. zakładając wysoką wiarygodność takich miejsc”

Pewne typy stron (Google w wspomina o „dokumentach rządowych, katalogach stron (np. Yahoo) oraz stronach z relatywnie stabilnym i wysokim Trust Rankiem”) mogą być zwolnione z dodatkowych obserwacji lub nakładanych kar w wypadku nagłych skoków w rankingu.
Google może „również odbierać ewentualne spadki w rankingu jako wskazówka, iż dane dokumenty przestały być popularne lub są nieaktualne”

User Generated Data

Google może również mierzyć różnego rodzaju dane gromadzone w komputerach użytkowników a dotyczące np. ulubionych i często odwiedzanych stron, w tym:

    • Lista bookmarków i ulubionych stron w przeglądarce
    • Google może pobierać te dane za pomocą takich „asystentów przeglądania” jak Toolbar’y i Desktop Search.
    • Dane mogą także pochodzić także bezpośrednio z przeglądarki – Google Chrome ?
    • Google może wykorzystać te dane do określenia w jakie strony są wartościowe dla użytkowników

Google chce również dokumentować to, które strony zostają dodane a które usunięte z bookmarków/ulubionych i wykorzystać to przy ocenie strony.
Google może również mierzyć jak często użytkownik wyświetla daną stronę/podstronę i oceniać czy wciąż jest odpowiednia dla danego użytkownika czy jest jedynie pozostałością przeszłych wyświetleń (teraz strona juz przestała być popularna lub jest nieaktualna)
„Pliki temp oraz cache powiązane z użytkownikami również mogą być monitorowane” przez Google tak aby zidentyfikować pewne zależności w odwiedzanych stronach i ocenić czy zainteresowanie daną stroną wzrasta czy maleje.

Unique Word, Bigrams, Phrases in Anchor Text

Google buduje równiez profil tego w jaki sposób pojawia sie anchor tekst do danej strony/podstrony, żeby wykryć spam. Zaznaczają, że „web graph” (wykres, wektor strony, wektor Page Rank ?) rozwijający się naturalnie zazwyczaj jest wypadkową indywidualnych decyzji, natomiast wektor strony generowany syntetycznie (często związany z próbami spamu) opieraja się na skoordynowanych działaniach. Różnice w obu schematach rozwoju mogą zostać zmierzone i użyte aby blokować spam.

Google zaznacza, że duże przyrosty „anchor words/bigrams/phrases” są głównym celem pomiarów. Według nich spam w tym kontekście to „dodawanie dużej liczby identycznych anchorów z wielu dokumentów”.

Linkage of Independent Peers

Google może użyć również danych dotyczących linków od „niezależnych peerów (np. dokumentów nie powiązanych” w celu sprawdzenia spamu. Twierdzą, iż „nagły wzrost peerów niezależnych… z dużą ilością linków… może wskazywać potencjalnie syntetyczny web graph, który jest wskazaniem próby spamu”. Google twierdzi, że „podejrzenie spamu może zostać wzmocnione jeśli wzrost powiązany jest z anchor tekstem, który jest nadzwyczajnie zgodny lub niezgodny” i mogą obniżyc znaczenie takich linków za pomocą ‘stałej ilości’ (fixed amount) lub ‘czynnika mnożącego’ (multiplicative factor) – co może być dodatkową karą za samo posiadanie takich linków.

Tematyka dokumentu

Określenie tematyki danej strony może zostać przeprowadzone przy użyciu:

  • Kategoryzacji
  • Analizy URL
  • Analizy zawartości
  • Clusteringu
  • Podsumowania
  • Zestawu unikalnych, rzadko spotykanych słów

Celem jest „monitorowanie tematu/-ów danego dokumentu w określonym czasie i użycie zebranych danych przy ocenie”.

Google zaznacza, że „nagły wzrost w ilości tematów może wskazywać spam” oraz, że znaczące zmiany w temacie moga wiązać się ze „zmianą właściciela strony i poprzednie cechy dokumentu, takie jak Score Rank, anchor tekst itp. nie są już wiarygodne.” Google podkreśla, że „jeśli wykryją jedną lub więcej takich sytuacji, zredukowany zostanie Score Rank takich dokumentów a wartość linków, anchor tekstu oraz innych danych zostanie obniżona”.

Jeśli w plikach pomocy Google czytamy że za pozycję w Google odpowiadać może nawet 200 czynników… to analizując powyższy patent już możemy doszukać się co najmniej 50-60 tego typu zmiennych decydujących o Score Rank naszej strony…

Chciałbym także zwrócić uwagę na nowy termin, który stotsujemy w tym artykule – Score Rank – czyli innymi słowy Real Page Rank… Myślę że używanie w tym kontekście słowa „Page Rank” za mocno piętnuje i kojarzy się z zielonym paskiem Google. Tymczasem Score Rank odnosi się do oceny dokumentu i w efekcie do pozycji w wynikach organicznych i naszym zdaniem Score Rank doskonale opisuje ideę dbania o dobre pozycje. Suma 200 czynników algorytmu Google (czyli m.in. także Page Rank) daje nam efekt w postaci Score Rank danego dokumentu na daną frazę.

Druga połowa tekstu jest głównie tłumaczeniem z SEOmoz.org… zachęcam także do zapozania się z oryginalną wersją patentu Google !
W tłumaczeniu pomagał nam Jacek Kubiak, dzięki.

Rozwinęła się ciekawa dyskusja na forum.optymalizacja.com, warto zajrzeć.

Na koniec, jeszcze raz prosimy o kopanie artykułu:
[wykop][/wykop]

Artykuł Patenty Google o SEO i pozycjonowaniu… pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Jak podnieść klikalność (SERP CTR) wyników organicznych?

Jakiś czas temu opublikowaliśmy na Sprawnym Marketingu artykuł o klikalności linków a także o ruchu i jego domniemanym wpływie na pozycje stron w wynikach organicznych. W dzisiejszym wpisie rozszerzamy temat dzieląc się swoimi przemyśleniami w tym zakresie…

Wpływ tytułu strony na klikalność wyników wyszukiwań…

 

Do napisania tego artykułu zmotywowały mnie m.in. dwa poniższe wpisy umieszczone na zachodnich blogach:
Does Google Use Click-Thru Rate (CTR) in their Organic Listings too? – Sphinn…
Does your CTR influence your Google rankings ?

Pytanie stawiane w artykułach brzmi:

Czy CTR w wynikach organicznych ma wpływ na pozycję w Google ?

Obydwa teksty logicznie konstatują, iż:

Jeśli jeden, konkretny wynik wyszukiwań ma klikalność znacznie wyróżniającą się na tle innych linków (odchylenie od średniej klikalności na tej pozycji) to wydaje się logiczne, iż algorytm powinien przesunąć dany wynik na wyższą pozycję – „To co dobre dla użytkowników jest dobre także dla Google”.

Warto pamiętać że podobnie działa algorytm AdRank w przypadku reklam Google AdWords
Poniższe dwa obrazki dobrze wizualizują ideę zagadnienia:

 

Tak wygląda normalny rozkład kliknięć w Google:
Normalny rozkład kliknięć w Google

Tak natomiast może wyglądać odchylenie od standardowego rozkład kliknięć:
Zakłócony rozkład kliknięć w Google
Pozycja numer 6 notuje zdecydowane odchylenie.

Czy w związku z tym Google przesunie taką stronę na wyższą pozycję ?

Test…

Bazując na tych przypuszczeniach kilka miesięcy temu mocno zmodyfikowaliśmy znacznik „Title” i „Description” strony www.GoldPosition.pl znajdującej się w tym okresie w pierwszej dziesiątce pod słowem kluczowym „Pozycjonowanie„.

Title i opis zaindeksowany i wyświetlany przez większość Data Center od 25 Maja 2008 to:
Opis i tytuł GoldPosition.pl po 25 maja 2008
W tytule celowo umieszczono „call to action” – w formie „Kliknij Tutaj”. W opisie oraz w tytule umieszczono także małe formy graficzne których zadaniem było ściągnięcie wzroku użytkownika i sprowokowanie do kliknięcia.

Celem było między innymi zweryfikowanie możliwego wpływu wzmożonej ilości kliknięć na wzrost pozycji… Niestety sposób działania wyszukiwarki Google znacznie utrudnił wyciąganiecie jakichkolwiek sensownych wniosków… należy pamiętać że:

  • strony codziennie zmieniają pozycje
  • pozycje są różne w zależności od data center
  • w wynikach ukazują się różne ilości reklam (także wyróżnione reklamy AdWords)
  • użytkownicy przeglądają wyniki w różnych rozdzielczościach w związku z tym linia przełamania ciągle się przesuwa
  • mała próbka danych – niska dzienna ilość kliknięć np. z frazy: „pozycjonowanie”

Czy mimo braków dowodów warto skupiać się na CTR wyników organicznych ?

 

Naszym zdaniem zdecydowanie tak… poszlaki są bardzo mocne… w tym miejscu pojawia się kolejny, mocno na zachodzie lasowany temat ewentualnego wpływu czynnika „Bounce Rate” na wyniki wyszukiwań… Zachęcam do lektury poniższych tekstów:
How the bounce rate of your website can affect your Google ranking
Is Google REALLY using bounce rates as a ranking signal?

Tworząc Title i Description dla witryny warto pamiętać o tych samych elementach które wykorzystujemy w kampanii Google AdWords… Zauważcie jednak że w wynikach organicznych mamy znacznie więcej możliwości…

Jak wpływać na CTR wyników organicznych ?

 

Screeny pochodzą z artykułu: „Google Window Dressing” – Max Capener.

  • Wtyczka Skype zamieniająca ciąg cyfr numeru telefonu w graficzny klikalny link:

Wtyczka Skype w GoogleTechnika stosowana m.in. przez pierwszemiejsce.pl np. na frazę: „pozycjonowanie”

  • Stosuj małe formy graficzne… tzw. encje html, zarówno w title jak i description:

Encje html w title description

  • Pamiętaj że maksymalna długość opisu strony to 155 znaków…

Dlugosc opisu strony

  • Ograniczaj długość opisu do jednej linii jeśli chcesz sprawić wrażenie przestrzeni lub wyróżnić się poprzez bardzo krótki opis strony…

opis strony

  • Site Links – rozszerzone linki w oczywisty sposób radykalnie wpływają na CTR (Site links można otrzymać także na trudne komercyjne fraz jak np. „NLP”)

Site Links linki wyroznione

  • Stosouj konkrety w opsie (cena, obietnica, promocja) lub wezwanie do akcji…

call to actrion w opisie strony

W tym miejscu warto zapoznać się ze wpisem na oficjalnym blogu Google poruszający tematykę polepszania tytułu i opisu strony –
Improve snippets with a meta description makeover.

Inne linki i zbliżone tematy…

Warto także odnieść się do tekstu na który zwrócił uwagę Bluerank na temat klikalności wyników wyszukiwań. Dane prezentowane w artykule pochodzą z wyszukiwarki AOL i zostały sporządzone na podstawie 36,389,567 wyszukiwań i 19,434,540 kliknięć. Jest to także kolejny dowód potwierdzający „Google Golden Triangle„:

Odsyłam was także do postu opisującego jakiego typu dane Google zbiera o nas i naszych stronach: Google user data collection. Pod powyższym linkiem można także zobaczyć pełne zestawienie źródeł z których Google pobiera dane o swoich użytkownikach. Na oficjalnych stronach Google możemy się natomiast dowiedzieć więcej na temat architektury serwerowej na której Google przetrzymuje wspomniane petabajty danych… Big Table.

Aktualizacja: Klikalność (CTR) wpływa na pozycje w Bing

Podczas konferencji SMX Bing potwierdził, że bierze CTR (click through rate) pod uwagę ustalając ranking wyników. Według Steve’a Tullis’a jest to jeden z wielu czynników wpływających na pozycjonowanie w Bing, który może zadecydować o obniżeniu pozycji wyników o wyjątkowo małej klikalności.

Barry Schwartz z SearchEngineLand.com pisze:

I then submitted a follow up question:

Q) Do you use CTR as a factor? A) Google said it might be used for user behavior testing, but implied not in the ranking algo.

Bing said if things in the search results that do not get clicked on they will likely lower the ranking. So yes, Bing uses CTR in ranking algo.

Przypomnijmy, że znaczny wpływ na klikalność wyników wyszukiwania ma opis strony, który w przypadku wyszukiwarki Bing pobierany jest z jednego z 3 źródeł:

  • z metatagu „description”;
  • z treści strony (im wyżej początku kodu znajdzie się najważniejsza treść, tym lepiej);
  • z wpisu w katalogu dmoz.org.

Więcej informacji: Bing Uses Click Through Rate In Ranking Algorithm

 

Jakie są wasze doświadczenia ze zwiększaniem CTR w wynikach ?

Artykuł Jak podnieść klikalność (SERP CTR) wyników organicznych? pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Złoty Trójkąt Google, czyli psychologia wyszukiwania. Wyniki badania eye-tracking

Ostatnio przeglądając zagraniczne blogi i serwisy poświęcone marketingowi internetowemu trafiłem na oficjalną stronę Google: „Full Value of Search” pod nieco dziwnym jak na Google adresem: www.full-value-of-search.de. Strona jest w języku niemieckim co nieco utrudnia przyswojenie wszystkich informacji. Z prezentacji prezentowanych na tej witrynie najbardziej zainteresowały mnie slajdy dotyczące sposobu percepcji wyników wyszukiwań przez ludzkie oko. Temat Google Golden Triangle (Złoty Trójkąt Google) i badań Eye Trackingowych jak dotąd nigdy nie był poruszany na Sprawnym Marketingu… a temat wydaje się bardzo ciekawy…

Tak prezentuje się wzorcowy i znany od dawna model tzw. Google Golden Triangle:
Google Golden Triangle - Złoty Trójkąt Google

Zapytanie pierwsze i drugie

Bardzo interesujące wydają się być slajdy ukazujące różnicę w postrzeganiu wyników wyszukiwań między pierwszym wyszukiwaniem a drugim wyszukiwaniem wykonanym po niesatysfakcjonujących wynikach pierwszego zapytania:

Pierwsze zapytanie skierowane do wyszukiwarki…
Pierwsze wyszukiwanie wyniki Eye Tracking

…i drugie zapytanie po wcześniejszych niesatysfakcjonujących wynikach:
Drugie wyszukiwanie wyniki badania Eye Tracking

Jak widać wyniki na drugie zapytanie są zdecydowanie bardziej szczegółowo przeglądane podczas gdy pierwsze wyniki były bardzo zbliżone do wzorcowego modelu.

Top 10 czy Top 3 ?

Eye tracking dla zapytania informacyjnego:
Zapytanie informacyjne - Google Golden Triangle

Wyniki badania eye tracking dla zapytania zakupowego/transakcyjnego:
Zapytanie zakupowe - Eye tracking Google

Analizy przedstawione przez Google powinny mieć wpływ także na wasze prognozy, biznes plany i wszelkie założenia w których uwzględniacie ruch z Google na waszych witrynach… Okazuje się, iż profil waszej witryny powinien determinować także działania w zakresie pozycjonowania i SEO. I tak jak serwisy produktowe typu Allegro.pl czy Marketeo.com mogą sobie pozwolić na obecność na dalszych miejscach pierwszej dziesiątki wyników wyszukiwań o tyle wszelkie serwisy informacyjne powinny już walczyć o Top 3 lub nawet Top 1!

Kolejne pytanie pozostawione bez odpowiedzi to: Na ile fakt, iż zapytania informacyjne (np. „jaką prędkość może rozwinąć rekin”) koncentrują wzrok głównie na pierwszej pozycji wynika z dominacji Wikipedii na tego typu zapytania inforamcyjne… ? Czy podświadomie oczekujemy, iż: jak to kiedyś Tomek powiedział w wywiadzie dla TV Biznes użytkownik …chce znaleźć rozwiązanie swojego problemu szybko! Natychmiast !.

Ilość słów w zapytaniu

W dalszych slajdach można znaleźć informacje mniej więcej zbieżne z tym o czym pisał jakiś czas temu Mariusz Gąsiewski odnośnie ilości słów z jakich składają się zapytania:

Ilość słów z jakich składają się zapytania kierowane do Google

Takie dane w tym zakresie publikuje Google:
Ilość słów w zapytaniach kierowanych do Google

Warto też zwrócić uwagę na komentarz Mariusza:

Trzeba mieć również na uwadze, że długi ogon, a długi ogon słów sprzedażowych to dwie różne sprawy.

Ciekawe badanie: rozszerzenia wyników przyciągają wzrok Internautów i podnoszą CTR

Choć intuicyjnie to oczywiste, dobrze jest uzyskać naukowe potwierdzenie przeczuć: rozszerzenia wyników (rich snippets) mocno przyciągają wzrok internautów, a zatem prawdopodobnie podnoszą CTR wyniku. Jak dowodzą hiszpańscy naukowcy, którzy przebadali 58 osób (!!!) techniką eyetrackingową, rozszerzenia wyników przyciągają znacznie więcej uwagi internautów niż tytuł, opis i URL.

Dla przypomnienia, rozszerzenia wyników widoczne są w wynikach wyszukiwania, na poziomie każdego wyniku, zwykle pod [title], np.:
rich-snippet-recenzje

Rozszerzenia mogą rozwijać wyniki dotyczące:

  • przepisów kulinarnych (jak widać na powyższym zrzucie),
  • ludzi,
  • wydarzeń,
  • recenzji,
  • filmów wideo.

Prezentowaliśmy już na Sprawnym pełną galerię rozszerzeń wyników.

Hiszpanie sprawdzili ruchy gałek ocznych 58 osób (obu płci, w różnym wieku). Poproszono je najpierw o wykonanie zapytania (zapytania dotyczyły informacji, multimediów, zakupów i adresów stron), a następnie przy użyciu aparatury eyetrackingowej sprawdzono na jakich elementach strony wyników najdłużej zatrzymywał się ich wzrok. Zapytania kierowane były do Google i Yahoo! (zarówno do wyszukiwarki „standardowej”, jak i wyszukiwarki obrazków), a każdy z 58 badanych wykonał 22 zapytania.

Wyniki przedstawiono w tabeli:
eyetracking rich snippets

Jak widać, dla zapytań o informacje opis (snippet) przykuwał wzrok internautów na ponad połowę czasu (!), podczas gdy [title] na ok. 1/3 czasu, a URL – tylko na 13%. Jeszcze większą uwagę snippet przykuwa dla zapytań transakcyjnych (56%), a najmniejsze znaczenie ma dla zapytań o multimedia.

Tak wygląda heatmapa i kierunki podążania gałek ocznych dla poszczególnych rodzajów zapytań:
serps eyetracking

Badanie zostało przeprowadzone przez dwójkę Hiszpanów, Mari-Carmen Marcos i Cristinę González-Caro z barcelońskiego uniwersytetu Pompeu Fabra. Tutaj pełny tekst raportu(PDF) dla osób znających hiszpański, a tutaj szersze omówienie badania w języku angielskim.

Krótkie wprowadzenie w techniczną stronę wzbogacania swoich wyników o rich snippets znajdziesz w naszym kwietniowym artykule Nowe rich snippets już w Google.pl. Jak z nich skorzystać?

Na wspomnianej witrynie Google, znajdują się także informacje na takie tematy jak:

  • Różnica między zapytaniami nawigacyjnymi a produktowymi ?
  • Czego szukamy ? Czyli jakie są tematy zapytań kierowanych do Google ?
  • Bounce Rate, Page Impressions dla źródła ruchu jakim jest Google.

I wiele wiele innych…

Aktualizacja: Rich Snippets podnoszą CTR

Choć intuicyjnie to oczywiste, dobrze jest uzyskać naukowe potwierdzenie przeczuć: rozszerzenia wyników (rich snippets) mocno przyciągają wzrok internautów, a zatem prawdopodobnie podnoszą CTR wyniku. Jak dowodzą hiszpańscy naukowcy, którzy przebadali 58 osób (!!!) techniką eyetrackingową, rozszerzenia wyników przyciągają znacznie więcej uwagi internautów niż tytuł, opis i URL.

Dla przypomnienia, rozszerzenia wyników widoczne są w wynikach wyszukiwania, na poziomie każdego wyniku, zwykle pod [title], np.:
rich-snippet-recenzje

Rozszerzenia mogą rozwijać wyniki dotyczące:

  • przepisów kulinarnych (jak widać na powyższym zrzucie),
  • ludzi,
  • wydarzeń,
  • recenzji,
  • filmów wideo.

W kwietniu prezentowaliśmy już pełną galerię rozszerzeń wyników.

Hiszpanie sprawdzili ruchy gałek ocznych 58 osób (obu płci, w różnym wieku). Poproszono je najpierw o wykonanie zapytania (zapytania dotyczyły informacji, multimediów, zakupów i adresów stron), a następnie przy użyciu aparatury eyetrackingowej sprawdzono na jakich elementach strony wyników najdłużej zatrzymywał się ich wzrok. Zapytania kierowane były do Google i Yahoo! (zarówno do wyszukiwarki „standardowej”, jak i wyszukiwarki obrazków), a każdy z 58 badanych wykonał 22 zapytania.

Wyniki przedstawiono w tabeli:
eyetracking rich snippets

Jak widać, dla zapytań o informacje opis (snippet) przykuwał wzrok internautów na ponad połowę czasu (!), podczas gdy [title] na ok. 1/3 czasu, a URL – tylko na 13%. Jeszcze większą uwagę snippet przykuwa dla zapytań transakcyjnych (56%), a najmniejsze znaczenie ma dla zapytań o multimedia.

Tak wygląda heatmapa i kierunki podążania gałek ocznych dla poszczególnych rodzajów zapytań:
serps eyetracking

Badanie zostało przeprowadzone przez dwójkę Hiszpanów, Mari-Carmen Marcos i Cristinę González-Caro z barcelońskiego uniwersytetu Pompeu Fabra. Tutaj pełny tekst raportu(PDF) dla osób znających hiszpański, a tutaj szersze omówienie badania w języku angielskim.

Krótkie wprowadzenie w techniczną stronę wzbogacania swoich wyników o rich snippets znajdziesz w naszym kwietniowym artykule Nowe rich snippets już w Google.pl. Jak z nich skorzystać?

Aktualizacja 2: internauci nie zauważają wyników real-time

wyniki eyetrackingu na okoliczność postrzegania wynikow realtime
Zajmująca się marketingiem internetowym firma OneUpWeb przeprowadziła badanie w celu sprawdzenia wpływu wyświetlanych przez Google wyników real-time na postrzeganie SERP-ów. Badanie przeprowadzono na 44 osobach, które podzielono na dwie grupy: „konsumentów” i „poszukiwaczy informacji”. Każda z grup dostała do wykonania inne zadanie:

„Konsumenci” dostali zadanie znalezienia produktu, który mogliby chcieć kupić. „Poszukiwaczom informacji”, jak nazwa wskazuje, powiedziano by po prostu poszukali informacji o produkcie.


Przeprowadzone w lutym badanie przynosi odpowiedzi na pytania:

  • czy przeciętny internauta rozpoznaje i rozumie ideę wyników real-time?
  • czy konsumenci znajdują i klikają w wyniki real-time?
  • co konsumenci ogólnie myślą o wynikach real-time?

Wyniki:

  • 73% badanych nie słyszało wcześniej o wynikach real-time,
  • tylko co czwarty „konsument” zwrócił uwagę na wyniki real-time. Wśród „poszukiwaczy informacji” odsetek ten wyniósł 47%,
  • większość badanych deklarowała obojętny stosunek do wyników real-time.

W jakim wieku byli badani?

wykres: jaki jest rozkład wieku pytanych o wyniki real-time

Poniżej zrzuty ekranowe pokazujące na co patrzyły obie grupy. Zwróć uwagę, że jedyną różnicą między grupami było zlecone im zadanie. Wyniki real-time znajdują się u dołu obu screenów i zostały wzięte w ramkę:

wyniki badania eyetrackingowego: jak poszczególne grupy widzą real-time
wyniki badania: co zrobiłeś po zobaczeniu wyników realtime

Cytowane badanie było w rzeczywistości bardziej złożone, niż przedstawiłem to w tym krótkim podsumowaniu. Badanie zdaje się wskazywać, że wyniki real-time mają ograniczony wpływ na internautów. Chociaż branża huczy na temat real-time’u, zwykli internauci nie rozumieją go lub nie zauważają.

Aktualizacja 3: potwiedzamy przewagę wyników organicznych

Z badań opublikowanych przez User Centric (wygrzebał je niedawno Mirek Połyniak), wynika, że wzrok szukających zawsze pada na wyniki organiczne, ale na boczne reklamy – już zdecydowanie rzadziej. Lepiej jest z linkami sponsorowanymi umieszczanymi powyżej organika – te są zwykle dostrzegane, ale koncentracja na nich trwa krótko. Oto szczegóły badania.
Badanie wykazało, że na wynikach organicznych spoczął wzrok 100% badanych. Pozostałe elementy strony wyników wyszukiwania nie były już dostrzegane przez wszystkich, np. linki sponsorowane umieszczone nad wynikami organicznymi dostrzegło 91% badanych, natomiast linki sponsorowane po prawej stronie – tylko 28% badanych! Na umieszczone po lewej stronie menu z wyszukiwarkami wertykalnymi i opcjami zawężania wyników spoczął wzrok zaledwie 17% badanych.

Jak widać na powyższym wykresie, znamienny jest też rozkład czasu, przez który badani patrzyli na poszczególne elementy SERP-ów. Najwięcej czasu poświęcali oczywiście wynikom organicznym – średnio 14,7 sekundy. Linki sponsorowane nad wynikami organicznymi, choć dostrzegane przez zdecydowaną większość (patrz wyżej), to jednak tylko przelotnie – badani poświęcali im średnio mniej niż sekundę (0,9s)! Linki sponsorowane po prawej stronie organika przyciągały wzrok badanych średnio na 1/6 sekundy (0,16s). Nieliczni użytkownicy, którzy dostrzegli menu po lewej stronie, oglądali je relatywnie długo – aż 1,2 sekundy.

Wniosek: SEO ma olbrzymią przewagę nad PPC w zakresie budowania świadomości marki, „opatrzenia” klientów z reklamowanym brandem. Dalej idące wnioski (np. w zakresie skuteczności w pozyskiwaniu konwersji) można wyciągać wyłącznie w oparciu o wyniki konkretnych kampanii.

image-Bing v Google 2011

Przy okazji dowiedzieliśmy się, że tylko 2/3 wyszukań dokonywanych w Google’u kończy się kliknięciem w którykolwiek z wyników. Mogłoby to oznaczać, że wyniki dla ok. 1/3 zapytań nie spełniają oczekiwań szukających tak dalece, że potrafią oni to stwierdzić jeszcze na poziomie SERP-ów. Bing i Yahoo chwalą się wyraźnie wyższymi „Success rate”, na poziomie ok. 81%. Czy to znaczy, że Yahoo! i Bing dostarczają bardziej satysfakcjonujących wyników? Niekoniecznie; Google jest dla wielu wyszukiwarką domyślną, używaną dużo częściej niż konkurencja, wyszukiwarką, do której standardowo wprowadza się wiele nie do końca przemyślanych, codziennych zapytań.

[Wykres wzięliśmy z eMarketer.com]

 Artykuł napisany we współpracy z Maciejem Janasem.

Artykuł Złoty Trójkąt Google, czyli psychologia wyszukiwania. Wyniki badania eye-tracking pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Ekskluzywny wywiad z polskim pracownikiem Google o pozycjonowaniu

Ponad rok temu niektórzy blogerzy (pozycjonerzy) w akcie irytacji na kolejne bany i tzw. koniec katalogów stron, intensywnie go szpiegowali. Na forum Google dla webmasterów też regularnie powtarzają się pytania o jego osobę – Kim jest Guglarz? Kim jest tajemniczy pracownik Google?

Redakcji Sprawnego Marketingu udało się przeprowadzić ekskluzywny wywiad z najbardziej znanym polskim członkiem zespołu Google Search Quality Team z Dublina. Wywiad był dodatkowo autoryzowany przez Matt’a Cutts’a oraz innych wysokich rangą przedstawicieli Google. Prezentujemy więc pierwszy polski wywiad z pracownikiem Google odpowiedzialnym za jakość wyników wyszukiwań. Będzie dużo o pozycjonowaniu często bardzo szczegółowo…
Zapraszamy do lektury…


[wykop][/wykop] Będziemy wdzięczni jeśli w ramach docenienia naszej pracy wykopiesz ten artykuł.

Sylwetka Guglarza

Googler (Guglarz) Kaspar Szymanski
Guglarz (Googler) – Kaspar Szymanski

Guglarz jest autorem kilku wpisów na oficjalnych blogach Google. Odpowiada m.in. za koniec katalogów stron, przedstawiał nam także wytyczne na temat linkowania lub sposobów zgłaszania SPAMu.

W powszechnej świadomości pozycjonerów Guglarz odpowiada za większość „katastrof” w polskich SERP’ach. Poniżej odpowiedzi Guglarza na szereg trudnych pytań.

Wywiad z Guglarzem

Cezary Lech: Występujesz jako Guglarz, możesz się nam przedstawić z imienia i nazwiska?


Guglarz: Myślałem, że to pytanie padnie :-) Nazywam się Kaspar Szymanski. Polską Grupę Dyskusyjną Google dla Webmasterów monitoruję jako Guglarz. Na blogach Google regularnie staram się pomagać webmasterom pod pełnym imieniem i nazwiskiem.

Cezary Lech: Za co odpowiadasz w Google?

Kaspar Szymanski: Pracuję w Google w zespole Search Quality. Przede wszystkim staram się zapobiegać pojawianiu się spamu w wynikach, aby nasi użytkownicy nie byli na niego narażeni. Takie jest moje główne zadanie. Komunikacja z webmasterami, w szczególności z europejskimi, jest również ważnym elementem mojej pracy. Dla zainteresowanych Udi Mamber niedawno napisał więcej na ten temat. Jeżeli chodzi o komunikację z webmasterami, chciałbym się podzielić kilkoma szczegółami dotyczącymi naszych wysiłków.

Od około dwóch lat zespół Search Quality w Dublinie ma udział w staraniach Google w nawiązaniu dialogu z webmasterami w ich rodzimych językach. W chwili obecnej, ja i mój zespół wspieramy kilka kanałów komunikacyjnych w szesnastu językach. Wspomniałem już o grupach dyskusyjnych, które monitorujemy. Odpowiadamy za Google Blog dla Webmasterów w języku niemieckim oraz mamy wkład w polski, angielski, francuski, hiszpański, włoski, rosyjski oraz turecki blog.

Od niedawna publikujemy również edukacyjne klipy video dla webmasterów. Moi koledzy Rebecca i Alvar zainicjonowali je w języku hiszpańskim. Dotychczasowy odzew ze strony społeczności webmasterów był bardzo pozytywny :-)

Z największym entuzjazmem podchodzę do bezpośredniej komunikacji z webmasterami – na konferencjach oraz Dniach Google. Podczas imprez takich jak SMX czy SES mamy okazje dowiedzieć się, z czym aktualnie borykają się użytkownicy oraz w jakim zakresie musimy poprawić komunikację z webmasterami. Ta forma bezpośredniej komunikacji sprawia mi największą przyjemność. Niestety, dotychczas nie mieliśmy okazji wziąć udziału w żadnej konferencji w Polsce. Sądzę jednak, że do końca roku znajdzie się taka możliwość.

CL: Jak dostałeś się do pracy w Google i w którym biurze Google pracujesz?

KS: Dwa i pół roku temu, po dłuższym pobycie poza Europą, gdzie pracowałem dla firmy komunikacyjnej, szukałem innego miejsca i nowego wyzwania zawodowego. Przypadkowo znalazłem nieco tajemniczo opisaną, jednak ciekawie brzmiącą ofertę pracy. Po złożeniu aplikacji wszystko potoczyło się szybko, przeszedłem proces rekrutacyjny i jakiś miesiąc po nawiązaniu pierwszego kontaktu Google sprawiło mi najlepszy prezent gwiazdkowy: ofertę pracy w Dublinie w europejskiej centrali tej wyjątkowej organizacji :-)

CL: Jak się czujesz w roli pogromcy polskich katalogów i jednocześnie twórcy pierwszego wpisu w języku polskim na oficjalnym blogu Google Webmaster Tools?

KS: Odnośnie Twojego pierwszego pytania, muszę przyznać, że nie byłem świadom, że mam tak groźną reputację! :-) Sądzę, że masz na myśli jeden z moich postów z zeszłego roku. Doszliśmy wtedy do wniosku, że musimy się jasno dla polskich webmasterów wypowiedzieć odnośnie skopiowanych treści. Kopiowanie treści, na przykład z katalogów i dodawanie ich do tematycznie niepowiązanych, ubogich w oryginalną treść stron nie jest postrzegane przez Google jako metoda white hat. Z perspektywy czasu stwierdzam, że było to właściwe posunięcie, ponieważ otrzymywaliśmy coraz więcej skarg dotyczących tej właśnie metody. Nie zrozum mnie źle proszę: uważam, że tematyczne, moderowane katalogi mogą być świetną metodą podwyższania wartości strony dla użytkowników. Niestety, niektórzy nadużywali dobre katalogi, jak na przykład DMOZ, aby sztucznie zwiększać ilość treści na własnych lub na stronach ich klientów. W konsekwencji niewielkie strony z unikalną treścią nagle rosły o kilkaset lub nawet kilka tysięcy tematycznie niepowiązanych dokumentów. Nasi użytkownicy nie byli zachwyceni widząc te strony w wynikach. Nie byli również zachwyceni właściciele stron po tym, jak te zostały tymczasowo usunięte z wyników Google w konsekwencji korzystania ze spamerskich metod. W końcu Matt Cutts i zespół Search Quality zdecydowali, że musimy uświadomić webmasterów, z czym może się używanie skopiowanych treści wiązać. Były to więc kroki podjęte wspólnie, a nie inicjatywa jednej osoby, więc nie widzę siebie w roli pogromcy katalogów.

Co do Twojego drugiego pytania, to nie wiedziałem również, że jako pierwszy pisałem po polsku na Blogu Google dla Webmasterów : -) Dziękuje za tę informację! Bardzo mi milo z tego powodu. Sądzę, że dialog z webmasterami w ich rodzimych językach jest bardzo ważny dla obu stron, ponieważ zarówno Google jak i osoby tworzące serwisy internetowe mogą na nim tylko skorzystać.

CL: – Czy ostatnie wzmożone działania Google, mające na celu usunięcie stron o wątpliwej jakości z indeksu wyników wyszukiwań są także formą walki z systemami automatycznej wymiany linków?

KS: Zawsze zwalczaliśmy metody black hat SEO, niezależnie od tego, które masz na myśli. Jak zapewne pamiętasz, na forum grupy oraz na Blogu Google dla Webmasterów przedstawialiśmy perspektywę Google na systemy linkowania. Ponieważ dla Google linki przedstawiają rodzaj rekomendacji treści strony, systemy linkowania oraz sprzedaż i zakup linków, które przekazują PageRank, wychodzą poza nasze Porady dla Webmasterów. Oczywiście każdy webmaster może budować strony tak, jak mu się podoba i linkować w taki sposób, jaki mu opowiada. Pamiętaj jednak proszę, że Google również ma prawo do ochrony użytkowników, jak i utrzymywania jakości swojego indeksu. Webmasterzy, którzy chcą, aby ich strony rozwijały się w indeksie Google, mają możliwość oceny swoich strategii linkowania z perspektywy Porad Google dla Webmasterów. A kto nie jest w 100% pewien, może dołączyć do Grupy Pomocy dla Webmasterów. Jest tam wiele pomocnych i mądrych osób, oraz Guglarz, monitorujący grupę i dorzucający czasami swoje 3 grosze ;-)

CL: – Czy Google zamierza ukrywać prawdziwą ilość zaindeksowanych podstron, tak jak ma to miejsce w przypadku wyników na komendę „link:”? Jeśli tak, to czy w Google Webmaster Tools macie zamiar dodać taką funkcjonalność?

KS: Wspólnie z moją koleżanką Juliane opublikowałem w maju post na polskim Blogu Google opisujący operatory „site:” i „link:”. Zasadniczo, wpisując operator „link:” przed nazwą strony otrzymuje się przykład linków prowadzących do tej witryny. Jeśli sprawdzimy prowadzące linki do zweryfikowanej strony w Narzędziach Google dla Webmasterów, to zobaczymy ich znacznie więcej, jednak nadal nie wszystkie. Powodem, dla którego wyświetlone rezultaty przy użyciu „site:” mogą się zmieniać jest asynchroniczna sekwencja aktualizowania Google Data Centrum. W zależności od ruchu i lokalizacji Google Data Centrum zwraca rezultaty generowane na różnych pozycjach w różnym czasie.

CL: – Ostatnio team pod kierownictwem Matt’a Cutts’a wprowadził zmiany do wytycznych dla webmasterów. Mimo wyjaśnienia wielu kwestii część webmasterów cały czas spiera się między innymi o parametr nofollow… Czy możesz nam wyjaśnić, czy używanie nofollow na wewnętrznych linkach sprzyja poprawie linkowania wewnętrznego i kierowaniu przepływem PageRank?

KS: Spotkałem się z webmasterami niemal obsesyjnie usiłującymi aktywnie kierować przepływem PageRank na ich stronach. Pozwól, że rozwinę temat: jest kika sposobów, którymi webmasterzy mogą kierować przepływem PageRank na ich stronach. Można zaopatrywać linki w <rel =”nofollow”> lub używać <meta content=”nofollow”> lub robots.txt w odniesieniu do całej strony. Webmasterzy mogą w ten sposób promować konkretne działy swoich stron, należy jednak pamiętać, że linki zaopatrzone w nofollow nie są uwzględniane przez Google, więc trzeba je wybierać z rozwagą.

Z jednej strony sądzę, że przykładowo „nofollowanie” linka do strony administracyjnej bloga ma sens, ponieważ Googlebot nie będzie się logował. Z drugiej, taki krok może zwiększyć poziom bezpieczeństwa serwisu. Natomiast „nofollowanie” przykładowo strony „O nas”, wychodząc z założenia, że użytkownicy nie są zainteresowani tą informacją lub dlatego, że są bardziej pożądani w sekcji z produktami jest krokiem, który bym głęboko rozważył. Podkreślam, że aktywne kierowanie przepływem PageRank używając <nofollow> jest dozwolone, ale zapewne nie jest to najlepsze wykorzystanie czasu dla SEO.

 CL: – Czy faktem jest, że w momencie gdy mamy dwa linki prowadzące do dokładnie tego samego adresu i w kodzie strony pierwszy z nich będzie oznaczony atrybutem nofollow, a drugi będzie bez tego atrybutu, to Google nie podąży za żadnym z tych linków? 

KS: Jak wiesz algorytmy Google są bez przerwy aktualizowane i wykorzystują dużą ilość sygnałów w celu określenia powiązań między stronami. Ponieważ jedyną stałą jest ewolucja, nie skupiałbym się za bardzo na detalach, które mogą się z biegiem czasu zmienić. Nasza intencja wyszukiwania i indeksowania oryginalnej treści natomiast się nie zmieni. Oczywiście webmasterzy mogą przeprowadzać eksperymenty w celu sprawdzenia aktualnej sytuacji pod tym kątem.

(red. Test już przeprowadziliśmy – wyniki wkrótce ;))

CL: – Czy pozycjonowanie to SPAM?

KS: Nie, white hat SEO to nie jest spam. W Centrum Pomocy dla Webmasterów niedawno dodaliśmy artykuł, w którym jest opisana perspektywa Google dotycząca SEO oraz kilka porad dla właścicieli stron jak znaleźć white hat pozycjonera.

CL: – Jak definiujesz SEO, pozycjonowanie?

KS: Mieliśmy kiedyś dyskusję na ten temat na forum Grupy Pomocy dla webmasterów. Sądzę, że każdy ma indywidualną perspektywę. Z tego, co obserwuję w Europie, ale nie tylko, SEO i SEM stają się coraz częściej elementami portfolio doradców. Podstawową różnicą, którą należy mieć na uwadze, są wyniki naturalnego wyszukiwania w przypadku SEO, kontra płatnym w przypadku SEM. Osobiście nie mam żadnej wyrafinowanej definicji SEO, ale myślę, że jeżeli ktoś ulepsza dostępność witryny dla botów oraz zwiększa jej widoczność dla wyszukiwarek to taka osoba zajmuje się SEO. Oczywiście dobry SEO potrafi zrobić więcej w celu podniesienia rankingu strony np. w zakresie dostępności oraz technicznych ulepszeń.

CL: – Czy Polscy Quality Raters czytają także Spam reporty?

KS: Niestety, nigdy nie miałem okazji porozmawiać z żadnym polskim Quality Rater, więc nie mogę ani potwierdzić, ani zaprzeczyć temu stwierdzeniu. Domyślam się, jakim zainteresowaniem musi się cieszyć zespół od zwalczania spamu w Google w świecie SEO. Pozwól, że wykorzystam okazję i wyjaśnię, że zespół Quality Rater oraz zespół Search Quality to dwie odrębne grupy. Jeżeli chcesz wiedzieć, czy ja lub koledzy z mojego zespołu czytają raporty spamu to odpowiedź jest tak, robimy to.

CL: – Czy blokując dostęp robotowi Google do swojej strony blokuje dostęp wszystkim rodzajom robotów Google? Także robotom AdSense i robotom wyliczajacym Quality Score dla reklam AdWords?

KS: Korzystając z robots.txt można blokować roboty indywidualnie. Jeżeli ktoś chce brać udział w programie AdSense jako wydawca, jednak bez udostępniania swojej witryny innym botom, wystarczy dodanie następujących dwóch linijek kodu do pliku robots.txt:

User-agent: Mediapartners-Google
Disallow:

Należy jednak mieć na uwadze, że żadne zmiany wprowadzone w pliku robots.txt nie będą uwzględnione w naszym indeksie, dopóki bot ponownie nie odwiedzi serwisu.

To samo odnosi się do AdsBota AdWords, naszego automatycznego systemu przeglądania stron docelowych. Należy pamiętać, że w celu uniknięcia podwyższenia CPC dla reklamodawców, którzy nie zamierzają ograniczać AdWords na swoich stronach, system ignoruje ogólne wykluczenia (User-agent: *) w pliku robots.txt.

Ponieważ ja mam bardziej do czynienia z naturalnymi wynikami, a nie reklamami, podejrzewam, że w Centrum Google dla Webmasterów znajdziesz więcej przydatnych informacji.

CL: – Czy stosując tag <noarchive> Google wyłącza podstronę z indeksacji lecz dalej podąża za linkami i przekazuje dalej PageRank linkom obecnym na tej podstronie?

KS: Mówiąc ogólnie, Googlebot przemierza stronę zaopatrzoną atrybutem <meta content=”noarchive”> w ten sam sposób jak stronę bez tego atrybutu. Różnica polega na tym, że takie strony są wyświetlane w wynikach Google bez linku do jej kopii.

CL: – Jak aktualnie działa przekierowanie 301? Zauważyłem swego czasu błąd w panelu Google Webmaster Tools wskazujący na fakt, że przekierowuję całą domenę wraz z podstronami na stronę główną nowej witryny… Czy taka sytuacja wpływa negatywnie na pozycję nowej strony?

KS: Jak wiesz przekierowanie 301 oznacza dosłownie „przeniesienie permanentne”. Nie wiedząc więcej na temat witryny, o której wspominasz, trudno mi jest zidentyfikować problem. Aczkolwiek, w najgorszym przypadku nie oczekiwałbym żadnych negatywnych konsekwencji dla nowej domeny. Funkcjonujące przekierowanie 301 natomiast może być korzystne, o ile pierwsza strona pozyskała zaufanie oraz grono użytkowników regularnie ją odwiedzających. Warto wspomnieć, że przekierowanie powinno być zrobione na poziomie URL-i.

CL: – Czy przekierowując 301 domenę na nowy adres w myśl zasady, definicji pozycja strony powinna być taka sama?

KS: Z tym pytaniem często się spotykam. Przekierowanie 301 jest świetnym rozwiązaniem, jeżeli chcemy oznajmić Google, że projekt został przeniesiony na nową domenę. Nie naraża ono serwisu na żadne negatywne konsekwencje, jednak nikt nie powinien oczekiwać identycznych pozycji w wynikach dzięki niemu. Konkurujące strony mogą równocześnie rozwijać się i zbierać linki dzięki świetnym treściom albo mogą powstawać nowe witryny na ten sam temat . Z tego powodu nie mogę obiecać identycznych pozycji, ale gorąco polecam używanie przekierowania 301 w ten sposób, jak opisałem powyżej. Nie polecałbym go, gdybym sam z niego sporadycznie nie korzystał.

Dla webmasterów obawiających się przenieść cały projekt, przeniesienie najpierw jednego podkatalogu w ramach eksperymentu może być dobrym rozwiązaniem. Jeżeli wszystko pójdzie dobrze i nie będą widoczne żadne dramatyczne zmiany w pozycjach, wówczas prawdopodobnie nic nie stoi na przeszkodzie, żeby przenieść całą witrynę.

CL: – Czy Google indeksuje tylko część treści na stronach znajdujących sie w supplementalu? Podobno Google indeksuje tylko tzw. „ważne” słowa stron znajdujących się w Supplemental Index?

KS: W przeszłości Supplemental index był używany do nietypowych dokumentów, które pojawiały się na raczej niecodzienne zapytania. Z perspektywy webmastera, niższa frekwencja pobierania była główną różnicą pomiędzy Supplemental indeksem a naszym głównym indeksem. Inżynierowie z Google pracowali intensywnie nad rozwiązaniem tego problemu i zniwelowaniem różnic między indeksami, odnosząc sukces we wrześniu 2007. W chwili obecnej różnice są minimalne. Każdemu, kto by chciał wiedzieć więcej o tym, jak Google indeksuje i rankuje strony, polecam ten link :-)

CL: – Czy indeksacja podstron tylko za pośrednictwem mapy strony i dodania jej do Google Webmaster Tools może powodować, że taka podstrona automatycznie wpada w Supplemental Index? Czy mapa może być podstawowym, a nawet jedynym elementem procesu indeksacji witryny?

KS: Dodanie mapy strony nie ma wpływu na to, czy podstrona znajdzie się w Supplemental indeks. Również samo dodanie adresu do mapy strony, nie oznacza, że Google go pobierze. Jeden scenariusz, w którym dodanie mapy strony może okazać się przydatne, jest wtedy, kiedy Google rozpozna identyczne dokumenty w jednym serwisie. Wtedy jest bardziej prawdopodobne, że dokument zgłoszony w mapie strony będzie preferowany.

CL: – Czy prawdą jest, że linki ze stron z Supplemental Index nie przekazują wartości anchor text? Jak oceniasz wartość linków z takich stron?

KS: Ja bym sugerował webmasterom, żeby nie koncentrowali się za bardzo na Supplemental indeksie. Google stara się adekwatnie oceniać wszystkie linki napotkane w procesie pobierania zasobów sieci. Uważam, że te linki są równowarte z innymi.

CL: – Dlaczego strony zbanowane cały czas notują odwiedziny robotów Google?

KS: To naprawdę zależy od indywidualnego przypadku. Powiedzmy, że webmaster odpowiedzialny za stronę z oryginalną treścią, która może zainteresować użytkowników, ukrywał słowa kluczowe na niej, w celu zwiększenia ich gęstości, co jest wykroczeniem poza Porady Google dla Webmasterów. Jeżeli on/ona korzysta z bezpłatnych Narzędzi dla Webmasterów, jest szansa, że Google go/ją powiadomi o usunięciu strony z widocznych dla użytkowników wyników na określony okres czasu. Googlebot jednak nadal będzie pobierał tę witrynę po to, żeby w momencie, kiedy problem zostanie usunięty i podanie o ponowne rozpatrzenie wysłane, jej najświeższa kopia była dostępna.

CL: – Czy linki wzajemne typu A< ->B, B< ->A są naruszeniem wytycznych Google?

KS: Jeżeli mówimy o linkowaniu naturalnym, polegającym na tematycznym związku to nie widzę pogwałcenia żadnych Porad Google dla Webmasterów. Pamiętam przypadek strony weterynarza i strony hurtowni karmy dla zwierząt położonej niedaleko, linkujące do siebie nawzajem. Ponieważ odwiedzający jedną z tych stron potencjalnie mogą być zainteresowani treścią/ofertą drugiej, ta sytuacja wydaje się mieć sens. Inny przykład to forum graczy linkujące do sklepu z sukniami ślubnymi w Warszawie oraz do sieci hoteli all-inclusive w południowej Azji – w tym przypadku jest raczej mało prawdopodobne, że linki zostały nadane z myślą o użytkownikach. Ewidentnie drugi przykład stanowi pogwałcenie Porad Google dla Webmasterów. Chciałbym dodać, że algorytm do oceny tematycznego powiązania między linkami, nad którym pracowaliśmy, funkcjonuje dosyć dokładnie.

CL: – W momencie gdy do tego samego adresu URL prowadzą dwa linki o innych anchor text, położone w innych częściach witryny… który link przekaże PageRank?

KS: PageRank jest niezależny od anchor tekstów. Kilka linków do tego samego dokumentu może mieć minimalny wpływ na przepływ PageRank, ale nie traktowałbym tego priorytetowo podczas budowania strony. Witryny powinny być budowane z myślą o użytkownikach, nie o wyszukiwarkach. Dlatego najlepiej jest dodawać linki tam, gdzie to ma sens i nie zwracać uwagi na obliczenie PageRank. Więcej informacji na ten temat można znaleźć w oryginalnym dokumencie http://dbpubs.stanford.edu:8090/pub/1999-66. A wszystkim tym, którzy nadal się zastanawiają nad tą kwestią, radzę zrobić eksperyment w celu zbadania sytuacji w danej chwili.

(red. Ten test też już przeprowadziliśmy)

CL: – Co Google myśli o stosowaniu SEO Friendly programów partnerskich?

KS: Jak już wspominałem linki powinny być nadawane wyłącznie ze względu na zawartość ston, jeżeli mają być zgodne ze wskazówkami Gooogle dla Webmasterów. Czerpanie korzyści ze stron z dobrą treścią jest uzasadnione, jednak webmasterzy, którym zależy na pozycji ich stron w Google powinni korzystać z technicznych możliwości, jakie dają atrybut <nofollow> czy plik robots.txt, aby zapobiec przypadkowemu przepływowi PageRank.

CL: – Jaka jest polityka Google wobec idei Pay Per Post? Czy polski odpowiednik serwisów tego typu (krytycy.pl) powinien wprowadzić w swoich wytycznych obowiązek nadawania linkom w artykułach sponsorowanych atrybutu nofollow?

KS: Cytując Matta: „Płatne linki, które przekazują PageRank, obojętnie czy chodzi o linki tekstowe czy płatne recenzje, mogą spowodować utratę zaufania Google”. Nie mówiąc o żadnym konkretnym serwisie, webmasterzy, którym zależy na budowaniu reputacji i zaufaniu Google powinni zadbać o to, żeby linki na ich stronach nie wyglądały podejrzanie. Dodam, że zespół Search Quality zrobił znaczne postępy w rozpoznawaniu płatnych linków w ciągu ostatnich lat i nie przestajemy nad tym pracować.

CL: – Co myślisz o otagowaniu wszystkich linków wychodzących z wykop.pl tagiem nofollow? Teoretycznie jest to zbiór ciekawych, organicznych i użytecznych linków, które warto by zaindeksować… Często wykop.pl jest początkiem podobno akceptowalnego przez Google organicznego Link Bait… Co z tzw. SEO 2.0, skoro linki z największego polskiego serwisu WEB 2.0 mają atrybut nofollow?

KS: Jako Guglarz nie komentuję żadnych serwisów, jednak chciałbym podkreślić, że wygląda na to, że używanie atrybutu <nofollow> na stronach, na których użytkownicy mogą dodawać swoją treść staje się coraz bardziej branżowym standardem, szczególnie od czasu kiedy ogólnie uznane serwisy jak Wikipedia podjęły ten krok. Uważam, że jest również dobrą metodą do zniechęcenia spamerów do nadużywania takich serwisów do zdobywania podejrzanych linków.

Myślę jednak, że ręczne lub zautomatyzowane usuwanie <nofollow> na podstawie ustalonych kryteriów, na przykład gdy konkretny użytkownik zawsze dodawał dobrej jakości oraz tematycznie istotne linki, jest dobrym podejściem, które Google by doceniło.

CL: – Czy różne wersje językowe stron (umieszczone w podkatalogach, subdomenach) powinny linkować do siebie nawzajem w sposób czytelny dla Google?

KS: To pytanie pada regularnie, często w odniesieniu do wielojęzycznych stron o tematyce turystycznej. Wzajemne linkowanie dokumentów w różnych językach w podkatalogach lub poddomenach dla Googlebota w widoczny sposób nie spowoduje żadnych negatywnych konsekwencji dla pozycji strony.

Jeżeli już mówimy o różnych wersjach językowych: Jest metoda pokazania Google dokładniej, dla użytkowników którego kraju konkretna sekcja strony jest przeznaczona, korzystając z opcji „Ustaw docelową lokalizację geograficzną” w Narzędziach Google dla Webmasterów. Moja koleżanka Susan opisuje dokładnie jak to narzędzie funkcjonuje w video klipie opublikowanym kilka miesięcy temu. Dokładnie rzecz biorąc „Ustaw docelową lokalizację geograficzną” jest idealnym rozwiązaniem, jeżeli chcemy dotrzeć do użytkowników z danego regionu, aniżeli użytkowników mówiących w konkretnym języku. Nie chcę się powtarzać i roztrząsać szczegóły ponownie, jednak gorąco polecam to narzędzie wszystkim miejscowym przedsiębiorstwom oraz lokalnym społecznościom.

CL: – API Google Webmaster Tools, jakie kolejne elementy będą dostępne za pośrednictwem API?


KS: Google zawsze stara się udostępniać użytkownikom interesujące rozwiązania oraz polepszać istniejące produkty, więc nie zdziwiłbym się, gdyby zespół odpowiedzialny za Google API miał takie plany, jednak nic nie wiem o zbliżających się nowościach.

CL: Jaką widzisz przyszłość dla Grup dyskusyjnych Google Webmaster Tools? Czy chcesz przebić popularnością forum.optymalzacja.com ? ;) Czy widzisz jakieś zagrożenie w nowym serwisie otwartym na polskim rynku – Pomoc Google? Jest tam także dział „Wyszukiwarki”…

KS: Interesujące pytanie :-) Nie zamierzam konkurować z forum.optymalizacja.com. Jak wiesz kilka osób jest w znacznym stopniu aktywnych na obydwóch forach. Myślę jednak, że cele grupy oraz grona zainteresowanych różnią się nieco. Na forum Grupy Google dla Webmastwerów można spotkać raczej mniej zaawansowanych webmasterów szukających pierwszej pomocy oraz zgłaszających problemy, z którymi się spotkali, używając narzędzi Google. Pomoc Google to nowy, bardzo interesujący serwis. Miałem okazję obserwować jego rozwój przez kilka miesięcy i sądzę, że ostateczny rezultat jest bardzo obiecujący. Nie mówiąc o samym fakcie, że globalny Beta test jest przeprowadzany właśnie w języku polskim! Przyszłości Pomocy Google i Grupy Pomocy dla Webmasterów nie widzę w kategoriach konkurencji, a raczej koegzystencji, a może nawet połączenia obu platform jednego dnia. Każdemu zainteresowanemu tematem polecam uważnie śledzić wiadomości branżowe.

CL: – W którym kierunku według Ciebie będzie podążać SEO, co czeka nas za rok?

KS: Nie próbuję domyślać się, jakie kreatywne pomysły SEO mogą mieć. Jest to bardzo prężnie rozwijająca się branża i ciekawe rzeczy dzieją się codziennie. Jedyne czego jestem pewien to, że będzie interesująco

CL: – Jak oceniasz rozwój branży SEO w Polsce i świadomość polskich firm w tym zakresie, szczególnie dużych podmiotów e-commerce?

KS: Cieszę się, że o to pytasz. Podobnie jak u europejskich sąsiadów, na przykład w Niemczech czy w Czechach, w Polsce również powoli budzi się świadomość o SEO w dużych korporacjach. Na SMX w Monachium to wrażenie potwierdzali pracownicy agencji internetowych. Jeszcze nie jesteśmy na tym etapie, na którym chcielibyśmy być, ale rozwój jest pozytywny.

Jeżeli chodzi o rozwój SEO – Polska jest rozwijającym się rynkiem, bardzo szybko zmniejszającym dystans do sąsiadów.

CL: – Czy może dojść do takiej sytuacji, że wszystkie większe ecommercy będą miały optymalizację pod kątem SEO na zbliżonym poziomie i konkurencja sprowadzi się do technik na pograniczu spamu lub link-baitingu?

KS: Jest to spekulacja i nie odważę się prognozować, jaka będzie sytuacja. Z tego co widziałem na różnych rynkach przez ostatnie parę lat, wnioskuję, że nie należy oczekiwać zastoju w tej branży. Jest wiele bardzo inteligentnych, kreatywnych ludzi, którzy bez przerwy ulepszają swoje strony i wątpię, że kiedykolwiek przestaną to robić. Moim zdaniem ani żadne podejrzane metody, ani link-baiting nie będą końcem ewolucji, której będziemy świadkami.

Podczas dodatkowej rozmowy telefonicznej Guglarz udzielił nam jeszcze kilku innych informacji:

Guglarz prosił aby polscy webmasterzy zrozumieli że linki prowadzące do witryny a linki zliczane przez Google przekazujące Page Rank i mające wpływ na pozycje to dwie diametralnie różne sprawy.

Delikatnie podpytaliśmy także Kacpra o ostatnie filtry, i w jego opinii nie ma mowy o żadnym celowym, świadomym działaniu Google.

Na koniec pochwalę się przesyłką z kolejnym prezentem od Google, który dotarł jakieś 2 miesiące temu:

Paczka od Google Przesylka pocztowa od Google Pendrive prezent od Google Pozdrowienia od Guglarza

Tym razem Guglarz podesłał bluzę oraz pendrive. Dzięki.

Artykuł Ekskluzywny wywiad z polskim pracownikiem Google o pozycjonowaniu pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Pracownicy Google o pozycjonowaniu – wywiad w pigułce

Dwa dni temu Mariusz Gąsiewski umieścił na swoim blogu link do czatu przeprowadzonego przez zespół Google Webmaster Help. Poruszone tematy dotyczyły wyszukiwania, pozycjonowania i SEO oraz komunikacji z Google za pośrednictwem Grup Dyskusyjnych dla Webmasterów.

Na pytania odpowiadali znani i uznani pracownicy Google, tacy jak:

  • Matt Cutts
  • Adam Lasnik
  • Michael Wyszkomierski – cały czas się zastanawiam czy Michael ma jakieś polskie korzenie… ;)
  • Susan Moskwa
  • Matt Dougherty, Maile Ohye, John Mueller, Reid Yokoyama, Bergy Berghausen, Pedro Dias, Mariya Moeva

Przeanalizowaliśmy dla was ponad setkę pytań, przebrnęliśmy przez 6746 słów, łącznie kilkanaście stron A4 i wyciągnęliśmy z tego esencję. Wszystkie pytania warte uwagi przedstawiamy w poniższym wpisie dla leniwych pozycjonerów.

Wpływ ruchu na rankingi i SEO

Question: Suppose you rank #1 for inanchor: intitle: and intext: But for just the keyword phrase you’re on second page. Any tips on what to do to get up for just the phrase as well?
A (Matt Dougherty): Hi Peter, echoing what John just talked about, I’d say making sure your content is useful to users is the best approach.

Załóżmy że jesteś pierwszy na zapytania inanchor: intitle: intext: lecz pod zapytanie na samo słowo kluczowe (bez parametru) jesteś drugi. Jakieś wskazówki co zrobić żeby dostać się na szczyt ?
Upewnij się że zawartość Twojej strony jest użyteczna dla użytkowników.

Czy czynnikiem decydującym o doświadczeniach użytkowników jest badanie ruchu userów ?

Q: Does Google’s knowledge of a site’s web visitor activity (via Google Analytics) affect SERPs?
A (Susan Moskwa): No it doesn’t.

Google utrzymuje że nie… odpowiadając przecząco na pytanie:
Czy wiedza Google na temat ruchu użytkowników (Google Analytics) wpływa na wyniki wyszukiwań ?

Indeksowanie plików CSS a roboty Google

Z mojego punktu widzenia bardzo ciekawa informacja…

Q: if the site is designed with css, does the crawler throw out the .css and look only at the HTML?
A (Matt Cutts): Typically we wouldn’t crawl CSS, Kien, but in a few limited circumstances we can (e.g. if we’re checking for hidden text).

W momencie gdy strona jest stworzona w CSS, czy robot omija plik .css i patrzy tylko na źródło HTML?
Zazwyczaj Google nie indeksuje CSS, lecz w kilku ograniczonych przypadkach jest to możliwe (np. gdy Google sprawdza ukryty tekst).

Automaty zasysające wyniki Google, spersonalizowane wyniki, sprawdzanie duplicate content

Szczere pytanie nieświadomego user’a ;) :

Q: Hi, I am not sure is it good question at this moment, but am i allowed to crowl Google result?
A (Susan Moskwa): Making automated queries to our web search results is against Google’s Terms of Service.

Czy mogę indeksować i pobierać wyniki wyszukiwania Google ?
I standardowa odpowiedź Google:
Kierowanie automatycznych zapytań do Google jest sprzeczne z warunkami korzystania.

Ja natomiast sprawdziłem czy Google samo wypełnia woje własne wytyczne… i okazuje się że tak, oto plik robots.txt Google.com (warto zajrzeć ;) ).

Q: Does &pws=0 still turn off personalized results?
A (John Mueller): Yes, as far as I know.

Czy paramter &pws=0 [umieszczony w adresie URL zapytania skierowanego do Google] wyłącza spersonalizowane wyniki wyszukiwań ?
Tak

 Q: Does page load time have any effect in organic rankings?
A (Maile Ohye): Hi Michael, page load time is important for user satisfaction (they may leave the site if it’s too slow). For Google at this time, it’s not considered a signal for ranking. We’re always looking to improve the user experience, however, so if you keep
A (Maile Ohye): your page load time down, users and search engines will continuously be happy!

Czy czas ładowania strony ma jakiś wpływ na wyniki organiczne ?
Generalnie jest to ważny czynnik z punktu widzenia użytkownika tak więc dla Google też może mieć znaczenie.

Ze swojej strony tylko dodam, że ostatnio czas ładowania witryny stał się kolejnym czynnikiem mającym wpływ na Quality Score reklam AdWords.

Q: What’s the best way to check to see if your content is duplicated (accidentally or by someone else). Is there a tool you can input a URL and check for duplicate content?
A (Susan Moskwa): Try taking a fairly long string of text from your website, and searching for it in quotes on Google. The longer the sentence is, the more likely it is to be unique to your site (so it’s an easy way to see what other sites have that same content).

Jak najlepiej sprawdzić czy kontent jest powielony ? Czy jest jakieś narzędzie gdzie można podać adres URL i sprawdzić czy treść jest powielona ?
Weź dłuższy fragment tekstu ze swojej strony
[o ile dobrze pamiętam maksymalna długość zapytania w Google to 8 słów bez tzw. Stop Words] wyszukaj w Google, im dłuższe zdanie tym bardziej unikalny kawałek treści. Zdanie warto wpisać w cudzysłowiu: „”.

Przekierowania 301

Q: Is there any limit on the number of redirections 301, a Web site?. In a large site, if you change the URL structure, is the optimum time to do it with 301? or is best done gradually
A (Matt Cutts): There’s no per-page limit on the number of 301s you can do, so you could move 100K pages to 100K new location. However, if we see a really long chain of redirects, eventually we will decide to stop following the chain.

Czy jest jakiś limit ilości przekierowań 301 na jedną stronę ?
Nie ma limitu przekierowań 301 na stronę , więc możesz przekierować 100 000 stron na 100 000 nowych lokalizacji. Jednak gdy Google widzi długi łańcuch przekierowań może zaprzestać podążania za przekierowaniami.

Q: If you have a domain that has a PR of 4 and I 301’d it to my new site, why hasn’t any of the „link juice” passed off or the PR? It’s been a few months now.
A (John Mueller): This can take more than a few months.

Z tego co zrozumiałem pełna moc przekierowania zostaje przeniesiona co najmniej po kilku miesiącach…

Q: do you care how many 301’s there are? Can we take thousands of pages and 301 them?
A (Susan Moskwa): It’s okay to have multiple pages that redirect; but you should try to avoid multiple redirects one one URL (e.g. A -> B -> C -> D)

Czy ma znacznie jak dużo przekierowań 301 skierujemy na stronę ? Czy możemy przekierować poprzez 301 tysiące stron ?
Można przekierować wiele stron lecz należy unikać [wspomnianych wcześniej] łańcuchów przekierowań typu A ->B -> C -> D.

Analiza gęstości słów kluczowych – keyword density

Kolejny ciekawy fragment na temat wagi gęstości słów na naszych stornach. Moim zdaniem jest to kolejny mit powszechny wśród polskich webmasterów:

Q: Hi Matt, Are there any guidelines available on keyword density we have pages that are about 1 single subject and the keyword density is quite high
A (Matt Cutts): Antony, you may not believe this, but we tend not to think much about KW density here at Google, b/c our algorithms handle it pretty well. My advice is to pull in an innocent/non-search friend and have them read the text. If they raise their eyebrow, …

Czy są dostępne jakieś wytyczne na temat gęstości słów kluczowych ?
Google stara się nie zwracać szczególnej uwagi na gęstość słów kluczowych, algorytmy radzą sobie z tym całkiem dobrze…

Red.: Piszmy dla ludzi nie dla wyszukiwarek ;).

Stosowanie znacznika rel=”nofollow”

Q: With the increasing amount of sites using nofollow tags. Is Google looking at those links and taking anything away, like anchor text?
A (John Mueller): We ignore links that have the rel=nofollow microformat.


W świetle rosnącej ilości stron używających tagu nofollow, czy Google patrząc na te linki bierze z nich cokolwiek pod uwagę ?
Google ignoruje linki rel=”nofollow”.

Ciągnąc dalej praktycznie to samo pytanie…

Q: Does googlebot ignore links that use the nofollow tags or does googlebot follow the links and not assign any value to the link?
A (John Mueller): We ignore links with rel=nofollow

Czy Google ignoruje linki używajce nofollow ? Czy Googlebot podąża tym linkiem lecz nie przypisuje mu żadnej wartości ?
Google ignoruje linki rel=”nofollow”.

Domeny, adresy URL, końcówki adresów

Q: Does GoogleBot tend to have a preference for long or short filenames/directory names?
A (Pedro Dias): Hi Quentin. No Googlebot doesn’t have preference on short or long filenames/directory names, usualy short names are preferred by users for usability purposes.

Czy Googlebot ma jakieś wytyczne odnośnie długich lub krótkich nazw plików i katalogów ?
Nie GoogleBot nie zwraca na to uwagi, względy użytecznościowe sugerują jednak aby stosować krótsze nazwy…

 Q: Why does the url name matter? Why would say wordword.html be ranked any different than word-word.html? or does it?
A (John Mueller): I think both would be mostly equivalent.

Dlaczego nazwa adresu URL ma znaczenie ? Dlaczego są różnice pomiędzy adresem slowoslowo.html a slowo-slowo.html ?
Zdaniem Google pozycje obydwu URLi powinny być zbliżona.

 Q: Does Google favor .html over say .php or do you treat all URL’s the same
A (Bergy Berghausen): A URL is a URL. As long as it’s serving content we can read, Googlebot doesn’t care what the file extension is.

Czy Google preferuje strony .html ponad .php ?
URL to URL, tak długo jak jest tam treść dla Google nie ma znaczenia końcówka adresu URL.

Q: for urls, i have spaces in my URLs
A (John Mueller): I would recommend not using spaces in URLs.

Mam spacje w URL’ach…
Google zaleca usunąć spacje w adresach URL.

 Q: I know that generally .edu and .gov sites rank better than if they were .com or .org; but is there a similar ranking boost that is given to nonprofits?
A (Matt Cutts): Eric, there’s no „.edu boost” that looks at the .edu alone and just boosts for that.

Wiemy że strony .edu i .gov otrzymują lepsze rankingi niż strony .com lub .org. Czy jest to podobny bonus dla stron nonprofit ?
Nie ma żadnego tzw. „.edu boost” wynikającego z samego faktu TLD domeny.

Q: Does the location of your site hosting affect the local results your site shows up for?
A (Susan Moskwa): Yes, it may. We look at server location and ccTLD among other factors

Czy lokalizacja serwera ma wpływ na lokalne wyniki wyszukiwań ?
Tak jest taka możliwość. Google zwraca uwagę na lokalizację serwera a także na rozszerzenie TLD domeny.

Q: Hi Googlers, does your algorithm give more importance to a link from a .com as compared to .info?
A (John Mueller): Links are links :)

Czy algorytm Google daje większa moc linkom .com niż linkom .info ?
Link to link… :)

Linkowanie

Q: Is the incoming links list in Google Webmaster Tools an accurate estimator of all the incoming links that Google thinks as a backlink?
A (Susan Moskwa): It’s a sampling of your incoming links that we know about, not always 100%.

Czy linki prowadzące do witryny wyświetlane w Google Webmaster Tools jest odpowiednikiem wszystkich linków które widzi Google ?
Są to przykładowe linki o których wie Google, nie zawsze jest to 100%.

Meta Tagi

Q: If a site had a noindex meta tag and was removed from the index, how long before it could come back into the index? Would that removal carry over to another domain if that site was 301’d to a new site?
A (Maile Ohye): Hi Brian, the site (or just one URL) can return to the index once it’s recrawled with the noindex tag removed. Also, you can’t really noindex a separate domain, even if you 301 (so no mean webmasters can easily exclude your domain from being indexed).

Jeśli strona posiada meta tag noindex i została usunięta z indeksu jak szybko może wrócić do indexu ? Czy usunięcie z indeksu utrzyma się nawet wówczas gdy domena zostanie przekierowanie na inną stronę ?
Strona lub adres URL może wrócić do indexu jak tylko Google zauważy usunięcie tagu noindex.

Q: Does GEO meta data impact geo targeting?
A (John Mueller): No, we don’t read that meta tag at the moment.

Czy GEO meta tag ma wpływ na wyniki wyszukiwań ?
Nie Google nie zwraca uwagi na ten meta tag.

Q: did i hear matt correctly to ignore focusing on keyword metatags?
A (Susan Moskwa): Yes

Czy należy ignorować keyword meta tag ?
Tak.

Katalogi – dodawanie stron do katalogów

Q: is directory submission still a good way to build links? or its not recommended?
A (Pedro Dias): Hi Ernest, I’d be very selective choosing directories. I’d rather recommend building links naturally and by merit.

Czy dodawanie do katalogów jest cały czas dobrą drogą budowania linków ? Czy jest zalecaną metodą ?
Zdaniem Googlersów trzeb być bardzo rozważnym przy doborze katalogów. Google rekomenduje naturalne formy pozyskiwania linków.

Q: Pedro you mentioned that you would selective in choosing directories could you advise on few selected ones you would go with?
A (Pedro Dias): Hi Ernest. I’d probably look at Dmoz and Yahoo Directory… High quality directories.

Zdaniem Googlersów katalogi warte polecenia to DMOZ, Yahoo oraz inne wysokiej jakości katalogi.

W odniesieniu do wpisu: Pozycjonowanie to nie SPAM :)

Q: So „Officially”, Google sees SEO as having a future?
A (Matt Cutts): Certainly, as long as the SEO is whitehat.

Czy pozycjonowanie ma przyszłość ?
Generalnie tak długo jak SEO jest white hat.

Q: is Google using ip to trigger localized search results
A (John Mueller): Yes.

Czy Google używa lokalizacji IP do prezentowania lokalnych wyników wyszukiwań?
Tak.

Q: hi we think our competitor has been sending lots of false links to our site „google bowling” can this effect us and how can we check on this?
A (John Mueller): I would not worry about these links.

Podejrzewamy że nasz konkurent dodaje do naszej strony linki z tzw. ciemnych stron internetu stosując tzw. technikę „google bowling”, czy można coś zrobić ?
Zdaniem Googlersów nie ma się czym przejmować.

Czyli dodawanie linków do konkurencji z np. stron porno nie powinno negatywnie wpłynąć na pozycję.

I na koniec… sympatyczny żart ;P…

Q: WHAT ARE THE 3 MOST INPORTANT THINGS TO DO TO EARN A GOOD PAGERANK?
A (Mariya Moeva): Content, content and content (:

Ufff… mam nadzieję że się podobało.
W razie pytań piszcie w komentarzach…

Artykuł Pracownicy Google o pozycjonowaniu – wywiad w pigułce pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Pozycjonowanie i optymalizacjia obrazków w Google Images

Ostatnio bardzo często poruszamy tematy zawiązane z długim ogonem i trendami w wyszukiwarkach. Tymczasem istnieje jeszcze jedno ciekawe i często zaniedbywane a w naszej opinii bardzo wartościowe źródło ruchu – Google Images. W dzisiejszym wpisie przybliżamy metody pozycjonowania i optymalizacji w wyszukiwarce grafiki – images.google.pl.

O pozycjonowaniu obrazków pisał jakiś czas temu Mariusz Gąsiewski w artykule: Pozycjonowanie szerokie obrazków. W naszym wpisie rozszerzamy to pojęcie o kolejne bardziej szczegółowe czynniki.

Czynniki o domniemanym wpływie na pozycje grafiki w Google Images:

Czynnik

Rozwinięcie

Alt Tag obrazka Opisuje wyszukiwarce o czym jest obrazek, dobrze gdy opis jest możliwie unikalny i precyzyjny, 4-6 słów.
Podlinkowanie obrazka Świadczy o jego większym znaczeniu lub o roli nawigacyjnej w obrębie witryny.
Title obrazka Tytuł wyświetlający się po najechaniu i przytrzymaniu myszki nad obrazkiem. W tytule należy rozszerzyć opis z tagu Alt.
Text otaczający obrazek a także standardowe elementy wartościowania treści takie jak: pogrubienia, tagi hx, itp…
Nazwa pliku graficznego Czyli np.:
/pozycjonowanie-obrazkow.jpg
Tytuł strony Znacznik Title strony na której znajduje się obrazek
Folder w którym znajduje się obrazek domena.pl/poznan/pozycjonowanie.jpg
domena.pl/zdjecia/pozycjonowanie.jpg
Świeżość obrazków Na SearchEngineWatch.com można znaleźć sugestię, iż świeżość uploadu obrazka może mieć wpływ na pozycje obrazków – mam jednak pewne wątpliwości co do słuszności tej tezy.
Wielkość obrazka Dobre jakościowo obrazki mają większą szansę na dobrą pozycję.
Ilość obrazów na stronie Im mniej obrazków tym ranga i powiązanie tematyczne poszczególnych grafik odpowiednio wzrasta.

Uwagi:

Aby zwiększyć prawdopodobieństwo zaindeksowania zdjęć obecnych na naszej stronie warto włączyć w Google Webmaster Tools opcję rozszerzonego wyszukiwania obrazków. Zakładka: Tools >> Enhanced image search.
Rozszerzone wyszukiwanie grafiki Google Webmaster Tools

Zaznaczenie powyższej opcji sprawia, że stnieje duża szansa, iż nasze obrazki pojawią się w grze Google: Image Labeler. Gra polega na jak najszybszym tagowaniu obrazków (Tagi należy wpisywać w języku angielskim) wygrywa ten użytkownik który to zrobi szybciej i dokładniej.

Jeśli zależy nam na wysokim stopniu indeksacji zdjęć w Yahoo to warto pomyśleć o Flickr.com – dla zainteresowanych polecam ten artykuł – Using Flickr to optimize for Yahoo image search

Pamiętajcie że indeksowanie obrazków trwa znacznie dłużej i na efekty optymalizacji czasami trzeba czekać nawet kilka miesięcy.

Polecam także zapoznać się z ciekawym rozwiązaniem utrudniającym hotlinkowanie naszych obrazków – lub inaczej mówiąc – Link za Hotlink ;) – How to use hotlinkers and Google Images to build natural links to your site. Wersja dla leniwych – kliknij prawym przyciskiem na obrazek znajdujący się pod tym linkiem – .

Materiały źródłowe:
SEO top tip: Get results from image optimization for SEO
How To Optimize Images For Search Engines, Social Media and People.

Artykuł Pozycjonowanie i optymalizacjia obrazków w Google Images pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Anchor tekst w linkach SEO

Wzrost znaczenia analizy i zbieżności tekstowej linkujących witryn wraz z jednoczesnym wzrostem wpływu ruchu generowanego przez linki na ich moc pozycjonerską może zrewolucjonizować wyniki wyszukiwań. Google szuka sposobów na zmniejszenie wpływu klasycznego anchor text. Przygotuj się na te zmiany już dziś, tworząc linki, które są klikane. Jak zwiększać CTR linków?

Do dzisiejszego wpisu zainspirował mnie artykuł dostrzeżony w serwisie Sphinn.com, czyli Digg’u dla SEO-wców, SEM-owców i innych spamerów ;).

Dostrzeżony tekst nosi nazwę Much Ado about Anchor Text. Artykuł porusza kwestię Anchor Textu linków prowadzących do witryn, czyli czynnika o największym potencjale wpływu na pozycje stron internetowych w wyszukiwarkach. Autor wspomina, iż po ostatnich wpadkach i „update’ach” związanych z Google Bombs wyszukiwarka szuka sposobów na zmniejszenie wpływu czynnika jakim jest Anchor Text na pozycję stron.

Dla początkujących: nie wiesz co to jest Anchor text?
Kliknij i dowiedź się więcej

Teza artykułu opiera się o Patent wyszukiwarki o nazwie: „Personalizing anchor text scores in a search engine

An anchor text indexer 217 is responsible for generating an inverted anchor text index 211 from the links in each document received by the server 210, including the text surrounding the links. The links and corresponding text are extracted from each document and stored in records identifying the source document, the target document associated with a link, and the anchor text associated with the link. When a sufficient number of such records have been accumulated, an inverted anchor text index 211 is generated, mapping anchor text terms to the documents that are the target of the corresponding links. In some embodiments, the inverted anchor text index 211 is merged with or incorporated in the inverted content index 208. More information about anchor text indexing is provided in U.S. patent application Ser. No. 10/614,113, filed Jul. 3, 2003, „Anchor Text Indexing in a Web Crawler System”, which is hereby incorporated by reference.

Zacytowany fragment patentu sprowadza się do analizowania tekstu i słów kluczowych otaczających link i wyznaczanie Realnego Anchor’a (Real Anchor) linku na podstawie czynników innych niż tradycyjny tytuł (anchor) linka.

Anchor Text a traffic

Zmniejszenie roli Anchor Text oraz wzrost znaczenia analizy i zbieżności tekstowej linkujących witryn wraz z jednoczesnym wzrostem wpływu ruchu generowanego przez linki na ich moc pozycjonerską może faktycznie zrewolucjonizować wyniki wyszukiwań! Także Paweł Kobis opisuje wzrastające prawdopodobieństwo mierzenia klikalności linków co w połączeniu z ze wspomnianym Patentem Google może przynieść spore zmiany w SERP’ach.

Tezy odważne, lecz im więcej czasu mija od ostatniego katastrofalnego w skutkach Folrida Update tym bardziej niepokoję się o kolejny poważny update algorytmu. Nad skutkami dla branży SEO/SEM takiego upadte’u zastanawiał się ostatnio Jeż w swoim blogowym wpisie – Co zrobisz gdy Google zakręci kurek?

Podnoszenie CTR linka, czyli copywriting anchor text

Odnośnie klikalności linków pojawił się ostatnio bardzo ciekawy wynik testu na stronach Marketing Sherpa mówiący, iż drobna zmiana tytułu linka (anchoru) w mailingu spowodowała wzrost kliknięć o 8% !

Can the wording used in your newsletter’s hyperlinks make a difference in clickthrough rates? The answer is yes. Turns out that the right two or three click link words can lift your clickthroughs by more than 8%. Here are our notes on an experiment we did so you can try this easy test on your own newsletters.

Co więcej możemy zobaczyć dokładny wpływ anchorów na klikalność:

  • “Click to continue”: 8.53%
  • “Continue to article”: 3.3%
  • “Read more”: -1.8%

Widzimy więc wyraźnie, że klikalność jest bezsprzecznie uzależniona od anchora linka. Tym samym można powiedzieć że po SEO Copywritingu, Presell Pages i Optymalizatorze stron docelowych w AdWords branża SEO, SEM wkracza coraz bardziej w obszar Copywritingu i ciągłego testowania. Zadanie domowe do odrobienia – co zrobić, żeby link był klikany i jednocześnie niosący wartość SEO? O sugestie proszę w komentarzach.

Przyszłość… ?

Reasumując, najwyraźniej powoli w naszych strategiach linkowych należy zacząć uwzględniać naturalne, generujące wysoki CTR anchor texty a słowa kluczowe które tradycyjnie występowały w anchorze powinniśmy umieszczać w tekście otaczającym linki! Myślę że, w tym kierunku będą szły dalsze zmiany w Google i już teraz zachęcam was do wdrażania tych rozwiązań.

Przeczytaj więcej:

  • Choosing your anchor text
  • Click Here – Natural Link Profile
  • Click Here – CopyBlogger.com
  • Click Here – BruceLay.com

Artykuł Anchor tekst w linkach SEO pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Praca w Google: sprawdź czy nadajesz się na Googlersa!

W książce The Google Story został umieszczony ciekawy dodatek zawierający test któremu są poddawani kandydaci na stanowiska w Google Labs czyli tzw. GLAT – Google Labs Aptitude Test. W dzisiejszym wpisie pozwoliliśmy sobie zacytować kilka ciekawszych fragmentów tego testu dobrze oddających kulturę pracy w Google. Test może być również interesujący dla osób na co dzień pracujących w działach rekrutacji.

GLAT Google Labs Aptitude Test

4. Znajdujesz się w labiryncie złożonym z krętych, jednakowych korytarzyków. Masz pod ręką przykurzonego laptopa z kiepskim łączem bezprzewodowym. Po labiryncie krążą bez przekonania pół żywe krasnale. Co waść uczynisz ?

a) Wędrujesz do celu, wpadając na przeszkody i kończąc w żołądku wrzaka.
b) Używając laptopa jako prowizorycznej łopaty, dokopujesz się do następnego poziomu.
c) Grasz w sieciowe RPG, dopóki baterii i nadziei starczy.
d) Przy pomocy komputera opracowujesz mapę labiryntu i namierzasz ścieżkę prowadzącą do wyjścia.
e) Wysyłasz e-mailem swoje CV do Google, informujesz szefa krasnali że odchodzisz i odkrywasz świat nowych możliwości.

5. Co Ci się nie podoba w Unix’ie ? Jak byś go ulepszył ?

8. Na ile różnych kolorów można pomalować dwudziestościan korzystając z trzech kolorów ? Każda ściana musi być jednobarwna.
Jakie kolory byś wybrał?

9. Ramkę poniżej celowo pozostawiono pustą, abyś mógł ją wypełnić czymś lepszym od owej pustki.

12. Który z wyprowadzonych w historii ludzkości wzorów jest według Ciebie najpiękniejszy?

14. Na czym będzie polegać następne przełomowe odkrycie w technologiach wyszukiwania?!

W teście znajduje się także kilka pytań wymagających większego wysiłku:

1. Rozwiąż równanie zdając sobie jednocześnie sprawę, że cyfry symbolizowane przez M i E można zamienić miejscami. W, G i D, nie są równe 0

WWWDOT – GOOGLE = DOTCOM

16. Jak przy pomocy cyrkla i linijki wyznaczyć w obrębie trojkąta ABC punkt P, tak żeby trójkąty ABP. ACP, i BCP miały równe obwody? Załóżmy że zadanie jest rozwiązywalne.

20. Jaka liczba powinna być następna w ciągu 10, 9, 60, 90, 70, 66 ?

a) 96
b) 100000000000000000000000000000000000000000000000000000000000000000
0000000000000000000000000000000000000000000000
c) Obie powyższe
d) Żadna z powyższych

Odpowiedzi na pytania znajdziecie tutaj.

Resztę pytań znajdziecie w książce The Google Story lub na Oficjalnym Blogu Google.

Historia Google - The Google Story

Na koniec ciekawy test sprawdzający jak bardzo Geek jesteś ;) – Geek Test
A także How Addicted to blogging are you ?

Artykuł Praca w Google: sprawdź czy nadajesz się na Googlersa! pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

10 meta tagów do pozycjonowania stron

Pamiętam dni, kiedy zaczynałem „robić” swoją pierwszą stronę internetową. Pamiętam także, jak dużą uwagę zwracałem wówczas na poszukiwanie coraz to nowych tajemnych meta tagów, które to w magiczny sposób wypromują moją stronę na pierwsze miejsca wyników wyszukiwań. Szybko zdałem sobie sprawę, iż takie meta tagi nie istnieją! Dlaczego w polskim internecie cały czas panuje przekonanie, że pozycjonowanie ogranicza się do meta tagów? Meta Tagi to kolejny po Page Rank mit z którym zaczynamy walczyć

Na początek krótka definicja z Wikipedii czym są meta tagi (meta znaczniki)

Znaczniki META w języku HTML
Meta tag – zbiór znaczników w części nagłówkowej dokumentu używanych do opisu ich zawartości, stosowany przy tworzeniu stron internetowych w formacie HTML.

Za ich pomocą można zdeklarować e-mail autora strony, imię i nazwisko autora strony, datę powstania strony itp. Można również zdeklarować kodowanie strony ( np. ISO-8859-2 ).

Tym co wyróżnia pseudo pozycjonerów oraz pozycjonerów z allegro od prawdziwych fachowców jest przywiązywanie zbyt dużej uwagi do meta tagów. Wiedza większości tego typu „pozycjonerów” zatrzymała się 3-4 lata temu w czasach kiedy meta tag faktycznie sporo znaczył. Na dzień dzisiejszy jest zaledwie kilka meta tagów o których należy pamiętać i które faktycznie mają wpływ na wyniki wyszukiwań. Poniżej opisujemy te meta tagi, które naszym zdaniem są warte uwagi:

Tytuł strony

<title></title>

Tag o kluczowym wpływie na pozycję witryny w wynikach wyszukiwań. Poprawnie skonstruowany Title często wystarcza do osiągnięcia pozycji w pierwszej dziesiątce wyników wyszukiwań dla mało konkurencyjnych fraz. Warto wspomnieć, iż Tag ten ma także kluczowy wpływ na klikalność linków prezentowanych przez Google, warto sprawdzać różne Title i mierzyć klikalność poszczególnych tytułów.

Opis strony

<meta name="Description" content="Opis strony">

Meta tag nie ma wpływu na wyniki w wyszukiwarce Google. Jednak dobrze skonstruowany znacznie poprawia klikalność wyświetlanych przez wyszukiwarkę wyników.

Aktualizacja: Na blogu Google pojawił się bardzo ciekawy wpis na temat meta tagu Description.

Słowa kluczowe


<meta name="Keywords" content="Słowa kluczowe">

Meta tag pomijany przez roboty Google, cały czas ma pozytywny wpływ na pozycje w wyszukiwarkach takich jak onet czy netsprint.

Noindex, Nofollow

<meta name="robots" content="noindex,nofollow">

Meta tag ograniczający dostęp robotów do strony www:

noindex – konkretna podstrona na której jest umieszczony ten tag nie jest indeksowana przez wyszukiwarkę lub zostanie wyindeksowana.

nofollow – robot Google nie podąża za linkami obecnymi na podstronie na której tag jest obecny.

Powyższe funkcje można także umieścić w pliku robots.txt. Funkcje „index”, „follow”, „all” są domyślnymi ustawieniami dla robota indeksującego Google tak więc nie jest konieczne wpisywanie tych elementów do meta tagów.

Noodp

<meta name=”robots” content=”noodp”>

Powyższy tag powoduje, iż Google nie zmienia samodzielnie wyświetlanego Tytułu witryny na tytuł ustalony przez redaktora katalogu DMOZ – Open Directory Project.

Warto pamiętać także o tagu <meta name="robots" content="noydir" />, który działa w wyszukiwarce Yahoo i powoduje, iż Yahoo nie używa tytułu z katalogu Yahoo Directory dla stron obecnych w wynikach wyszukiwań.

Verify

<meta name="verify-v1" content="Indywidualny numer użytkownika">

meta tag weryfikujący właściciela strony, konieczne przy dodawaniu strony do Centrum dla Webmasterów. Powyższy meta tag generuje jednak czasami problemy przy walidacji witryny tak wiec warto pomyśleć o umieszczeniu pliku html o odpowiedniej nazwie.

Unavailable_after

<meta name="googlebot" content="unavailable_after: 31-Dec-2007 23:59:59 EST">

Unavailable after – jest najnowszym meta tagiem oficjalnie obsługiwanym przez Google. Jego funkcja sprowadza się do wykluczania z indeksu stron które są już nieaktualne… Ciekawą funkcjonalność tego tagu zauważył Shpyo.

W mojej opinii przy pozycjonowaniu stron w Google pomocne są tylko wyżej wymienione meta tagi, nie warto zawracać sobie głowy innymi znacznikami a tym bardziej umieszczać w tych meta tagach słów kluczowych. Z moich obserwacji wynika, iż żadne inne Meta Tagi nie mają wpływu na wyniki wyszukiwań.

Ciekawy jestem waszych obserwacji odnośnie Meta Tagów, zapraszam do komentowania.

Linki:
Oficjalne dokumenty o meta tagach na stronach pomocy Google.

Matt Cutts o tagu „noodp”

New robots.txt feature and REP Meta Tags

How To Use HTML Meta Tags

——————————————————————

Aktualizacja (2010): Google wprowadziło 2 nowe metatagi, które będą wykorzystywane przez Google News:

meta name=”syndication-source” content=”http://www.domena.pl/artykul.html”
meta name=”original-source” content=”http://www.domena.pl/artykul.html”

Początkowo ich wpływ nie będzie widoczny, gdyż są to metatagi eksperymentalne i przez początkowy okres Google będzie jedynie obserwować, w jaki sposób webmasterzy ich używają. W przypadku wykrycia naruszeń w stosowaniu nowych metatagów, możliwe jest nawet całkowite wykluczenie strony z Google News.

Dotychczas w celu wskazania źródła informacji, z których korzystaliśmy przy pisaniu artykułów czy aktualności, musieliśmy wstawić aktywny link przekazujący PR prowadzący bezpośrednio do kopiowanego tekstu. W ten sposób Google miał określić, która ze stron zawierała oryginał, a która kopię.

Kolejnym sposobem na to był tag canonical, początkowo używany tylko w obrębie tej samej domeny, a później także między domenami. Nowe  metatagi pozwolą na lepsze wyświetlanie stron w Google News.

Kiedy używać metatagu „syndication-source„?

  • kiedy umożliwiamy innym przedruk naszych artykułów – w takim przypadku należy poinformować inne serwisy, aby umieściły ten sam metatag na swoich stronach;
  • kiedy publikujemy przedrukowany artykuł – wstawiamy metatag wskazując na źródło informacji;
  • kiedy publikujemy przedrukowany artykuł, ale nie znamy dokładnego adresu podstrony – wystarczy wtedy powołać się na stronę główną.

Kiedy używać metatagu „original-source„?

  • kiedy wskazujemy na źródło, które opublikowało daną wiadomość jako pierwsze.

W przeciwieństwie do „syndication-source”, metatag „original-source” można użyć kilkukrotnie powołując się na wiele źródeł.

Aktualizacja na podstawie wpisu Marty Gryszko.

Szczegółowe informacje na temat nowych metatagów znajdują się w pomocy Google.

 

Artykuł 10 <em>meta tagów</em> do pozycjonowania stron pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Czy Google PageRank to ściema? 4 argumenty na TAK!

Od dłuższego czasu konsekwentnie staram się propagować pogląd, iż Google Page Rank jest pustym nic nieznaczącym parametrem. Pisałem o tym problemie dosyć szeroko kilka miesięcy temu. W poniższym artykule wracamy do tego tematu przedstawiając kolejne argumenty podważające wagę tego czynnika.

Jakiś czas temu miałem okazje uczestniczyć w szkoleniu Digital Training Academy z zakresu zaawansowanego marketingu internetowego organizowanego przez Internet Advertising Berau Polska. Wykłady prowadzone były w języku angielskim przez dwóch doświadczonych trenerów z Anglii: Danny Meadows-Klue (założyciela IAB w Europie od kilkunastu lat związany z branżą internetową) oraz Ann Stanley (Specjalistka od Kampanii Google AdWords). W trakcie szkolenia Danny przedstawił m.in. główne założenia algorytmu Page Rank, opisał metodę działania oraz wagę czynników wpływających na uzyskiwany przez stronę wynik Page Rank. W trakcie przedstawiania wątku wykładowca poruszył jednak kilka kwestii z którymi ciężko jest się zgodzić. Nie chciałem zakłócać przebiegu szkolenia, w związku z czym wstrzymałem się z prezentacja zastrzeżeń do tego momentu.

Myślę, iż drobne błędy merytoryczne czy też niedopowiedzenia z zakresu algorytmu Page Rank nie wynikały z niewiedzy Dannego a raczej z zapożyczenia pechowego rozdziału z podstawowej wersji szkoleń, które nasi trenerzy prowadzą zdecydowanie częściej. Nie mniej jednak poniżej prezentuje (także 25 innym uczestnikom owego szkolenia) w formie możliwie przystępnej cztery mocne argumenty dla których Toolbarowym Page Rankiem nie należy się w ogóle przejmować:

Page Rank równanie matematyczne aktualizowane raz na 3 miesiące

1. Page Rank jest równaniem matematycznym wyliczającym powyższy wskaźnik tylko na podstawie linków.
Linki aktualizuje raz na 3 miesiące tym samym Page Rank mówi nam:

Mam gdzieś czy te linki jeszcze wogóle istnieją, sprawdzę za 3 miesiące…

3 miesiące w tak szybko rozrastającej się sieci www są jak lata świetlne.

Algorytm Page Rank nie zwraca uwagi na anchor text

2. Google Page Rank ignoruje najważniejszy czynnik wpływający na pozycje – Anchor Tekst Linków

Page Rank nie zwraca uwagii na zbieżność tematyczną

3. Google Page Rank zupełnie ignoruje zbieżność tematyczną linkujących serwisów.

Google Directory nie aktualizuje Page Rank od 18 miesięcy

4. Google nie aktualizuje wskaźnika Page Rank w swoim katalogu Google Directory od prawie dwóch lat ! Aktualne dane pochodzą jeszcze z 19 Marca 2006 i od tego czasu wskaźnik ten nie uległ zmianie.

Dane pochodzą z www.seocompany.ca
Pozostaje więc finalne pytanie czy Page Rank sam w sobie miał kiedykolwiek rzeczywisty wpływ na wyniki ?!

Czy Page Rank ma jeszcze jakikolwiek wpływ na wyniki

Czy Page Rank ma jeszcze jakikolwiek wpływ na rezultaty wyszukiwań ?! Z moich informacji wynika że NIE !! Co ciekawe sam Google ustami inżyniera Matt’a Cutts’a mówi, iż PageRank nie ma odniesienia na rzeczywiste pozycje w SERP’ach:

„By the time you see newer PageRanks in the toolbar, those values have already been incorporated in how we score/rank our search results. So while you may be happy to see that the Google Toolbar shows a little more PageRank for a given page, it’s not as if that causes a change in search results at that point. So you won’t see any search engine result page (SERP) changes as a result of this PageRank export–those changes have been gradually baking in since the last PageRank export.”

Myślę że czas najwyższy zamknąć rozdział zwany Page Rankiem i skupić się na użytkownikach i ruchu jaki generują. Swoją drogą być może ToolBarowy Page Rank już wkrótce zostanie zastąpiony innym parametrem…

Linki:
Dokument o Page Rank na stronach Stanford University

Matt Cuts o Google Page Rank

Jak Google ustala wyniki wyszukiwań ?

Autorem ilustracji jest: Przemysław Kaczorowski

Artykuł Czy Google PageRank to ściema? 4 argumenty na TAK! pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Ruch na stronie nowym czynnikiem rankingowym?

W pozycjonowaniu liczą się linki, linki i jeszcze raz linki. Czy aby na pewno i tylko? Ruch generowany przez użytkowników na stronach internetowych to doskonały czynnik weryfikujący jakość linków. Czy wkrótce będzie miał bardzo istotne znaczenie przy pozycjonowaniu? Dlaczego pozycjonowanie stanie się trudniejsze i będzie miało więcej wspólnego z marketingiem?

Pamiętam jak ponad rok temu Tomek Frontczak, na jednym ze spotkań pozycjonerów w Poznaniu, przedstawił swoją tezę odnośnie linków i ruchu przez nie generowanego. Głównym punktem ww. tezy było założenie, że linki bezpośrednie zawsze będą miały wpływ na pozycje stron w indeksie Google (nie ma bowiem innej obiektywnej metody na zmierzenie wartości strony jak poprzez ilość i jakość linków do niej prowadzących). W prognozie Tomka miała się w przyszłości zmienić jedynie waga ruchu generowanego przez linki. W ostatnich tygodniach słowa Tomka nabierają zupełnie innego, bardziej realnego wymiaru.

Spróbujmy oderwać się na chwilę od rzeczywistości i wyobrazić sobie idealną wyszukiwarkę. W mojej wyobraźni rysuje się obraz wyszukiwarki w pełni web 2.0, w której to o wynikach wyszukiwań decydują sami użytkownicy – nawzajem polecają sobie strony, artykuły, dokumenty, dodają komentarze i opinie o znalezionych stronach.

Taką wizję wyszukiwarki jakiś czas temu przedstawił Jimmy Wales twórca Wikipedii, który ma zamiar budować nową alternatywną dla Google i Yahoo wyszukiwarkę internetową:

Nowa wyszukiwarka […] ma stanowić połączenie otwartego oprogramowania do wyszukiwania stron WWW oraz ludzkiej inteligencji, która ostatecznie uporządkuje wyniki wyszukiwania.

16 Marca została uruchomiona wyszukiwarka WikiSeek, która podobno stanowi silnik nowej wyszukiwarki Wikipedii.

Idealne wyniki wyszukiwań składałyby się tylko z wartościowych pozbawionych spamu stron a ranking byłby ustalany m.in. poprzez te same procesy, które aktualnie możemy zaobserwować na Digg.com i Wykop.pl. W tej utopijnej wizji nie byłoby także miejsca na pozycjonowanie stron… Jednym słowem indeks idealny – marzenie wielu internautów. Czy możliwy do zrealizowania?

Efekt Skali

Wszystko wskazuje na to, iż inżynierowie Google doskonale wiedzą, jaki element jest najtrudniejszy do zafałszowania w internecie. Jest nim ogromna ilość unikalnych użytkowników, czyli najzwyczajniej efekt ogromnego wolumenu userów Google. Próby manipulacji wynikami wyszukiwań przy algorytmach badania ruchu użytkowników są o tyle utrudnione, iż Google już teraz posiada bardzo zaawansowane i działające narzędzia do ochrony przed click fraud w Google AdWords/AdSense!

Dla wielu znanych mi osób z branży SEO argumentem oddalającym wprowadzenie mechanizmów badania ruchu jest fakt, iż powszechnie uważa się, że Google nie ma wystarczających zapasów mocy (co ostatnio zostało oficjalnie potwierdzone – zobacz artykuł Marzec miesiącem kłopotów Google) do tego typu zaawansowanych operacji.

W mojej opinii znaczna część danych o ruchu internetowym jest już teraz badana i przechowywana poprzez serwisy i narzędzia za darmo udostępniane, takie jak: Google Analytics, Gmail, You Tube, Google Toolbar, Blogger. Dodając do tego dane z Google AdWords i Google AdSense może się okazać, iż Google już teraz ustala wagę linków na podstawie badań ruchu użytkowników (czyli wykorzystuje to co i tak musi przechowywać !). Co więcej globalny potentat na rynku wyszukiwarek cały czas rozwija swoją infrastrukturę o coraz to nowe projekty warte setki milionów dolarów! Tak więc już wkrótce wszelkie argumenty mówiące o niewydolności systemu informatycznego Google najprawdopodobniej stracą na aktualności!

nowe centrum serwerowe Google
Jedna z serwerowni Google. Źródło zdjęcia: NYT

Wyniki spersonalizowane

Kilka tygodni temu w kwestii wpływu ruchu użytkowników na ranking wyszukiwań zabrali głos pracownicy Google – Matt Cutts oraz Marissa Mayer – dyrektor Google ds. Wyszukiwania.
W swoich wypowiedziach potwierdzają oni plany zwiększania wpływu użytkowników na rankingi, sporo jest także mowy o spersonalizowanych wynikach wyszukiwań oraz o spersonalizowanej stronie głównej Google.

Na ten temat powstały także dwa świetne posty na blogu ITtechnology.us:

Z powyższych wpisów możemy się między innymi dowiedzieć o przewidywanej przyszłości rankingów, a także o potwierdzających te tezy konkretnych patentach technologicznych jakie Google rejestruje i testuje już od lat!

Analiza ruchów użytkowników jest podstawowym parametrem wskaźnika pochodnego od Page Ranku – Alexa Rank, który z miesiąca na miesiąc z coraz większą dokładnością przedstawia rankingi ruchu na witrynach internetowych. Alexa Rank swoje wyniki zbiera przede wszystkim poprzez Alexa Toolbar, co przy porównaniu zasięgu Alexa Web Search do Google zdecydowanie daje do myślenia.

Jak ruch na stronach ma się do pozycjonowania?

Należy zwrócić uwagę, iż precyzyjne monitorowanie ruchów użytkowników w istocie znacznie uprasza algorytm i rozwiązuje szereg problemów dotychczas stojących przed inżynierami Google:

  • linki rel=”nofollow” — stworzone jako odpowiedź na spamowanie Blogów i Wikipedi straciłyby rację bytu. W chwili obecnej tego typu linki nie są uwzględniane w tradycyjnym algorytmie Page Rank.
  • Linki z farm linków, systemów wymiany oraz innych tworzonych tylko dla robotów przestaną mieć jakikolwiek wpływ na index.
  • Linki niewidoczne, w kolorze tła, linki w stopkach i inne linki czysto pozycjonerskie nie generujące żadnego ruchu przestaną być uwzględniane przez algorytm.

W perspektywie nowych algorytmów spora ilość czynników o których pisałem w artykule Jak stworzyć najmocniejszy link pozycjonujący także przestanie mieć znaczenie. Okazuje się, że wystarczy zmierzyć CTR danego linka aby określić w dużym przybliżeniu jego wartość!

W nowym algorytmie czynniki takie jak Anchor, Title, Zbieżność tematyczna, Otoczenie linków tekstem znacznie straciłyby na znaczeniu, szczególnie w odniesieniu do linków typowo pozycjonerskich, czyli tych, które nie są klikane. Dla Google liczy się to co jest istotne dla użytkowników i jestem przekonany że tak właśnie będzie wyglądał algorytm w niedalekiej przyszłości.

Rewolucja?

Problem poruszany w tym artykule w mniejszym stopniu dotyczy polskich SERPów z uwagi na niższy stopień zaawansowania algorytmów działających w polskim internecie. Należy się jednak liczyć iż szybki rozwój Google w Polsce i na świecie przyczyni się do wyrównywania różnic w zaawansowaniu algorytmów. W ostatnim wpisie na Blogu Webmaster Central Blog mogliśmy przeczytać, iż:

Dbając o polskich użytkowników, Google niedawno ulepszył algorytmy i metody weryfikacji istotnych linków.

Cytat ten prowokuje mnie do stwierdzenia, iż większość „istotnych linków” (ze stron o wyższym Page Rank, real Page Rank) prowadzących do naszych stron jest już teraz monitorowane przez Google. No i należy pamiętać o ręcznej manipulacji wynikami przez pracowników Google, co może dotyczyć 10% wyników.

Myślę jednak, że nie należy spodziewać się, iż Google wprowadzi Update algorytmów na skalę Florydy czy Jaggera.
Jakby nie było Google Inc jest spółką giełdową i wszelki czarny PR jest raczej niewskazany, dlatego też moim zdaniem wszelkie algorytmy będą wprowadzane stopniowo, testowane na małych grupach użytkowników lub innych wyszukiwarkach Google pokroju Search Mash.

Jedyne co nam pozostaje, to konsekwentnie inwestować w metody White SEO i User Friendly, a jeśli już kupować linki i stawiać zaplecze to wartościowe, generujące ruch i ściśle tematyczne. Oczywiście jeżeli myślimy przyszłościowo i chcemy opierać strategie marketingową na kilku filarach.

————————-
Grafika w nagłówku autorstwa użytkownika nipitphand z freedigitalphotos.net

Artykuł Ruch na stronie nowym czynnikiem rankingowym? pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Kary i filtry w Google — przyczyny i formy nakładania kar za pozycjonowanie

Filtr, Ban, Sandbox, Paragraf 31, Duplicate Content — mówi to Wam coś? Pozycjonerom zapewne tak. Powyższe nazwy przedstawiają wachlarz represji, jakimi dysponuje wyszukiwarka Google podczas karania stron obecnych w jej indeksie za wszelkie nadużycia i niezgodności z regulaminem dla webmasterów. Przyczyny nakładania kar oraz ich formy opisujemy w poniższym artykule.

Ban, Sandbox, Paragraf 31 — nazwy znane każdemu pozycjonerowi. Wokół części z nich zbudowano już całe historie, opowiadania a nawet wiersze. Na ich temat zostały napisane tysiące postów, powstało także szereg teorii spiskowych.

Nazwy te są niczym niezidentyfikowane obiekty latające globalnego internetu, nigdy nie wiadomo w kogo uderzą i gdzie się pojawią. W czym tkwi ich siła oddziaływania? Dlaczego wywołują przerażenie w oczach tysięcy właścicieli stron? Jak wiadomo niewiedza wywołuje strach, dlatego też poniżej postaramy się opisać wszystkie znane nam filtry Google.

Jakby nie było pozycjonerów, nie byłoby kar, czyli kilka słów wyjaśnienia dla osób spoza branży

Głównymi winowajcami urozmaicania polskiego słownika wyrazów obcych z zakresu marketingu internetowego są osoby zajmujące się tzw. pozycjonowaniem stron internetowych czyli: Pozycjonerzy (SEO) i Marketerzy (SEM). Zawód pozycjonera stron internetowych pojawił się w kilka lat po starcie pierwszych globalnych wyszukiwarek internetowych. W głowach marketerów i webmasterów szybko pojawiło się pytanie: Zrobiliśmy stronę… Ale co dalej? Jak napędzić ruch? Jak sprzedać? Jak zarobić?

Odpowiedź nasunęła się sama wraz z nieuchronnym rozwojem i wzrostem popularności wyszukiwarek internetowych. Na polskim rynku odpowiedź na wyżej postawione pytania brzmi: GOOGLE! Poprzez aktywną promocję tylko w tej jednej wyszukiwarce można być pewnym, że nasz przekaz dotrze do lwiej części naszej grupy docelowej.

Szybko okazało się, że wysoka pozycja gwarantuje sprzedaż i kontakty handlowe. Wraz z pojawieniem się pieniędzy w internecie powstał nowy Błękitny Ocean, który stworzył nową płaszczyznę dla biznesu. Jak wiadomo, tam gdzie pieniądze, tam też pojawia się pokusa do nadużyć.
W ten sposób rozpoczęła się gra która nigdy nie będzie miała końca — pozycjonowanie stron internetowych. Gra, której często celem jest manipulacja wynikami Google.

Przyczyny, nazwy, formy kar

Google nie musi walczyć z white-SEO (osoby zajmujące się białym SEO używają technik, które nie naruszają wskazówek Google dla webmasterów). Problemem są: SPAMerzy i zwolennicy Adama Słodowego* w stylu:„Pozycjonowanie stron: zrób to sam”. Zdecydowana większość kar poniżej opisywanych dotyczy właśnie tych dwóch grup i sprawiedliwie czy nie ale to amatorzy i oszuści głównie dostają po łapach. Ci drudzy najczęściej ryzyko mają wliczone w swoje działania.

*Adam Słodowy to kultowa postać zeszłej epoki, w której to nie było YouTube, tylko Teleranek. Popularyzator majsterkowania – przypisek dla młodszych czytelników :)

Ban

Pierwszym i zarazem najbardziej popularnym stwierdzeniem używanym w odniesieniu do kar Google jest tzw. BAN. Najczęściej określenie zdecydowanie nadużywane i stosowane w złym kontekście. Dla wielu użytkowników ban jest także synonimem wszystkich kar Google, symbolem całego zła i najgorszą rzeczą jaka może się przytrafić domenie.

W praktyce ban jest faktycznie najsurowszą formą kary, należy jednak pamiętać że ban jest przyznawany bardzo rzadko w sytuacjach radykalnego naruszenia regulaminu wyszukiwarki.

Przyczyny nakładania bana:

  • Ukryty tekst
  • Ukryte linki
  • Za dziesiątki tys. subdomen
  • Doorway Page’s
  • Przekierowania
  • Cloaking
  • Strony stworzone tylko dla wyłudzenia pieniędzy (niektóre PP), MFA (Made For AdSense).

Ban nakładany jest tylko i wyłącznie za zawartość domeny, nigdy nie za linki przychodzące lub czynniki niezależne od webmastera.

Aby ściągnąć bana z domeny należy usunąć wszystkie elementy mogące wzbudzić wątpliwość redaktora a następnie skorzystać z formularza request for re-inclusion dostępnego m.in. w narzędziu Google SiteMaps. W przypadku świadomego usunięcia strony przez Google otrzymasz wówczas stosowną informację w panelu. Czas reakcji na request for re-inclusion od 1-2 miesięcy, niestety ale sprawdzone empirycznie.

Sandbox

Sandbox (z ang. piaskownica) to drugi w kolejności bardzo często nakładany filtr, który dla większości pozycjonerów stanowi największe zagrożenie. Sandbox jest bezpośrednio związany z czynnikiem o największym wpływie na pozycję strony. Chodzi oczywiście o linki prowadzące do witryny a konkretnie o ich anchor text.

Filtr polega na czasowym filtrowaniu i nie pokazywaniu strony www pod konkretną frazą/frazami czy słowem/słowom kluczowym w wynikach wyszukiwania. Kara jest najczęściej przyznawana młodym stronom, które są silnie pozycjonowane pod jedno słowo kluczowe. Aby uniknąć kary, należy nie przekraczać 50-70% linków z jednym anchor textem i umiarkowanie, rozsądnie linkować (rozkładać w czasie ilość linków). Granica ta nie jest oczywiście stała, czasami już jeden link z wartościowej strony może spowodować nałożenie kary.

Tzw. Google Bombing zostało ograniczone, dlatego m.in. zniknęła strona Leppera dla słowa „kretyn”. Być może jest to znak, że Google w końcu zaczęło porządki i coraz większe znaczenie w pozyskiwaniu linków dla pozycjonowania będzie miało to, czy ktoś w te linki w ogóle klika. Więcej informacji na blogu web navigatora.

Kara trwa od 3-12 miesięcy. W tym czasie Google nie bierze pod uwagę linków z określonym anchor textem i wrzuca je niczym ziarenka piasku do tzw. Sandboxa czyli piaskownicy, poczekalni dla młodych linków, które jeszcze nie są wiarygodne i nie zasłużyły na uznanie algorytmu.

Wychodzenie z filtra nie jest łatwe, przede wszystkim należy konsekwentnie linkować (szczególnie tam, gdzie istnieje prawdopodobieństwo kliknięcia w link), stopniowo zmniejszając udział filtrowanej frazy w anchorach linków i tak aż do skutku. Po wyjściu z filtra strona najczęściej wraca na te same lub jeszcze wyższe pozycje!

Paragraf 31

Paragraf 31 był już szeroko omawiany i komentowany na Sprawnym Marketingu. Należy jednak zaznaczyć, iż jest to najmłodszy filtr Google i po ostatnim Update PR efekty jego działania obserwujemy z nieco mniejszą intensywnością.

Więcej na temat Paragrafu 31:

Aging Delay

Obszerne wyjaśnienie Aging Delay można znaleźć w słowniku sloganu informatycznego:

Aging Delay — …zjawisko spotykane w wyszukiwarce internetowej Google polegające na tym, iż nowo utworzona strona internetowa pojawia się w wynikach Google bardzo wysoko przez kilka pierwszych tygodni od dodania (dzięki zjawisku Fresh Site Bonus (FSB)), po czym spada bardzo nisko lub znika całkowicie z wyników wyszukiwania. […] Strona ma już zazwyczaj wysoki wskaźnik PageRank i wszystko wskazuje na to, że powinna być wysoko ww wynikach. Jednak jakaś tajemnicza „łapa” trzyma ją tak, iż nie potrafi wybić się w górę. […]

Środowisko SEO upatruje w tym działaniu próbę zabezpieczenia się Google przed manipulowaniem wynikami i pozycjonowaniem nowych domen. Zazwyczaj bowiem to właśnie strony pozycjonowane ten problem dotyczy, a więc strony, które w początkowym okresie istnienia otrzymują nieproporcjonalnie dużą ilość linków do nich prowadzących. Aging delay według obserwacji trwa nawet do 7-8 miesięcy i nie dotyczy wszystkich stron. Jedynym zalecanym działaniem w przypadku wpadnięcia w Aging Delay jest po prostu czekanie…

Ze swojego komentarza dodam tylko, że zjawisko w Polsce występowało w bardzo ograniczonej skali i dotyczyło głównie zachodnich wyników wyszukiwań. Filtr ten traci zasadność w obliczu serwisów społecznościowych i całego trendu web 2.0, wiadomo bowiem, że młoda strona możne zanotować olbrzymi przyrost linków publikując jeden ciekawy film na YouTube.com. Tym samym wiek strony zmniejsza swoje znaczenie na rzecz ruchów użytkowników generowanych przez linki oraz ilości odwiedzin! Na tą chwilę filtr znacznie zmniejszył swoją czułość.

Duplicate Content

Duplicate Content jest to filtr przeciwdziałający indeksowaniu przez wyszukiwarkę powielonej treści. Najprawdopodobniej działanie mechanizmu wykrywającego jest bardzo proste i polega na zadawaniu do bazy zapytań dłuższych niż standardowy limit 8 słów. W przypadku dwóch bardzo zbieżnych zawartości strona, która zostanie później zaindeksowana zostaje usunięta z indexu lub przesunięta do Supplemental Index.

Przykład narzędzia detektującego powieloną treść: Copy Scape

Inne nienazwane filtry

Istnieje spora ilość filtrów które nigdy nie zostaną nazwane. Wynika to z tego iż większą część popełnianych przez nie „przestępstw” zaliczamy do czynów o niskiej szkodliwości SEO. Ich uciążliwość oraz wyrazistość jest na tyle niewielka że nie ma sensu ich nazywać a nawet w 100% potwierdzić ich istnienia.

Jeśli zastanawiałeś się kiedyś dlaczego Twoja witryna:
– notuje dziwne rotacje pozycji,
– doświadcza jednodniowych spadków,
– wypada z indeksu na kilka dni,
to wiedz, że najprawdopodobniej są za to odpowiedzialne właśnie te nigdy nie nazwane filtry.

Druga możliwość to awaria jednego z serwerów Google ( jest ich blisko 450 tys. ) a więc statystycznie, dziennie psuje się 4-5 serwerów.

Więcej na ten temat:

———————————————————————–

Aktualizacja (2012):  Google pracuje nad nową algorytmiczną karą – tym razem celem będą witryny „przeoptymalizowane” (org. „over-optimized”). Zdradził to podczas konferencji SXSW sam Matt Cutts, szef Search Quality Team w Google. Deklarowanym celem kary jest „wyrównanie szans”.

Jak tłumaczy Cutts, chodzi o to, by witryny gorszej jakości nie były w stanie „nadrobić” dystansu do lepszych za pomocą sztuczek pozycjonerskich. Wyższa jakość treści ma być doceniana w wynikach wyszukiwania, a czas webmasterów powinien być inwestowany właśnie w lepsze treści, a nie w „przeoptymalizowywanie” witryny.

Google rzadko (nigdy?) dotąd informował z wyprzedzeniem o zamiarach wprowadzenia zmian w algorytmie. Tym razem jest inaczej, chociaż Cutts nie zdradził absolutnie żadnych szczegółów dotyczących algorytmu. Trudno więc powiedzieć, jak w Google rozumieją „przeoptymalizowanie”, kto powinien obawiać się zmian i do jakiego stanu należałoby doprowadzić witrynę, żeby spać spokojnie. Cutts wymienił jedynie oczywistości: faszerowanie witryny słowami kluczowymi, zbyt wiele przypadków wzajemnego linkowania czy „inne cechy odróżniające spośród standardowych witryn”.

Cutts poświęcił nowym karom zaledwie chwilę, którą wypełniał głównie stwierdzeniami typu „chcemy uczynić Googlebota sprytniejszym”, „zależy nam na poprawianiu jakości wyników”, „nad zmianami pracuje kilku naszych inżynierów”.

Zapis audio fragmentu rozmowy, jaki Danny Sullivan z Search Engine Landu przeprowadził z Mattem Cuttsem znajduje się tutaj:

————————————————————–

Grafika w nagłówku autorstwa użytkownika Danilin z freedigitalphotos.net

Artykuł Kary i filtry w Google — przyczyny i formy nakładania kar za pozycjonowanie pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Co jest Page Rank?

W ostatnich dniach społeczność pozycjonerów była świadkiem kolejnej aktualizacji wartości parametru Page Rank (PR). Nie obyło się bez narzekań i radości webmasterów. Pojawił się szereg pytań, które naszym zdaniem należy postawić w kontekście zielonego, mitycznego paska Google. Czym na chwilę obecną jest blisko 10 letni algorytm? Jakie ma znaczenie dla wyników wyszukiwań? Czy Page Rank jest już tylko produktem działu Public Relations globalnej wyszukiwarki i fetyszem pozycjonerów?

Page Rank — czy to już tylko fetysz pozycjonerów?

Page Rank, od czego się zaczęło…

Pierwszym zalążkiem algorytmu wyszukiwarki Google była praca doktorska, którą Larry Page obronił na uniwersytecie Stanforda. W trakcie poszukiwania tematu Larry Page zwrócił uwagę na szybko rozwijającą się sieć www, a dokładnie na specyficzną strukturę sieci internetowej. Dla młodego inżyniera fascynująca była ilość połączeń między stronami internetowymi, każdy link hypertekstowy był swego rodzaju cytatem i adnotacją nawiązującą do treści innej witryny.

Jako że, Larry wywodził się ze środowiska akademickiego, szybko doszukał się podobieństw pomiędzy naukowym sposobem określania ważności tekstów naukowych a możliwością zastosowania tego mechanizmu w sieci. I tak, wzorując się na mechanizmie bibliometryki, czyli działu nauki zajmującej się badaniem dokumentów pisanych i zawartych w nich cytatów, stworzył algorytm bazujacy na badaniach bibliometrycznych:

Badania bibliometryczne zajmują się stosowaniem cytatów, ilościowo oceniając znaczenie i „wpływ” poszczególnych prac naukowych. W tym znaczeniu bibliometryka zajmuje się oceną pozycji prac i czasopism na które powołują się inni autorzy. […] Zauważając że cytat cytatowi nie równy zaproponowano bardziej wyrafinowaną metodę pomiaru pozycji. Określony dokument jest „wpływowy”, jeśli zamieszczone w nim artykuły są często cytowane w innych wpływowych periodykach.

The Search, John Battelle

Notabene powyższym rankingiem starają się manipulować także autorzy publikacji naukowych poprzez umawianie się na zasadzie: „Ja zacytuje ciebie, ty zacytuj mnie”.

Przytaczając prace innych naukowców, można przelać na siebie blask ich pozycji i autorytet – jest to kluczowa koncepcja funkcjonowania Google.

Na tych podstawach powstał projekt BackRub (wczesny prekursor Google) którego statutowym celem było zliczenie wszystkich odnośników w jeszcze bardzo młodej sieci www. Pierwsze szacunki mówiły, iż przed młodymi naukowcami stoi zadanie zaindeksowania 100 milionów odsyłaczy na 10 milionach stron.

Projekt ostro ruszył do przodu coraz mocniej obciążając serwery uniwersytetu Stanforda… w między czasie projekt BackRub cały czas ewoluował, aż w końcu przerodził się w wyszukiwarkę Google. I tak w sierpniu 1996 roku pojawiła się pierwsza wersja wyszukiwarki Google z wdrożonym i sprawnie działającym algorytmem Page Rank.

Po czym poznać, że ktoś zajmuje się marketingiem w wyszukiwarkach?
Skrót PR oznacza dla niego w pierwszej kolejność PageRank, a nie Public Relations

Czym aktualnie jest Page Rank ?

Niewielu zapewne o tym wie, ale opatentowany algorytm Page Rank należy w rzeczywistości do Uniwersytetu Stanforda, z zaznaczeniem, że Google ma licencję na wyłączność do 2011 roku. Jeśli jednak z niepokojem wyczekujesz 2011 roku w nadziei na poznanie największego sekretu Google, wiedz że, Page Rank sprzed 10 lat jest czymś zupełnie innym niż aktualny algorytm. Podstawowe założenia swego czasu bardzo dobrzeopisał „Pasja” na forum PiO.

Na chwile obecną to co prezentuje i aktualizuje raz na 3 miesiące Google ma znaczenie tylko dla pseudo „pozycjonerów” z Allegro sprzedających linki, a sam PR nie ma już bezpośredniego wpływu na pozycje witryny w rankingu! Era PR dobiegła końca i utwierdza nas w tym przekonaniu każdy kolejny update (akutalizacja) Google. Jedyny problem to przywiązanie emocjonalne webmasterów do tego zielonego wskaźnika.

Możemy się nawet pokusić o odważną tezę, iż wskaźnik Page Rank jest już tylko narzędziem piarowym w rękach głównego „specjalisty Public Relations” Google Matt’a Cutts’a, który na swoim blogu rozpisuje się na tematy bliskie naszym pozycjonerskim sercom.

Update’y

Pełna lista update’ów (aktualizacji) Page Rank oraz Back Links (linki zwrotne w Google wyświetlane na komendę „link:„) jest dostępna pod adresem:
www.seocompany.ca/pagerank/page-rank-update-list.html

Na powyższej liście widoczny jest kolejny dowód na nikłe znaczenie parametru Page Rank:

2007 Waiting GDPR Export Estimation Mar 19/06 405

Jak widać, nawet wyszukiwarka Google nie uaktualnia od ponad roku wskaźnika Page Rank przy ustalaniu wagi i kolejności wpisów w swoim katalogu stron.

Jak nie PR to co?

Odpowiedź na pytanie: „Jak nie PR to co?” zawarta jest m.in. w artykule: Jak stworzyć najmocniejszy link pozycjonujący ?

W tym punkcie warto jednak wymienić inne także nieoficjalne rodzaje parametru Page Rank:

  • ToolBar PR — Aktualnie wyświetlany parametr m.in. w pasku narzędziowym Google (Google ToolBar), parametr można także sprawdzić na stronie: Page Rank
  • realPR — jest wskaźnikiem określającym prawdziwą i aktualną wartość strony dla wyszukiwarki. RealPR jest ewolucją Page Ranku.
  • Anchor PR — Page Rank anchorów linków, czyli moc linka zależna jest od „Anchor PR” strony pod wskazanym słowem kluczowym
  • Trust Rank — polega na ocenie poziomu zaufania strony na podstawie wiarygodności innych stron linkujących.

Wszystko wskazuje na to, iż parametr Page Rank, po 10 latach żywej obecności w świecie SEO przechodzi do historii wyszukiwarek internetowych. Innymi słowy Google po raz kolejny podnosi poprzeczkę, utrudniając webmasterom szybką ocenę wartości strony i pozycjonowanie. Aktualnie, głównym parametrem, który należy brać pod uwagę, jest ilość i jakość linków prowadzących do witryny. W tym miejscu pojawia się jednak kolejny problem związany z brakiem wiarygodnego źródła informacji na temat linków zwrotnych.

Otóż Yahoo indeksuje wszystko jak leci, nie rozróżniając linków z Supplemental Index a właściwego indexu. MSN natomiast cały czas jest w fazie testów i rozbudowy wyszukiwarki Live i jak na razie pozycjonowanie tutaj praktycznie nie istnieje.

Z obozu Google ostatnimi czasy dochodzi coraz więcej informacji jakoby Google miał ponownie uaktywnić komendę link: i zacząć prezentować prawdziwe wyniki zaindeksowanych linków zwrotnych! Miejmy nadzieje że wspomniane rozwiązanie już wkrótce zostanie wprowadzone.

Zrozumieć PageRank – Moja prezentacja z SEMcamp

Logo SEMcamp - Cykliczne spotkania specjalistów branży SEM24 Czerwca miałem przyjemność wystąpić na SEMcampie. Temat mojej prezentacji to: „Zrozumieć PageRank: Czyli algorytm Google od podstaw”. Wystąpienie miało miejsce dzień przed szkoleniem SEO, dlatego możecie potraktować ten wykład jako darmowy rozdział szkolenia z pozycjonowania.

Podczas semcampu odbyły się także dwie inne prezentacje:

  • SEMcamp 3# – Strona docelowa reklamy
  • SEMcamp 3# – Nowe możliwości reklamy Video AdWords

Wszystkie występy do zobaczenia na kanale YouTube Semcamp, podsumowanie trzeciego semcampu znajdziecie na stronie SEMcamp.com.pl

Video „Zrozumieć PageRank” w dwóch częściach:

Pierwsze 30 sekund bardzo słabo słychać, później jest już lepiej.
[youtube]http://www.youtube.com/watch?v=RYsWGuq59Vc[/youtube]

[youtube]http://www.youtube.com/watch?v=hGm1C-fRu38[/youtube]

Zapraszam do dyskusji i komentarzy, interesuje mnie także wasza opinia na temat realizacji obietnicy złożonej w ofercie szkolenia SEO:

Rozłożymy na części pierwsze cały algorytm Page Rank.

Co o tym sądzicie ??

Do zobaczenia na kolejnych SEMcamp’ach.

[Aktualizacja 20.09.2011] Cutts: obniżamy PageRank witryn sprzedających linki

W opublikowanym niedawno wideo, szef działu jakości wyników wyszukiwania w Google, Matt Cutts, odpowiada na pytanie o przyczyny obserwowanych przez webmasterów obniżek widocznego w toolbarze wskaźnika PageRank. Wymienia trzy najczęstsze powody:

  • witryna utraciła linka/linki z witryn o wysokim PageRanku,
  • witryna ma źle zrobioną kanonikalizację, co wprowadza w błąd algorytm Google,
  • najczęstszy powód, zdaniem Matta, to sprzedawanie linków przez daną witrynę. Obniżanie jej PageRanku ma zniechęcać następnych kupców do kupowania pochodzących z niej linków,

Oto pełne nagranie wypowiedzi Matta:

 

Matt wyjaśnił także, że toolbarowy PageRank jest aktualizowany 3 lub 4 razy do roku. Tak niska częstotliwość aktualizacji wynika z niechęci Google’a do koncentrowania na PageRanku uwagi webmasterów, którą powinni raczej poświęcić dbałości o jakościową treść witryny, dobre znaczniki TITLE czy dostępność witryny.

Jeśli zatem sprzedawałeś linki, mówi Matt, i zanotowałeś spadek toolbarowego PageRanku, po prostu usuń płatne linki, przestań sprzedawać kolejne, wyślij prośbę o ponowne rozpatrzenie zgłoszenia witryny (reconsideration request), a Google prawdopodobnie przywróci twój PageRank do dawnej wysokości.

Zobacz więcej:

 

Aktualizacja: Google obniża PR witryn sprzedających linki

W opublikowanym niedawno wideo, szef działu jakości wyników wyszukiwania w Google, Matt Cutts, odpowiada na pytanie o przyczyny obserwowanych przez webmasterów obniżek widocznego w toolbarze wskaźnika PageRank. Wymienia trzy najczęstsze powody:

  • witryna utraciła linka/linki z witryn o wysokim PageRanku,
  • witryna ma źle zrobioną kanonikalizację, co wprowadza w błąd algorytm Google,
  • najczęstszy powód, zdaniem Matta, to sprzedawanie linków przez daną witrynę. Obniżanie jej PageRanku ma zniechęcać następnych kupców do kupowania pochodzących z niej linków,

Oto pełne nagranie wypowiedzi Matta:

Matt wyjaśnił także, że toolbarowy PageRank jest aktualizowany 3 lub 4 razy do roku. Tak niska częstotliwość aktualizacji wynika z niechęci Google’a do koncentrowania na PageRanku uwagi webmasterów, którą powinni raczej poświęcić dbałości o jakościową treść witryny, dobre znaczniki TITLE czy dostępność witryny.

Jeśli zatem sprzedawałeś linki, mówi Matt, i zanotowałeś spadek toolbarowego PageRanku, po prostu usuń płatne linki, przestań sprzedawać kolejne, wyślij prośbę o ponowne rozpatrzenie zgłoszenia witryny (reconsideration request), a Google prawdopodobnie przywróci twój PageRank do dawnej wysokości.

[źródło: Google: PageRank Drops Most Likely Because You Sell Links]

 

Prezentacja „Zrozumieć Pagerank”

Zobacz także wystąpienie Cezarego Lecha na SEMCamp 2009 pt.: „Zrozumieć PageRank: Czyli algorytm Google od podstaw”. Wystąpienie miało miejsce dzień przed szkoleniem SEO, dlatego możecie potraktować ten wykład jako darmowy rozdział szkolenia z pozycjonowania.

Video „Zrozumieć PageRank” w dwóch częściach:

Pierwsze 30 sekund bardzo słabo słychać, później jest już lepiej.
[youtube]http://www.youtube.com/watch?v=RYsWGuq59Vc[/youtube]

[youtube]http://www.youtube.com/watch?v=hGm1C-fRu38[/youtube]

Artykuł Co jest Page Rank? pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Jak stworzyć najmocniejszy link pozycjonujący?

Linki, linki, linki… do tego można by sprowadzić pozycjonowanie trudnych fraz w wyszukiwarkach. Link linkowi jednak nie równy. Jak ocenić potencjał strony linkującej? Jak zwiększyć siłę linku oraz jak ocenić zbieżność tematyczną? Zastanowimy się również nad tym, jaki wpływ na rankingi mogą mieć narzędzia stworzone przez Google, które analizują ruch w internecie.

Linki hypertekstowe istnieją tak długo jak internet, leżą u jego podstaw. Pozwalają nam sprawnie poruszać się po sieci, przechodzić ze strony na stronę, oglądać filmy, słuchać muzyki. Można śmiało powiedzieć, że internet bez odnośników tekstowych nie byłby tym, czym jest teraz.

Linki — podstawa marketingu w wyszukiwarkach

Linki nabrały nowego wymiaru w 1995 roku, gdy Larry Page stworzył algorytm wyszukiwarki Google, którego głównym elementem stał się parametr Page Rank, obliczany na podstawie linków prowadzących do strony.

Ascetycznie prosty w swej formule link tekstowy stał się również podstawą sukcesu całej wyszukiwarki Google, stając się jednocześnie fundamentem wartej miliardy dolarów reklamy poprzez Google AdWords. Płatna reklama w wyszukiwarkach to linki sponsorowane, których ten artykuł nie będzie dotyczył.

Linki pozycjonujące

Osoby zajmujące się pozycjonowaniem kupują linki, lub próbują je zdobyć innymi sposobami, głównie po to, żeby zwiększyć pozycje w rankingach wyszukiwarek. Pozycjonerów nie interesuje w tym przypadku wartość czysto marketingowa (czy ktoś wejdzie na stronę poprzez ten link) tylko sam wpływ na pozycje w wynikach wyszukiwania.

Globalny rynek kupna, sprzedaży i wymiany linków jest olbrzymi. Jednym z jego elementów są reklamowe linki pozycjonujące, których ceny niejednokrotnie dochodzą do kilkuset dolarów miesięcznie. Jak wycisnąć maksimum z linków pozycjonujących? Tym się zajmę w tym artykule.

W książce „Marketing internetowy w wyszukiwarkach” Tomek Frontczak przedstawia spis 18 rodzajów linków pozycjonujących. Tomek pogrupował linki (rozszerzając listę zaproponowaną przez Todda Malicoata z firmy WeBuildPages.com), odnosząc się przede wszystkim do czynników obecnych na stronie a także opisujących rodzaj strony.

  1. Naturalny (jako naturalny rozumiem link, który nie jest kupiony, a jego pojawienie się uwarunkowane jest wysoką lub unikalną ofertą wskazywanego przez niego serwisu.), jednostronny link z serwisu o wysokich rankingach, umieszczony w treści. Link zawiera słowo kluczowe w anchor text. Treść serwisu zawiera interesujące nas słowa kluczowe.
  2. Naturalny, jednostronny link z serwisu o wysokich rankingach, umieszczony w treści. Treść serwisu zawiera interesujące nas słowa kluczowe.
  3. Tak jak w punkcie 1, ale treść serwisu nie zawiera słów kluczowych.
  4. Tak jak w punkcie 2, ale treść serwisu nie zawiera słów kluczowych.
  5. Link reklamowy (czytaj: kupiony) w wysoce rankingowanym serwisie, otoczony tekstem ze słowami kluczowymi.
  6. Głębokie linki (linki do podstron serwisu) z tzw. presell page.
    Presell page to strona stworzona i sprzedana nam przez inny serwis, na której umieszczamy linki do kilku naszych podstron. Linki otoczone są treścią zawierającą słowa kluczowe i ich wariacje. Serwis, w którym kupujemy stronę, linkuje do niej z większości swoich podstron.
  7. Link reklamowy ze słowem kluczowym w anchor text, serwis wysoce rankingowany.
  8. Jednostronny link ze słowem kluczowym w anchor text, z serwisu powiązanego tematycznie, niekoniecznie wysoce rankingowany.
  9. Jednostronny link z samą nazwą domen bez słów kluczowych z serwisu o dobrych rankingach.
  10. Jednostronny link ze słowem kluczowym z przeciętnego serwisu niepowiązanego tematycznie.
  11. Jednostronny link z nazwą domeny z przeciętnego serwisu niepowiązanego tematycznie.
  12. Link ze słowem kluczowym umieszczony w paragrafie tekstu na stronie z linkami.
  13. Link umieszczony na stronie z linkami w formie: Tytuł/Opis.
  14. Linki w sygnaturach na forach dyskusyjnych.
  15. Link zwrotny na stronie z linkami.
  16. Link rotacyjny z systemów wymiany linków.
  17. Linki w podpisach komentarzy do blogów.

Siła linków pozycjonujących

W mojej ocenie wpływ na siłę oraz wartość linku ma jeszcze szereg innych czynników. Poniżej postaram się je przybliżyć czytelnikom Sprawnego Marketingu.

Anchor PR

Teoria Anchor PR opisana przez Nawigatora a stworzona przez Jeża z PiO, określona jako SEO dopalacz Jeża mówi wyraźnie, iż czołowe znaczenie dla siły linku pozycjonującego ma ilość i anchor linków prowadzących do strony na której link pozycjonujący ma być umieszczony.


Anchor linku to element budowy odnośnika tekstowego najczęściej opisujący zawartość strony docelowej. Pozycjonerzy wykorzystują ten atrybut poprzez wstawianie w tzw. Anchor pozycjonowane słowo kluczowe. Wyszukiwarka interpretuje taki odnośnik porównując adres strony ze słowem w anchorze co poprawia pozycje strony pod to słowo kluczowe.


Rysunek 1. Anchor w przykładach na rysunku to tekst wyszukiwarek lokalnych.

Czyli:

<a href=”http://sprawnymarketing.pl/” title=”Tytuł linka wyświetlany po najechaniu myszką”>tu jest właśnie anchor text linka</a>

tu jest właśnie anchor text linka

Zgodnie z tą teorią strona, która do nas linkuje, powinna posiadać znaczną ilość linków z takim samym anchorem jak nasz link. Wynika to z tego, iż według teorii Jeża, Anchor PR jest wyliczany i przenoszony dalej.

Swoją drogą rozpowszechnienie się wiedzy o Anchor PR przyczyniło się do linkowania wpisów w wartościowych katalogach. Odpowiedzią Google na to zjawisko jest m.in. opisany przeze mnie Paragraf 31!

Anchor linków wychodzących

Jak widzimy anchor linków przychodzących może być niezwykle istotny. Jednak kolejnym ważnym czynnikiem wpływającym na zbieżność tematyczną strony są anchory innych linków wychodzących ze strony. Wydaje się bowiem naturalne, iż strona pozycjonowana/linkowana jakimś słowem kluczowym będzie także dalej linkowała (wewnętrznie lub zewnętrznie) do innych stron z tym samym co ona anchorem. W związku z tym, paradoksalnie, link wychodzący może pozytywnie wpływać na pozycje i rPR ( rPR czyli „real Page Rank” – opisuje prawdziwą wartość strony, jest nieustannie uaktualniany i znany tylko wyszukiwarce, raz na 3 miesiące w okresie tzw. Update’u wartość rPR jest przeliczana na zwykły Page Rank ) !

Pozycja strony w rankingu

Pozycja strony linkującej w rankingu na wskazane słowo — jest to czynnik bezpośrednio związany z Anchor PR i SEO Dopalaczem Jeża. Okazuje się, że jednym z najlepszych sposobów pozwalających ocenić zbieżność tematyczną witryny jest obecność strony linkowanej oraz linkującej w wynikach wyszukiwań na to samo słowo kluczowe (max. TOP 500).

Położenie linków

Nie jest jasne czy położenie linku jest ustalane na podstawie kodu strony czy może odzwierciedlenie tego parametru opiera się na jego wizualnym położeniu. Pewne jest natomiast, że położenie linku ma wpływ na jego indeksacje.

Linki położone na górze strony są średnio 5 razy szybciej indeksowane i odwiedzane przez roboty! Z drugiej strony, patrząc na systemy wymiany linków, widać bardzo wyraźnie w jakim miejscu są położone linki pochodzące z systemów wymiany i nie miejmy wątpliwości, że inżynierowie Google tego nie widzą. Z drugiej strony najbardziej naturalne linkowanie za pośrednictwem artykułów sprowadza się do częstego linkowania ze stopki artykułu.

Moim zdaniem, przy obecnej popularności systemów wymiany linków, Google podjął działania zmniejszające ich siłę i wolniej indeksuje linki ze stopki, co na pewno pomaga w walce z rotacyjnymi systemami wymiany linków.

Linki generujące ruch

W świecie powszechnego kupowania i sprzedawania linków pozycjonujących jednym z najlepszych wyznaczników jego wartości jest ruch, jaki ten link generuje. Naturalność i przydatność linka jest bowiem oceniana przez samych użytkowników. Ponadto oczywiste jest, iż użytkownik nie kliknie w link schowany za div’em, lub ukryty stylem CSS.

Wszelkie dodatkowe atrybuty, takie jak pogrubienie lub title zostaną także najlepiej ocenione przez użytkowników. Idąc zgodnie z trendem WEB 2.0, to co dobre dla użytkowników, dobre jest także dla Google !

Narzędzia Google analizujące ruch w internecie

Wszystkim webmasterom dobrze znane są nowe narzędzia Google, które pośrednio lub bezpośrednio badają ruch użytkowników w internecie. Takie narzędzia, jak: Google Analytics, Google Toolbar, personalizacja strony głównej lub, jak niektórzy uważają, nawet Gmail (swego czasu pojawiły się informacje, iż linki przesyłane poprzez pocztę Gmail wpływają na pozycje stron) są stworzone po to, aby monitorować nasze ruchy w internecie. W mojej opinii jest tylko kwestią czasu, kiedy Google zacznie wykorzystywać te dane przy ustalaniu rankingu. Wiemy już, że z narzędzi do monitorowania ruchu przy ustalaniu rankingu korzysta m.in. polski NetSprint.pl, którego silnik wykorzystuje Wirtualna Polska.

Ilość linków wychodzących

Powszechnie znanym jest fakt, iż moc przekazywana linkom wychodzącym jest zależna przede wszystkim od ilości linków wychodzących. Im więcej linków wychodzących, tym mniejsza moc przypadając na jeden link.

Atrybut: Title=””

Atrybut Title zgodny z tytulem strony do której linkujemy. Tytuł to tytuł i powinien zawierać to czego często autor artykułu nie może napisać/podlinkować, jednocześnie tytuł powinien przekazywać informacje użyteczne dla użytkownika.

Zakładając, że oryginalny tytuł linkowanej strony www też spełnia tę funkcję, to w mojej opinii te dwa atrybuty powinny być możliwie podobne (czyli zawierać te same słowa kluczowe i podobną ilość wyrazów). Najgorsze co można zrobić, to powtórzyć w tytule tekst anchor link. Atrybut nie przekazuje wtedy żadnej dodatkowej informacji użytkownikowi, czyli jest bezużyteczny, w związku z tym najprawdopodobniej ignorowany także przez wyszukiwarkę.

Innym aspektem atrybutu Title jest sposób, w jaki robot wyszukiwarki go czyta. Najprawdopodobniej robot Google uznaje tytuł linka jako treść strony i podczas analizy treści umieszcza go przed anchorem linka. Tym samym, nadając atrybut Title linkowi ze słowem identycznym jak w anchorze, umieszczamy dwa takie same słowa tuż obok siebie, co sprawia, iż taki fragment tekstu zawiera błąd językowy i traci sens.

Wiek linku, wiek strony, wiek PR

Wiek linku oraz strony to w mojej opinii dwa kluczowe czynniki. Pierwszy z nich nabrał szczególnego znaczenia od czasu pojawienia się systemów rotujących linki (systemy rotacyjnej wymiany linków wyświetlające za każdym razem na każdej stronie w systemie zupełnie inny zestaw linków).

Swego czasu systemy te miały potężną moc pozycjonującą, obecnie można powiedzieć, że ich siła już przemija i z każdą zmianą algorytmu wyszukiwarki systemy te słabną. Wiek strony ma szczególne odniesienie do teorii Trust Rank czyli mitycznego rozwiązania eliminującego z wyników wyszukiwań cały SPAM.

Można podsumować, że jednym ze wskaźników zaufania do strony jest jej wiek oraz stała i niezmienna tematyka. Wiek oraz stabilność wskaźnika Page Rank także wpływa pozytywnie na siłę linków wychodzących.

Czy przeceniamy Google i jego algorytmy

Wiele osób czytających ten artykuł może stwierdzić, że przeceniamy Google i jego algorytmy. Moim zdaniem Google dostosowuje stopień skomplikowalności algorytmu analizującego stronę do konkurencyjności fraz lub do wskaźnika PR lub rPR każdej strony.

Pamiętajcie także, że to nie robot ocenia wartość strony. Robi to oddzielne oprogramowanie znajdujące się na serwerach Google (robot tylko kopiuje zawartość) — tam moc obliczeniowa dostępna do analizy jednej strony jest zdecydowanie większa i myślę, że nic nie stoi na przeszkodzie aby dokładnie zanalizować treść strony.

Zobacz więcej

  • Combating Web Spam with TrustRankplik pdf do ściągnięcia
  • Balancing the Link Equation, Stuntdubl.com 2005
  • SEO dopalacz Jeża, Web-marketing.pl
  • Metody wykrywania spamu w wyszukiwarkach — publikacje naukowe
  • Traffic Index — algorytm NetSprint wykorzystujący dane MegaPanelu
————————-
Grafika w nagłówku autorstwa użytkownika renjith krishnan z freedigitalphotos.net

Artykuł Jak stworzyć najmocniejszy link pozycjonujący? pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.

Paragraf 31. Ręczna manipulacja wynikami w Google? Jak wyjść z filtra Google?

Czy wiesz, czym jest Paragraf 31? Czy doświadczyłeś nagłych spadków pozycji promowanych słów w wynikach wyszukiwania o 30 pozycji w dół? Artykuł próbuje wyjaśnić, dlaczego domeny wpadają w Paragraf 31. Czy jest to ręczna manipulacja wynikami? Do jakich wniosków można dojść, studiując strukturę zatrudnienia Google?

Ostatnio pojawiło się sporo informacji na temat tzw. Pargrafu 31, czyli nagłych stałych spadków pozycji stron w wynikach wyszukiwań o dokładnie 30 pozycji w dół. Zadziwia powszechność filtra oraz jego skuteczność — okazuje się bowiem, iż nie trzeba wyrzucać strony z wyników wyszukiwań, banować czy też nakładać filtr Sandbox (Sandbox to filtr nakładany na pozycjonowane frazy w momencie, gdy webmaster położy za duży nacisk na pozycjonowanie jednego słowa kluczowego).

Wystraczającą karą jest obniżenie pozycji o 30 oczek. Jak się okazuje, to bardzo skutecznie odcina stronę od odwiedzających. Delikatny zabieg ale za to jakże skuteczny. Nie od dziś wiadomo bowiem, iż użytkownicy wyszukiwarek praktycznie nie zagladają dalej niż druga strona wyników wyszukiwań.

Paragraf 31 — hipotezy

Spośród wielu hipotez wysuwanych na polskich i zagranicznych forach internetowych, dominuje kilka najbardziej prawdopodobnych przyczyn nakładania tego filtra:

  • paragraf 31 ma zastąpić aktualnie najpopularniejszy filtr tzw. SandBox;
  • paragraf 31 jest nowym filterm stosowanym na stronach, które używają tzw. Szarego SEO, czyli jeszcze nie SPAM ale przeoptymalizowana strona, linki i przekierowania w JavaScript lub pozycjonowanie na bardzo dużą ilość trudnych słów kluczowych, co przy naturalnym pozycjonowaniu wydaje się bardzo mało prawdopodone;
  • paragrafem 31 jest karane pozycjonerskie zaplecze typu: katalogi stron lub strony do których prowadzą linki tylko z katalogów;

Przyjmując do wiadmości powyższe powody nakładania filtra pojawia się pytanie w jaki sposób algorytm potrafi odróżnić plew od ziarna? Czy oby napewno nakładnie nowego filtra jest wynikiem działania algorytmu ?! A moze Paragraf 31 jest filtrem nakładanym ręcznie przez pracowników Google?

Ręczne robótki Google?

W trakcie poszukiwań odpowiedzi na te pytania natknęłem się na ciekawy post Oleg’a z PiO:

Mam kolegę który pracuje w Holandii w Google Quality Rater. Polega to na tym że się ogląda strony z 200 pierwszych wyników na w miare komercyjne frazy.
Jako ocene stronie się przypisuje :
ratings -> Vital ..Useful.. Relevant … Not Relevant .. Off Topic.. i oprocz tego: Flags : Spam, Directory / Search results, Porn, Malicious, itp.. W holandii placa 14 euro za godzine, mają dość dużo tych ludzi…

Inforamcję tę potwierdzają także zagraniczne źródła, podając więcej, często szokujących szczegółów:

International agents get paid $20 for each hour they refine the search results of Google. SearchBistro.com

Według w/w źródła pracownicy Google Quality Ratings mają swoją specjalną stronę internetową:http://eval.google.com. Film pokazujący zawartość tzw. Secret Lab .

Powyższe wypowiedzi wyraźnie pokazują, iż jest coś na rzeczy… Wielu krytyków tej hipotezy odwołuje się do nierealności zatrudniania tylu ludzi tylko w celu dbania o jakość wyników wyszukiwań. Koronnym argumentem przeciwników takiego rozwiązania jest mnogość stron internetowych podlegających ocenie… mówiac krótko do oceny 100 mln witryn potrzebna była by niewyobrażalna ilość ludzi…

Jednak według danych pochodzących od Google Quality Ratings wiemy, że ich ocenie podlega tylko pierwsze 200 wyników wyszukiwań na typowo komercyjne słowa kluczowe!
Zawęża to ilość stron podlegających ich ocenie do kilku tysięcy w każdej domenie funkcjonalnej!

Powyższa hipoteza jest o tyle prawdopodobna, iż zatrudnienie w Google rośnie wprost proporcjonalnie do wzrostu dochodów firmy.
Ostatnie newsy mówia o tym, iż zatrudnienie w Google przekracza już 9000 osób.

Poszlaki

Przy takiej ilości pracowników, prawdopodobieństwo, iż ledwie mały procent zajmuje się tylko „czyszczeniem” wyników wyszukiwań jest bardzo wysokie. Trzeba także pamiętać, iż aktualnie dużym problemem Google są tzw. MFA (Made For AdSense), czyli strony stworzne wyłącznie w celu wyłudzania kliknięć z pochodzących z reklamy kontekstowej. Strony takie zawierają praktycznie same reklamy! Próbą walki z tym procederem było m.in. wprowadzenie nowego czynnika wpływającego na cenę kliknięć: Quality Score.

Kolejną poszlaką w poczukiwaniu odpowiedzi mogą być zachodnie wyniki wyszukiwań przeglądane przez adres proxy. Dla polskiego użytkownika szokujące mogą się wydawać takie kwiatki jak np.: Wikipedia w TOP 10 na frazę laptopos. W Polskim Google, póki co jest jeszcze nie do pomyślenia.

Pojawia się jednak pytanie: Jeśli cześć wyników prezentowanych przez Google jest faktycznie dziełem inteligentnych istot to kto i za co dokładnie jest odpowiedzialny?

Tak więc okazuje się, iż odpowiedź na pytanie postawione w tytule jest dosyć złożona i konieczne jest zlustrowanie struktury zatrudnienia w Google. Poniżej przedstawiłem uprawnienia poszczególnych stanowisk stworzonych, aby dbać o jakość wyników wszykiwań Google.

Struktura zatrudnienia w Google:

  • Pierwszym etatem jest Google Quality Rater. Jak się okazuje, jest on całkowice nieoficjalny. Nabór na te funkcję organizuje międzynarodowa firma Kelly Services, która zajmuje się zatrudnianiem pracowników dla największych firm na świecie.
    Uprawnienia Google Quality Raters ograniczają się tylko i wyłącznie do oceniania wyników wyszukiwań. Cała ich praca skupia się na przeglądnięciu pierwszych 200 wyników wyszukiwań dla wskazanego słowa kluczowego a następnie nadwaniu stronom flag, opisów, oceniania powiązania tematycznego, jakości strony oraz unikalności zawartości merytorycznej serwisu. Google Quality Raters mają także możliwość usuwania stron z indeksu wyszukiwarki… Jednak każdy taki przypadek muszą dokładnie uzasadnić w raporcie końcowym. Google Quality Raters nie mają możliwośći nadwania filtru Paragraf 31 !!!
    Google Quality Raters biorą pod uwagę oceniając stronę:

    • Nadają flagi:
      • SPAM
      • Porno
      • Złośliwa/Niebezpieczna (Napastliwe reklamy/Wirusy)
    • Czy strona nadaje się dla dzieci ?
    • Czy strona jest w całości poświęcona danej tematyce ?
    • Czy strona jest podstroną katalogu ?
    • Stopień dopasowania do kategorii tematycznej (wpisanego słowa kluczowego)
    • Redaktor opisuje także czy jego zdaniem witryna jest do czegoś przydatna – unikalność zwartości merytorcznej strony.
    • Generalnie oceniający ma dużo swobody w ocenianiu stron (element uznaniowości jest tu wyjątkowo mocny)
  • Oficjalne zatrudnienie w Google znajdują osoby obsługujące SPAM Report.Jest to osoba odbierająca i analizująca wszelkie zgłoszenia odnośnie SPAM’u w rankingu Google oraz innych naruszeń regulaminu wyszukiwarki. Osoba pracująca na powyższym stanowisku ma m.in. możliwość banowania całych serwisów/domen, oraz jak wszystko wskazuje ma także prawo nadawania filtru Paragraf 31.Jak udał mi się ustalić, filtr ten jest przyznawany przedewszystkim jako forma ostrzeżenia tylko dla witryn wielotematycznych, których podstrony często wyskakują pod wieloma słowami kluczowymi nie związanymi z główną tematyką witryny.Należy pamiętać, iż dla wielu użytkowników Google (osobiście dla mnie także) wyniki wyszukiwania prezentujące podstrony z katalogów są najzwyklejszym SPAM’em. Zaśmiecają one wyniki wyszukiwań przede wszystkim dla mało popularnych fraz przy których słowo kluczowe w tytule wystarcza, by strona była wysoko rankingowana (czasami wpis dodatkowo podlinkowany znajduje się wyżej niż nie jedna w płeni wartościowa strona).
  • Ads Quality Rater — pracownik Google o takim tytule zajmuje się czyszczeniem reklam Google AdWords oraz dopszuczaniem stron do programu Google AdSense. Każda strona, która uczestniczy w jednym z tych programów, musi zostać przynajmniej raz odwiedzona przez readakotra Ads Quality Rater. W Polsce taki redaktor ma także możliwość banowania witryn. Na zachodzie: Ads Quality Rater przegląda strony z AdSense’m i ocenia wartość ich treści, przez co modyfikuje stawki za kliknięcia (nowy wskaźnik Quality Score). Detektuje także tzw. MFA – Made For Adsense !
  • Quality Rater — osoba, która testuje różne nowe usługi Google, tak więc teoretycznie nie ma wpływu na wyniki wyszukwiań (piszę o tej funkcji, aby rozwiać wątpliwości w zbierzności nazw)


Rysunek 1. Oferta pracy w Google

Powyższe stanowiska są aktualnie w Polsce dosyć słabo obstawione, a mówiąc dokładniej Google Quality Raters nie ma w Polsce wcale. Okazuje się także, iż cała struktura wygląda u nas nieco inaczej.

Tak więc osoby obsługujące SPAM Report mają więc nieco szersze możliwości niż ich koledzy z zachodu wynikające z braków kadrowych. Stosunkowo dużo mamy w kraju Ads Quality Rater odpowiedzialnych za Google AdWords/AdSense — ich obowiązki są także dosyć rozległe i wykraczają poza standardowe dla tego stanowiska. Nabór na polskich Google Quality Raters ruszy najprawdopodobniej w lutym i zapewne zostanie przeprowadzony przez firmę Kelly Services.

Jak wyjść z filtra Google?

Jak wspomniałem wyżej, Paragraf 31 jest filtrem najprawdopodobniej nakładanym przez redaktorów Google Search Quality Team. Udało mi się ustalić, że Paragraf 31 jest przyznawany przede wszystkim jako forma ostrzeżenia tylko dla witryn wielotematycznych, których podstrony często zajmują wysokie pozycje w wynikach wyszukiwarek pod wieloma słowami kluczowymi nie związanymi z główną tematyką witryny.

Śmietnik w wynikach wyszukiwania

Należy pamiętać, iż dla wielu użytkowników Google (osobiście dla mnie także), wyniki wyszukiwania prezentujące podstrony z katalogów są najzwyklejszym, bezwartościowym spamem. Zaśmiecają one wyniki wyszukiwań przede wszystkim dla mało popularnych fraz, przy których, jak się okazuje, słowo kluczowe w tytule wystarcza, by strona była wysoko rankingowana (czasami wpis dodatkowo podlinkowany znajduje się wyżej niż niejedna w pełni wartościowa strona).

Ten fakt potwierdza także roli z forum Pozycjonowanie i Optymalizacja:

…w moich slowach kluczowych, bardzo malo konkurencjne haslo. Na pierwszym miejscu byla moja strona a teraz w top10 sa glównie linki do podstron katalogów a w tych katalogach co druga strona nie dziala, heh i jaka ma z tego korzysc zwykly uzyszkodnik internetu? co z ta polska? co z tym google ?

Wpisy z katalogów zawierające słowo kluczowe w tytule strony + jedno powtórzenie w treści zupełnie wyparły inne zdecydowanie bardziej wartościowe domeny. Zwróćcie uwagę, że na prezentowanych podstronach katalogów nie ma żadnej wartościowej treści, praktycznie same linki! W mojej opinii, to jest główny powód powstania filtru P31 — zaśmiecanie wyników dla niszowych fraz.

Czyżby twórcy skryptów katalogów SEO Friendly strzelili sobie i nam samobójczego gola?!

Wszystko wskazuje na to że tak. W najbliższym czasie cały proces nadawania filtru P31 ma nabrać dużego przyśpieszenia. Czas dany webmasterom na poprawę witryn ma się skrócić do kilku tygodni a po nim ma następować forma kary jaka spotkała m.in. Qlweb.info. Kara polegała na wyindeksowaniu znacznej ilości podstron. Należy się także zastanowić czy Qlweb.info nie stał się tzw. „złym otoczeniem” (ang. bad neighbourhood linking) i czy linkowanie do niego nie obniża wartości naszych katalogów?!

WI777 tak pisze o procesie nakładania Paragrafu 31 na Qlweb.info na forum Pozycjonowanie i Optymalizacja:

Reasumując zaczęło się od „-30 penalty”, teraz następuję odsyłanie do piaskownicy silniej linkowanych fraz oraz co gorsze, powolne i postępujące wyindeksowywanie z indeksu G. które prawdopodobnie zatrzyma się na jakimś stałym i śmiesznie niskim poziomie w porównaniu do niedalekiej przeszłości (niestety zauważyłem przypadki wyindeksowania praktycznie do zera). Taką procedurę prześledziłem dla kilku(nastu) w ten sposób potraktowanych katalogów, a na www.qlweb.info po prostu lepiej to widać

A więć na początek Paragraf 31 a następnie Ban / Sandbox / Wyindeksowywanie?

WI777 w swoim poście na forum Pozycjonowanie i Optymalizacja mówi, iż Google wziął pod swoją opiekę (nadał filtr 31) także inne, kolejne duże katalogi. Najwyraźniej więc cały proces nabiera przyśpieszenia głównie na śmieciowych katalogach wielotematycznych!

Jak wyjść z Parafrafu 31 lub jak go uniknąć?

Odpowiedź jest prosta — możliwie szybko przebudować zawartość witryny tak, aby linki do niej pojawiały się tylko w tematach bezpośrednio powiązanych z główną tematyką witryny lub dodać nową wartościową treść która nie będzie prowokowała użytkowników Google do korzystania z formularza SPAM Report

Skąd webmaster ma wiedzieć, że dostał ostrzeżenie?

Otóż serwisy Google Site Maps oraz Google Analytics ewidentnie powstały po to, aby nawiązać kontakt z webmasterami. Wymienione serwisy prezentują m.in. wyraźne satystyki odwiedzin strony, słowa kluczowe, po których użytkownicy wchodzą na stronę a także statystyki zapytań oraz średnią najwyższą pozycję naszej witryny na wskazane słowa kluczowe. Najprawdopodobniej Google oczekuje od webmasterów, iż będą oni identyfikowali wejścia ze słów nie powiązanych tematycznie i sami podejmą kroki w celu usunięcia swoich stron z wyników wyszukiwań na te frazy.

Potwierdza to m.in post Lordbarta na cytownym już forum:

ręczne, nie ręczne niestety istnieje. u mnie jedna trafiona na wszelkie mozliwe kombinacje haseł, słów etc, podstrony, strona główna. wszystko -30 oczek
a domena niczym sie specjalnie nie wyróżniała, oprócz tego, że na kilkadziesiat haseł miała top5

Co dalej?

W mojej opinii pozycjonerzy powinni skupić się na budowaniu przede wszystkim sensownej merytorycznie treści — nawet jeżeli będzie ona zduplikowana w mniejszym lub większym stopniu to pamiętajmy o misji Google. Być może należy zacząć tworzyć strony zawierające zoptymalizowane artykuły z linkami w treści, jak to ma miejsce m.in. na SEOBiblioteka.pl lub SEO.GoldPosition.pl. Druga możliwość to wartościowe katalogi jednotematyczne.

Filtr jest także bardzo dobrą formą walki ze spamerami. W momencie gdy dostają P31 na domenę główną spadają im dziesiątki tysięcy subdomen optymalizowanych każda pod inne słowo kluczowe. Przy filtrze -30 pozycji Google odcina im niemal zupełnie ruch generowany poprzez SPAM.

W przyszłości przekonamy się, czy powyższe przypuszczenia znajdą potwierdzenie w wynikach zwracanych przez wyszukiwarki.

Więcej informacji

Więcej informacji na ten temat szukajcie na zagranicznych forach a także na oficjalnych stronach oraz w dokumentach publikownych przez Google:

Google Jobs
Google Investor Report
Google Secret Lab

Artykuł Paragraf 31. Ręczna manipulacja wynikami w Google? Jak wyjść z filtra Google? pochodzi z serwisu sprawny.marketing • Szkolenia • Konferencje • Magazyn.