75 najważniejszych marketingowych newsów stycznia!

W Marketingowym Podsumowaniu Miesiąca przedstawiamy Wam wszystkie nowości z branży, o których mówiliśmy w naszych cotygodniowych transmisjach live.

1. Twitter coraz mocniej stawia na video

Od niedawna video nagrywane na Twittera mogą mieć dużo więcej niż 30 sekund — teraz nagracie video o długości 2 minut i 20 sekund. Oprócz tego pojawiło się sporo nowych opcji — możemy dodać tytuł filmu, rozbudować jego opis lub podlinkować stronę, do której chcielibyśmy przekierować użytkowników. Więcej informacji na temat formatu video na Twitterze, znajdziecie tutaj.

2. Video 360 na Twitterze i na Facebooku w formie Live

Całkiem niedawno pojawiła się pierwsza transmisja Live 360 na Facebooku — mówiliśmy o tym podczas #21 MPT. 28 grudnia Twitter także przedstawił nam Live 360 — wystarczy przekręcać telefon, by widzieć co znajduje się dookoła nagrywającej osoby.

3. Nowe kamery 360

 

4. Grupowe rozmowy video

Aplikacja House Party umożliwiała video grupowy czat — kilka osób mogło ze sobą jednocześnie rozmawiać. Nie minęło dużo czasu i już możemy korzystać z takiej funkcji poprzez Messangera oraz Snapchata — ten ostatni daje możliwość prowadzenia rozmowy jednocześnie aż z 16 osobami.

5. Disney stworzy treści dla Snapchata

Snapchat prężnie się rozwija i niedługo przyczyni się do tego także Disney, który przygotuje treści — krótkie show — specjalnie pod aplikację. Produkcja będzie nosić tytuł Watch Party: The Bachelor.

6.Tanieją reklamy w TVN

Znacznie potaniały ceny reklam w TVN — stawki zaczynają się robić podobne do tych, które musielibyśmy wydać na przykład na YouTube, by uzyskać ten sam zasięg. Telewizja jest w coraz bliższym zasięgu naszych rąk — warto więc na bieżąco kontrolować ceny i zastanowić się nad kampanią reklamową, która integrowałaby Internet z telewizją.

7. Kolejny raport Search Metrics w zakresie aktualnych czynników rankingowych

Analiza przygotowana przez Search Metrics oparta o ogromną ilość badanych stron dała potwierdzenie, że czynniki SEO, takie jak https — czyli szyfrowana wersja witryny, CTR, ilość linków prowadzących do witryny — mają duży wpływ na jej pozycję. Jednak warto zwrócić uwagę także na czynniki behawioralne — czyli to jak często wchodzimy na daną stronę i jak dużo czasu na niej spędzamy.

8. Video na stronie radykalnie poprawia Time on Site

 

Umieszczenie video na stronie znacząco podwyższa czas spędzony na niej przez użytkownika — Wistia podaje, że dodając materiały video na swoją stronę, możesz aż dwukrotnie podnieść czas, który spędzą na niej użytkownicy. Ma to duże znaczenie również z punktu widzenia SEO — jak podkreślił Czarek w 7. newsie — czas spędzony na stronie podnosi jej pozycję w wyszukiwarce.

9. Czy szybkość strony wpływa na SEO?

 

Zaobserwowano zależność pomiędzy czasem ładowania się strony a pozycjonowaniem. Przeanalizowano prawie 150 tysięcy adresów url — zauważona została lekka tendencja, która potwierdza przypuszczenia, że czas ładowania się witryny ma pozytywny wpływ na SEO.

10. Co zrobić żeby WordPress miał 100/100 testu szybkości?

Jak osiągnąć wynik 100/100 w narzędziu Google PageSpeed? Autor artykułu pokazuje, że jest to jak najbardziej możliwe — również na WordPressie. Wyczerpujący i obszerny tekst, który zdecydowanie warto przejrzeć!

11. SEO Optymalizacja plików PDF

 

Często zapominamy o optymalizacji plików PDF, a one także są indeksowane przez Google. Tekst zwraca uwagę na tak ważne czynniki jak: odpowiednia nazwa pliku, tag title, format pliku i jego rozmiar. Polecamy artykuł, z którego dowiecie się jak podnieść pozycję plików PDF w wynikach wyszukiwania.

12. Optymalizacja stron z JavaScriptem

 

Jak radzić sobie z JavaScriptem w kontekście SEO? Arytkuł Bartka Góralewicza, w którym opisuje to zagadnienie — pokazuje konkretne case’y.

Cezary Lech poleca również narzędzie, które umożliwia dopasowanie witryn, które są wykonane w technologii JavaScript do optymalizacji SEO.

13. Czy CTR ma znaczenie?

  unnamed-9

Kolejny news dotyczy badania klikalności w pierwszej 10 Google. Przez około miesiąc zostało przebadane 7 stron — badanie miało wykazać jak (sztucznie wygenerowane podczas testu) kliknięcia wpływają na pozycję witryny. Autorzy podali również narzędzie, z którego korzystali — https://serpclix.com/.

14. Negatywne SEO — czy jest możliwe i jak się zabezpieczyć?

 

Jak wykryć i jak zabezpieczyć się przed negatywnym SEO? Oczywiście główny czynnik, jaki musimy brać uwagę to monitorowanie linków na naszej stronie — jeśli chcecie dowiedzieć się na ten temat więcej zapraszamy do zapoznania się z artykułem.

15. Wtyczka, która umożliwia bardzo szybkie skopiowanie i przeniesienie WordPressa na nowy serwer

 

Lh przygotowało wtyczkę, która umożliwi wam przeniesienie WordPressa na nowy serwer.

16. 7000 pluginów do WordPressa z krytycznymi błędami

Wtyczki do WordPressa mogą być źle napisane i zawierać błędy — analiza, o której pisze sekurak.pl wykazała, że na 47,959 badanych pluginów w 3000 znaleziono podatności o wysokiej krytyczności.

17. Nowy format grafik na Facebooku

 

Pojawił się nowy format grafik na Facebooku — 640 x 960 px, stworzony z myślą o urządzeniach mobilnych. Nowy format generuje znacznie lepsze interakcje. Podobne proporcje dotyczą także już materiałów video.

18. Nowy typ reklamy AdWords?

 

Nowy format reklamowy w AdWords. Mikowhy.pl odkrył nowy format reklam w Google.

19. Najgorsze wykresy 2016 roku!

 

Serwis smarterpoland.pl przygotował zestawienie najgorzej przygotowanych wykresów 2016 roku. Artykuł zwraca uwagę na błędy logiczne i manipulacje co poniektórych wykresów.

Koniecznie zobaczcie, by nie popełnić tych samych błędów!

20. Przedwojenne reklamy prasowe

 

Zestawienie pokazujące reklamy, które ukazywały się w polskiej przedwojennej prasie. Dobre przykłady copywritingu, z których do dziś można czerpać inspiracje i dowiedzieć się więcej na temat historii prasowej reklamy.

21. Reklamy na Quorze

 

Serwis opisał nową funkcjonalność serwisu Quora — narzędzia szczególnie pomocnego w promowaniu produktów, jeśli prowadzimy globalny biznes. Od niedawna możliwe jest uzyskanie dostępu do tworzenia reklam.

22. Ruch organiczny z Quora

 

Case study, które pokazuje jak generować ruch organiczny z Quora.

23. Spory domenowe — 7 najciekawszych spraw z Polski

 

Artykuł, który opisuje 7 najciekawszych sporów sądowych dotyczących domen. Ważna informacja dla marketerów odnośnie między innymi: ochrony znaków towarowych czy adresów wykupywanych domen.

24. System oceniający obywateli m.in. na podstawie aktywności w sieci

Chiński rząd pracuje nad systemem, który oceniałby obywateli, nadając im na podstawie przyznawanej punktacji określone przywileje i kary. Oceniane będą również czynniki finansowe, prawne i społeczne.

Artykuł wypunktowuje przewidywane przez chińskie władze konsekwencje wprowadzenia tego systemu.

25. Jak Social Media wpływają na zdolność kredytową?

 

Pojawiło się narzędzie oceniające nasze social media pod kątem zdolności kredytowej. Logujemy się do niego przez naszego Facebooka, a następnie możemy dodać do niego kolejne profile na innych serwisach społecznościowych — i na podstawie informacji z sieci, narzędzie może ocenić poziom naszej zdolności kredytowej.

26. Jak dodać więcej linków na Instagramie?

Jak wygenerować więcej linków na Instagramie? Darmowe narzędzielinktr.ee umożliwi Wam dodanie linków do kilku innych portali społecznościowych czy stron internetowych.

27. Jak oznaczać i linkować produkty na Instagramie?

Instagram testuje i wprowadza reklamy, które umożliwiają zakup bezpośrednio z poziomu Instagrama. Już niedługo wystarczy będzie kliknąć w produkt, który nas zainteresował, aby od razu zostać przeniesionym na stronę sklepu internetowego — szybko i wygodnie.

28. 80% użytkowników Facebooka nie lubi treści video z włączonym dźwiękiem

Autoodtwarzanie głosu w materiałach video przeszkadza aż 80%użytkowników. Facebook proponuje już rozwiązanie — choć na razie tylko z poziomu języka angielskiego — możliwość wgrania napisów do materiału video.

29. Rady Facebooka w zakresie video 360

Jak prowadzić transmisję 360? W jaki sposób myśleć o kamerze? Ile przestrzeni potrzeba, by uzyskać odpowiedni efekt nagrania? Odpowiedzi na pytania znajdziecie w tym artykule.

30. Przeanalizuj zawartość grup dyskusyjnych na FB

Jak analizować grupy na Facebooku? Darmowe narzędzie sociographułatwi Wam to zadanie — z jego pomocą z łatwością znajdziesz najpopularniejsze grupie posty, sprawdzisz ile osób odpowiedziało reakcją na wpis i kto znalazł się w rankingu najbardziej aktywnych użytkowników. Więcej na temat umiejętności sociograph przeczytacie tutaj.

31. Co angażuje na Facebooku w 2017?

Jakie typy treści na Facebooku są najbardziej angażujące?
Jakie treści najchętniej udostępniamy i lajkujemy?
Przeskanowano 800 mln postów — zobaczcie analizę przeprowadzoną przez Buzzsumo.

32. Zmiany w regulaminie Facebooka związane z organizowaniem konkursów

Jeśli zastanawiacie się jak uruchomić konkurs na Facebooku – na jakie kwestie zwrócić uwagę — to koniecznie zapoznajcie się z artykułem Sprawnego Marketingu. Ponadto, Monika Czaplicka także zwróciła uwagę na aktualizacje Facebooka w tym zakresie.

33. 13 zaskakujących nowości na VK.com

  • Funkcja Stories
  • Narzędzie look-alike
  • Katalog towarów
  • VK Live
  • Nowe rozmiary reklam
  • Jedyny pixel retargetingu
  • Audioreklama
  • Call-To-Action
  • Okładki dla społeczności
  • Przelewy między użytkownikami
  • Ukryte posty
  • Live chat dla stron internetowych
  • Vk.me. — szybki dostęp do wiadomości

Koniecznie przejrzyjcie cały artykuł o nowościach na VK.

34. Generatory skutecznych stron www

Spis najlepszych narzędzi na rynku, które pozwalają nam na utworzenie
witryn internetowych — wśród nich dwa polskie!

35. 12 przykładów skutecznych kampanii mailingowych

Zobacz najlepsze reklamy 2016 roku — jakie treści wykorzystać, by Twój e-mail marketing był skuteczny?

36. Zmiany w reklamach tekstowych AdWords = skrypt automatyzujący

31 stycznia 2017 Google Adwords przestanie wspierać standardowe reklamy tekstowe STA. Dotychczasowo utworzone standardowe reklamy nie będą mogły być już edytowane, natomiast użytkownicy nie stracą do nich dostępu.

37. Vine zamyka się 17 stycznia.

Dotychczasowe spekulacje na temat zamknięcia serwisu Vine zostały potwierdzone — ostatni dzień jego funkcjonowania przypadnie na 17 stycznia 2017 roku.

38. 6 nowości na FB Live

Nowości na Facebooku! Teraz streaming live jest możliwy również z poziomu naszego funpage’a na desktopie.

Pojawiła się także możliwość “współdzielenia” nagrania live w kilka osób — teraz każdy będzie mógł prowadzić transmisję z własnego urządzenia. Więcej newsów umieściła w swoim poście Mari Smith.

39. Reklamy na Facebooku na podstawie wyszukiwanych fraz

Facebook coraz bardziej pracuje nad swoją wyszukiwarką — wprowadza format reklamowy, który będzie targetował na podstawie słów kluczowych (w domyśle — na podstawie określonych zainteresowań).

40. Snapchat uruchomił wyszukiwarkę

Snapchat właśnie wprowadził spore ułatwienie dla użytkowników — wyszukiwarka ułatwi znalezienie znajomych czy grup. Wystarczy zaktualizować aplikację i można rozpocząć wyszukiwanie.

41. Snapchat rozwija funkcje reklamowe e-commerce

Snapchat testuje funkcje reklamowe dla e-commerce — pojawi się możliwość linkowania bezpośrednio na stronę sklepu internetowego — więcej szczegółów znajdziecie w obszernym artykule na adweek.

42. Analiza inwestorska Snapchata przed tegoroczną ofertą publiczną

Snap Inc. — firma odpowiedzialna za Snapchata, szykuje się do wejścia na giełdę. Debiut na giełdzie nastąpi w pierwszych miesiącach 2017 roku — Snap poinformował inwestorów, że w 2016 roku oczekuje przychodów z reklam na poziomie 250–350 mln dol.

Bloomberg sugeruje, że w momencie wejścia na giełdę, spółka ma być wyceniana na 35 mld, a nawet 40 mld dol.

43. Reklamy w Insta Stories i Statystyki Stories dla profili biznesowych

Instagram będzie emitował reklamy w ramach funkcji Instagram Stories. Dzięki temu firma planuje zwiększyć wpływy reklamowe .

44. FB wprowadzi reklamy video instream

Reklamy video instream są w fazie testów na Facebooku. Twórcy treści otrzymywać będą 55% z przychodu reklamowego, natomiast odtworzenie reklam instream będzie możliwe jedynie w przypadku video dluższego niż 90 sekund — najwcześniej po 20 sekundach od uruchomienia.

To dobra wiadomość zarówno dla reklamodawców, jak i twórców treści — w ten sposób do tej pory funkcjonowały wyłącznie reklamy na YouTube.

45. Nowy wygląd komentarzy na YouTube w trakcie live’ów

YouTube wdraża nową funkcję — w trakcie live’ów streamowanych na YouTube, pojawi się możliwość opłacenia swojego komentarza. Komentarz, na którym nam będzie zależało, który będzie dla istotny możemy opłacić, by YouTube “przypięty” przez cały czas trwania transmisji.

46. YouTube będzie promował młodych twórców

Małe konta będą uzyskiwały od YouTube wewnętrzne wsparcie. Pojawi się zakładka “na czasie”, która ma pomóc młodym kontom zdobyć szersze grono odbiorców. Funkcja ta jest wdrażana na razie tylko na terenie Stanów Zjednoczonych.

47. Znika komenda link: z Google

W zeszłym tygodniu zniknęła komenda link: z Google, za pomocą której można było wyszukać odnośniki prowadzące do naszych witryn internetowych.

48. Emotional Selling Proposition

O umiejętności pobudzania emocji konsumentów, o tym, czy USP (Unique Selling Proposition) nadal działa, czy genialna funkcjonalność zapewni nam przewagę nad konkurencją i jak zabezpieczyć swój model biznesowy przed skopiowaniem? Mariusz Łodyga odpowiada na te pytania w wartościowym i obszernym artykule.

49. Amazon wchodzi w PLA — czy Allegro też?

Amazon ruszył z testami najlepiej konwertującej usługi Google — Product Listing Ads. Chodzi o reklamy graficzne, które Google wyświetla w wynikach wyszukiwania obok reklam tekstowych.

50. Kalendarz Social Media

Zapraszamy na Rysuję Fejsbuki — kalendarz do pobrania dla każdego, szczególnie przydatny dla wszystkich, którzy tworzą treści w social mediach :)

51. Dobre przykłady video

Artykuł w serwisie wistia.com, który prezentuje cały przekrój inspirujących treści video. 2017 został okrzyknięty rokiem video, zatem warto przejrzeć to zestawienie i wprowadzić video do swojej strategii marketingowej.

52. 16 rzeczy, o których warto pamiętać, tworząc stronę.

Na klosinski.net pojawił się artykuł, w którym autor podsunie rady, narzędzia i metody, które pomogą Ci zaplanować, zaprojektować i stworzyć stronę internetową.

53. Jak wykorzystać gify w marketingu?

Gify to bardzo wdzięczne treści — bardziej intrygujące niż standardowe zdjęcia. W #24 odcinku podpowiadamy jak i gdzie wykorzystać gify — podajemy konkretne przykłady i prezentujemy urozmaicony nimi mailing SprawnyMarketing.pl.

54. Optymalizacja na YouTube

Jakie są najważniejsze elementy optymalizacji na YouTubie? Kilka porad, dzięki którym promocja Twoich treści video zyska na skuteczności. Dwa wartościowe artykuły, które możecie przeczytać tutaj i tutaj.

55. Sztuka na Instagramie

Są konta na Instagramie, które wyróżniają się jakością zdjęć, konceptem, stylem, pomysłami na prowadzenie profilu… Najpiękniejsze instagramowe konta, z których można czerpać inspiracje znajdziecie tutaj.

56. LinkedIn — Nowy design

LinkedIn wprowadza nowy wygląd — najpopularniejszy biznesowy portal społecznościowy jeszcze do niedawna wyglądał dość staromodnie.

Wszystkie najważniejsze elementy witryny zostały odświeżone — natomiast strona główna wygląda teraz bardzo podobnie do tej, której używamy na Facebooku.

57. LinkedIn — Engagement insights

To krok LinkedIna w kierunku reklam — razem z Data Sift. Czeka nas więc lepsze targetowanie, więcej informacji o grupach docelowych czy ciekawsze możliwości dla reklamodawców.

58. Instagram Live dostępny w kilku krajach

Gdy nagrywaliśmy #25 odcinek MPT, Instagram Live miał być dostępny w kilku krajach — natomiast dziś, gdy publikujemy tę notatkę, jesteśmy już za swoją pierwszą transmisją live z Instagrama :)

Koniecznie śledźcie Instagram Sprawnego Marketingu — nie ominą Was relacje z naszych podróży na szkolenia i wydarzenia z życia firmy!

59. Aktualizacja Google +

Google+ doczekało się aktualizacji. Co prawda nie wymienimy ich wszystkich, bo jest ich ponad 50, ale oto przykładowa: nie zobaczymy więcej komentarzy ocenionych jako niskiej jakości zanim nie wybierzemy opcji „Pokaż więcej komentarzy”, Google zadba o to, byśmy widzieli te najbardziej znaczące dla dyskusji.

Więcej na ten temat przeczytacie tutaj.

60. Twitter zapętla wszystkie filmy poniżej 6.5 sekundy

Twitter przejął inicjatywę przekazywania treści video od Vine — od teraz zapętla wszystkie nagrania video, które trwają krócej niż 6,5 sekundy. Krótką wzmiankę na ten temat znaleźliśmy tutaj.

61. Twitter wycofuje przycisk “Buy”

Twitter wycofuje się z kierunku e-commerce, usuwając przycisk „buy”. Platforma odchodzi od pomysłu sprzedaży, pozostawiając tylko funkcje dla fundacji non-profit.

62. Targetowanie reklamowe na Snapchacie

Snapchat wchodzi na giełdę i od razu wspomina o nowych możliwościach targetowania. Snapchat stara się dostarczać coraz lepsze rozwiązania reklamowe dla dużych, globalnych marek.

63. Snapchat — Multiple Video Ads

Sekcja Discover, to sekcja Snapchata za pomocą której pomocą wydawcy dostarczają użytkownikom treści (zdjęcia, video, teksty). Wydawcy treści sprzedają powierzchnie reklamowe, zyskami dzieląc się ze Snapchatem. Teraz pojawi się nowy format reklam, gdzie jedna reklama będzie podzielona na sekwencje.

64. Facebook — walka z fake newsami

Facebook w Niemczech i w Czechach, czyli w państwach, w których zbliżają się wybory, będzie zwalczać fake newsy.

Portal postara się ułatwić raportowanie o fałszywych wiadomościach.

65. Ostrzeżenia w Chrome ver 56 i GWT

Na Google security blog pojawił się news o nowym powiadomieniu, które zacznie się pojawiać wraz z 65 wersją Chrome. Gdy użytkownik będzie korzystał ze strony, która wymaga podania loginu i hasła i nie jest szyfrowana, pojawi się komunikat, że strona jest niezabezpieczona. Nie pozostaje zatem nic innego jak zainstalowanie protokołu szyfrowanego.

66. Google Mobile Interstitial Penalty

unnamed-10

W zeszłym roku Google komunikował, że strony, które na urządzeniach mobilnych będą wyświetlać reklamy zasłaniające treści i uniemożliwiające wygodne użytkowanie — dostaną karę.

Nikt jednak nie zauważył żadnych konsekwencji tej aktualizacji — nie wiadomo, czy owa aktualizacja już w ogóle działa. Zatem kto jeszcze nie zadbał o swoją stronę pod kątem „mobile first” — powinien zrobić to jak najszybciej.

67. Jak zrobić stronę Mobile-First

Na jakie elementy zwrócić uwagę, by strona była przygotowana na „mobile first”? Większość specjalistów SEO w kontekście przewidywań na 2017 rok, przewidywało ten trend jako kluczowy. Warto zwrócić więc uwagę na optymalizację pod kątem wyszukiwań głosowych — choć na rynku polskim zjawisko wyszukiwania głosowego nie jest jeszcze bardzo popularne, to już na przykład w Stanach, liczba wyszukiwań głosowych rośnie w ogromnym tempie.

Zbadajcie swoją stronę także pod kątem wyszukiwań lokalnych i nie zapomnijcie o AMP!

68. Google Crawl Budget źródło: Google, Tomasz Stopka i The SEM Post

Crwal Budget to zagadnienie, które powinno interesować właścicieli stron z bardzo dużym indeksem witryn, które posiadają bardzo wiele podstron. Jest to element, który powinniśmy mieć na uwadze po to, by Google jak najczęściej śledził i indeksował naszą stronę.

W artykule znajdziemy najczęściej zadawane pytania i odpowiedzi oraz dowiemy się jakie czynniki powinny mieć dla nas największe znaczenie. Więcej na ten temat znajdziecie także w artykule w wersji polskojęzycznej.

69. Optymalizacja wewnętrznego linkowania

Odświeżony artykuł z 2011 roku, zwraca uwagę na problem linkowania wewnętrznego, które staje się coraz bardziej istotne. Jak wygląda wasze linkowanie wewnętrze i czy macie je pod kontrolą? Jeśli linkowanie wewnętrzne w waszej witrynie jest w lekkim chaosie, warto zapoznać się z artykułem.

70. Lista 100 narzędzi, które pomogą Tobie w SEO

Deep KaKkad opublikował listę 100 narzędzi, które pomogą Ci w SEO.

71. Najlepsze praktyki jak zdominować SERPy w 2017 źródło: SEMrush

Przewidywania ekspertów od SEO na 2017 rok opublikował semrush. Warto przejrzeć podczas kompletowania swojej listy celów na 2017 rok.

72. Google promuje swoje produkty w wyszukiwarce PPC

Przeprowadzono analizę około tysiąca słów kluczowych związanych z produktami. W wielu przypadkach, okazało się, że na pierwszych miejscach pojawiały się produkty reklamowe Google lub firm, które przez Google zostały wykupione. Pojawiły się opinie, że Google wykorzystuje swoją pozycję wyszukiwarki, by promować swoje produkty.

Co ciekawe, zaraz po opublikowaniu tych testów, niektóre produkty zniknęły z wyników wyszukiwania.

73. Nowe metody targetowania na Youtube źródło: SocialMediaToday

YouTube ogłosiło nową formę targetowania reklam — pojawi się możliwość targetowania w taki sposób, by ustawiać swoją reklamę odwołując się do konkretnych wyszukiwań użytkowników.

Zatem pojawi się możliwość rozszerzenia grup użytkowników potencjalnie zainteresowanych naszą reklamą.

74. 19 nowych rzeczy, które pojawiły się w AdWords w 2016 Sprawny.Marketing

Co zmieniło się w AdWords w 2017 roku? Bardzo obszerny i wartościowy artykuł Basi Czerniewicz z Goldposition, która zwraca uwagę na istotne (i największe od kilku lat!) aktualizacje w AdWords.

75. Matt Cutts odchodzi z Google

Z Google do instytucji publicznej — Mat Cutts przeszedł do departamentu rządowego zajmującego się usługami cyfrowymi.


 Share

Artykuł 75 najważniejszych marketingowych newsów stycznia! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Zamień Online Marketing na Nowy Magazyn sprawny.marketing ➜ 127 zł

Z końcem kwietnia będzie miało miejsce premierowe wydanie magazynu sprawny.marketing. Roczną prenumeratę można zamówić za 97 zł!

magazyn sprawny.marketing

Dlaczego warto zamienić swój dotychczasowy magazyn na sprawny.marketing?

W każdym numerze znajdziecie przekrój najważniejszych nowości ze wszystkich działów online marketingu:

  • Google i SEO
  • Google AdWords i kampanie płatne
  • Facebook Marketing
  • Instagram
  • LinkedIn
  • YouTube i Video Marketing
  • Twitter i Periscope
  • Messenger, WhatsUp, Snapchat
  • E-mail Marketing

Wysokość wynagrodzenia autorów będzie zależała od głosów czytelników – im więcej głosów, tym wyższe wynagrodzenie. Łącznie na gaże autorów przeznaczymy aż 20 000 zł. Gwarantuje to treści najwyższej jakości.

Głosować na najlepszy artykuł będą mogli jedynie prenumeratorzy – nie będzie to więc konkurs popularności w mediach społecznościowych, a faktyczna ocena czytelników.

Co wyróżnia magazyn sprawny.marketing?

  • Darmowa aplikacja mobilna w pakiecie z magazynem – głosowanie na artykuły odbywa się za pomocą QR kodów w aplikacji mobilnej sprawny.marketing, która dzięki temu zyskuje unikalną funkcjonalność
  • Każdy artykuł jest sprawdzany pod względem wskaźnika mglistości Gunninga-Foga, dzięki czemu o skomplikowanych tematach piszemy w przystępny sposób
  • Angażujące historie i polskie studia przypadków
  • Grupa dyskusyjna na Facebooku, gdzie można mieć kontakt z autorami tekstów i zdawać pytania
  • Jest to jedyny magazyn marketingowy w Polsce dostępny w Apple Store, Google Play i Amazon

 

sprawny-logo-magazyn
Pomoże Ci rozwiązać najczęstsze problemy, z którymi na co dzień mierzysz się w pracy marketera, a także dostarczy wielu nowych pomysłów i inspiracji do działania!


 Share

Artykuł Zamień Online Marketing na Nowy Magazyn sprawny.marketing ➜ 127 zł pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

53 najważniejsze marketingowe newsy grudnia 2016!

Marketingowe Podsumowanie Tygodnia to cotygodniowy program live, podczas którego prezentujemy Wam przegląd marketingowych newsów minionego tygodnia. Co tydzień omawiamy najważniejsze, najciekawsze branżowe nowości, które nie powinny Was ominąć. Do każdego odcinka wybieramy wyselekcjonowane treści, tym samym usprawniając Wam czasochłonny research :) Kończąc grudzień – a tym samym rok 2016 – naszedł czas na Marketingowe Podsumowanie Miesiąca, czyli streszczenie nagrań z minionego tygodnia.

Jeżeli nie widziałeś wszystkich odcinków MPT z poprzednich miesięcy, koniecznie nadrób zaległości:

Prezentujemy grudniowe newsy:

 

1. Remarketing Facebook

Ciekawy artykuł z bloga Jon Loomer Digital – wszystko, co musisz wiedzieć o remarketingu na Facebooku.

Dla początkujących reklamodawców na Facebooku:

  • Co to jest remarketing?
  • Co możemy zrobić za pomocą remarketingu?
  • Jakie nowości ostatnio wprowadził Facebook?

Dla bardziej zaawansowanych Facebook marketerów:

  • Kombinacje niestandardowe i o tym, jak z nich korzystać.
  • NOWOŚĆ – remarketing do osób, które spędziły na Twojej stronie najwięcej czasu.

Wartościowy artykuł, w którym niezależnie od zaawansowania, każdy znajdzie coś dla siebie!

2. Nowa forma prezentacji firmy na Pintereście.

pinterest

Nowa opcja na Pintereściewizytówka konta biznesowego w formie prezentacji. Zareklamuj się w krótkiej formie u góry swojego profilu na Pintereście!

3. Facebook uruchomił platformę z inspiracjami na mobile

Platforma, dzięki której możemy zobaczyć przykłady kreatywnych kampanii z całego świata na mobile. Jak inne firmy działają z nowymi formatami reklam? Jakie znaczenie ma mobile dla Facebooka i jak promować najnowsze rozwiązania Facebooka?
Zobaczysz  tutaj.

4. Rewolucja video w 2017 na Facebooku

Wielkie zmiany w aplikacji Facebooka – dojdzie możliwość filtrowania postów tylko pod kątem video. Ponadto eksperci Facebooka zapowiadają, że już niedługo cały serwis zdominują treści video i będzie przede wszystkim mobilny.
Zobaczcie video Mari Smith na ten temat .

5. Monetyzacja Facebook Live

facebook live

Reklamy Facebook Live’ów – już w czasie trwania live’a będzie można go promować, co znaczenie zwiększy zasięgi naszego video! Dodatkowo dojdzie możliwość dodania brandingu na video Live. W załączonym artykule znajdziesz wszystkie informacje dotyczące tego, jakie pojawią się nowe możliwości w Facebook Live.

6. Jak zapowiedzieć Facebook Live’a

Nowe rozwiązanie na Facebooku – jak zapowiedzieć transmisję na żywo (nawet na kilka dni przed): instrukcja krok po kroku.

7. Pojawiły się reklamy w grupach – zapowiadaliśmy to w poprzednich live’ach i oto są:

grupy na facebooku

8. Najchętniej udostępniane reklamy w 2016 roku (zwróćcie uwagę na: emocje oraz storytelling)

Co tworzyć, jeśli chodzi o content video? Co przyciąga uwagę użytkowników social mediów i co jest najchętniej udostępniane? Na Marketing Land znajdziecie obszerny artykuł.
Jeśli chcecie poczytać więcej o reklamach upływającego roku, polecamy także artykuł Ostatnie 12 miesięcy reklamy w Polsce, czyli 2016 w pigułce.

9. Ostatni Cyber Monday największym w historii e-commerce

  • Wydane 3,4 miliarda w online
  • Więcej ruchu ze smartfonów i tabletów niż PC

Więcej informacji o podsumowaniu Cyber Monday na Marketing Land.

10. Gry na Messengerze i Facebooku

gry na facebook

Na Facebooku i Messengerze zostały wprowadzone gry – nie musisz już opuszczać Facebooka, możesz zagrać z poziomu portalu :)
https://developers.facebook.com/…/instant-games-closed-beta/
http://newsroom.fb.com/…/game-on-you-can-now-play-games-on…/

11. Dlaczego wróciliśmy do formatu 16:9?

Tym newsem rozpoczęliśmy część Czarka, który tłumaczy, że format 1:1 wielu osobom nie odpowiadał, źle wyświetlał się też na niektórych przeglądarkach, na YouTubie również lepiej 16:9 wygląda. Bardziej obszerne omówienie kwestii formatów filmów, znajdziecie tutaj.
format video

12. 5 najważniejszych czynników SEO na YouTube?

Jakie czynniki są szczególnie istotne w SEO na YouTube? Autor video zwrócił uwagę m.in. na takie elementy jak: interesujący początek, słowa kluczowe w materiałach video, watchtime całego konta (dlatego warto tworzyć dłuższe materiały video), reakcje na film, a także miniaturka video. Więcej szczegółów na ten temat: Video SEO – How to Rank #1 in YouTube (Fast!)

13. Video 4k na YouTube dostępne w Live streamingu

Już w tej chwili możemy streamować materiały video na YouTube w 4k! Więcej informacji: http://thenextweb.com/insider/2016/11/30/rejoice-gamers-youtube-to-introduce-4k-live-streaming/

14. Jak zweryfikować konto na Twitterze?

Nowy artykuł Pawła Lipca, w którym autor opowiada o swoich doświadczeniach z weryfikacją swojego profilu na Twitterze. Najważniejsze informacje, które warto uzupełnić, by podnosić poziom wartości treści oraz kilka ważnych przykładów.

15. Jak Google indeksuje Twittera?

Google przestał intensywnie indeksować Twittera. Jak natomiast indeksowane są zweryfikowane profile i jak duże znaczenie ma to dla pozycji w wynikach wyszukiwań? Szczegółową analizę znajdziecie tutaj.

16. Google i Bing zwiększają maksymalny rozmiar plików Map Strony

Wielkość mapy strony może być już 50 MB – spore ułatwienie dla tych z Was, którzy przygotowują mapy stron. Więcej na Search Engine Journal.

17. Narzędzia do przyspieszania szybkości strony www:

5 narzędzi na mierzenie dostępności strony z poziomu wersji mobilnej czy szybkości witryny.
Jak poprawić swój wskaźnik pozycjonowania SEO i współczynnik konwersji? Paweł Gontarek w  swoim artykule odpowie na właśnie te pytania.
szybkosc www

18. Jak zaimplementować AMP na swojej stronie? Search Engine Journal

Przyspieszanie stron www na urządzeniach mobilnych – technologia AMP pomoże ci poprawić skuteczność swojej reklamy. Jak wdrożyć AMP? Jeśli jesteś reklamodawcą, koniecznie zapoznaj się z tematem implementacji AMP: Search Engine Journal.

19. 11 metod na niestandardowe rozkręcenie Snapchata – Social Media Examiner

  • Jak zintegrować na wizytówce swój QR kod?
  • Jak zapraszać klienta do followania na Snapchacie?
Rzućcie okiem, jeśli chcecie rozkręcić swojego Snapchata.

20. Kolejny świetny case marketingowych chłopaków z Suchar codzienny na Medium Polska:

Case dotyczący pre-paidowych kart – kampania, przykłady treści i strategia contentowa. Jak wykorzystywać social media do budowania wizerunku i zasięgów? Zobaczcie to na przykładzie jedno z największych polskich kont na Instagramie!

21. Kalendarz e-commerce

kalendarz e-commerce

Kalendarz, który przypomni Wam o wszystkich ważnych wydarzeniach branżowych, jak również o ważnych terminach sprzedażowych.
http://kalendarzecommerce.pl/

22. Numery GTIN w Google Zakupy / Google Merchant

Uzupełnij pole GTIN i pozyskaj więcej kliknięć. Jak podnieść CTR swojej kampanii?

23. Wykasuj się z Internetu…

wykasuj sie z internetu

Narzędzie, które pozwala nam usunąć konta z serwisów, w których kiedyś się zarejestrowaliście. Sprawdźcie narzędzie i zamknijcie konta na dawno nieużywanych portalach.

24. 3. sezon Black Mirror na NetflixGenialny serial dla branży interaktywnej

Kolejny sezon serialu Black Mirror – serial, który spodoba się każdemu fascynatowi social mediów. Wysokiej jakości realizacja, zwracający uwagę kwestie bezpieczeństwa związane z social mediami i jak mogą one wpłynąć na nasze życie.  Recenzja na Newsweek Polska oraz link do serialu.
black mirror season 3

25. Nie można już używać reakcji do głosowania?

reakcje do głosowania
Informacja, która rozpaliła serca wszystkich social media marketerów. Czy głosowanie reakcjami w trybie live jest zgodne z regulaminem Facebooka? Okazuje się, że zgodnie z regulaminem Facebooka nie można:
  • używać reakcji jako mechanizmu do głosowania
  • wybrać sobie tylko niektórych reakcji w celu głosowania
Facebook optuje za używaniem reakcji w celu umożliwienia użytkownikiem wyrażenia różnych emocji – bo z takim przeznaczeniem reakcje zostały na Facebooka wprowadzone. Niektóre firmy jednak zamiast reakcji testują obecnie głosowanie live za pomocą hashtagów – w naszym filmiku pokazaliśmy Wam jeden z przykładów.

26. Linki na Instagramie naprawdę działają!

linki na instagram

Dotychczas Instagram nie dawał reklamodawcom dużych możliwości reklamowania swojej strony (jedynie w biogramie można było zamieszczać link), jednak przyszedł czas na zmiany. Linki do swojej strony możesz teraz dodać także w Instagram Stories, a strony, które już to zrobiły, odnotowują CTR na poziomie 15-25%. Więcej informacji znajdziesz w artykule na Marketing Land.

27. Nakładki do zdjęć i filmów na Facebooku

nakładki do zdjęć na fb

Geofiltry dotychczas były dostępne tylko na Snapchacie. W tym tygodniu, jako kolejny etap walki z jednym z największych konkurentów, Facebook również je wdrożył. Masz możliwość stworzenia dwóch typów nakładek: lokalizacji i okazjonalnej. Tutorial jest dostępny z poziomu samego Facebooka w języku polskim.

Polecamy artykuł na ten temat.

28. Większa kontrola nad komentarzami na Instagramie

komentarze instagram

Pojawiła się możliwość wyłączenia opcji komentowania pod postami – Instagram zaczął zapewniać większą autonomię właścicielom kont.

29. Linki do Profili na Facebooku z Instagrama:

Instagram zaczął automatycznie zaciągać link do profilu na Facebooku. Więcej na temat tego rozwiązania przeczytacie tutaj.

30. Testy komentarzy-chatu na Facebooku

komentarze na chacie

Nowe rozwiązanie dla komentarzy na Facebooku, które na razie jest dopiero w fazie testów. Warto jednak zwrócić uwagę na to, w którą stronę zmierza komunikacja na Facebooku i na co powinniśmy się przygotować!

31. Content na Facebooku w 2017

Jak przygotowywać ciekawy content na Facebooka na 2017 rok? Mari Smith, ekspertka w dziedzinie Facebooka, podaje ciekawe przykłady. Omawia kwestie zasięgów organicznych oraz przekazuje wiele informacji dotyczących wideo. Przydatny webinar nawet dla zaawansowanych użytkowników Facebooka.

32. 10 najpopularniejszych reklam na YouTube w 2016 roku.

popularne reklamy w 2016

Oto lista 10 najpopularniejszych reklam na YouTubie upływającego roku. Kasia zwróciła uwagę na reklamę Knorra – zapraszane do studia osoby w pozornie niewyreżyserowany sposób opowiadają o sobie i swoich preferencjach kulinarnych, następnie zapoznają się z innymi singlami o podobnych preferencjach kulinarnych – konwencja reklamy stylizowanej na naturalną, niewymuszoną sytuację, wciąż więc zajmuje wysoką pozycję.

33. 20 książek polecanych przez Billa Gatesa

bill gates favourite book

Różnorodne pozycje – od motywacyjnych, po tematykę budowania firmy, które poleca Bill Gates.

34. Twitter Google i emoji

twitter google emoji
Możesz zatweetować dowolną ikonkę i dostaniesz informację zwrotną od Google, jakie firmy w naszej lokalizacji mogą na Twoją potrzebę odpowiedzieć –możesz na przykład wstawić ikonkę sushi i w zwrotnych wynikach od Googla otrzymasz listę najbliższych miejsc, gdzie możesz zjeść sushi.

35. Google indeksuje emoji w adresach url

emoji w url

Emoji są coraz ważniejsze w komunikacji internetowej. Więcej przeczytasz tutaj.

36. Sieci neuronowe Google i rozpoznawanie obrazów

sieci neuronowe

Jak Google radzi sobie z rozpoznawaniem obrazków? Narzędzie, które pozwala nam rysować kształty, a wyszukiwarka samodzielnie je rozpoznaje. Czarek zwraca też uwagę na to, jak istotne w związku z tym są grafiki i ich nazwy na stronach internetowych w kontekście SEO.

37. Jak zaprojektować banery, które działają?

banery

Artykuł na blogu Brand24, który dotyczy tego, jak projektować banery. Zwraca uwagę na historię ich powstania i tego, co najbardziej istotne przy projektowaniu. W tym tekście znajdziecie też wiele kreatywnych przykładów.

38. Viral na Twitterze

viral na twitterze

Tweety, które mają wysoką liczbę udostępnień. Jak tweetować, by być czytanym? Znajdziecie tu ogólnie wytyczne, które tweety powinny spełniać, by zyskać na popularności.

39. Cinemagrafiki w social mediach

cinemagrafiki

Czarek pokazuje kilka przykładów, które zostały przygotowane za pomocą narzędzia Flixel. Cinemagrafiki można wykorzystać w różnych kontekstach – firmy o rozmaitych profilach na pewno znajdą coś dla siebie – coś, co urozmaici ich posty czy mailingi.

40. Najchętniej share’owane artykuły 2016 roku na Facebooku

most popular fb articles

Pokazujemy spis 15 najpopularniejszych artykułów na Facebooku. Autor artykułu zwraca uwagę na takie kwestie, jak sama treść czy tytuł – i zachęca do wyciągania wniosków z danych statystycznych.

41. Jak sprzedawać na Instagramie?

jak sprzedawac na instagramie

Instagram jest dobrym miejscem do tego, by budować świadomość marki i inspirować. Przedstawiamy narzędzie, które ułatwia zakupy poprzez Instagrama – przydatne dla każdego, kto reklamuje swoją markę na Instagramie. Artykuł zwraca też uwagę na to, jakie kreacje na Instagramie są najbardziej inspirujące i najchętniej oglądane i porusza kwestie reklam na Instagramie.

42. Nowe rozszerzenie w Adwords

rozszerzenie adwords

Od zeszłego tygodnia możemy dodawać w reklamie Adwords opinie klientów o naszej firmie. Według badań Google dodanie tego rozszerzenia może poprawić klikalność w naszą reklamę aż o 10%.

43. 8 firm, które robi dobrze social media

social media

Artykuł z Marketing Land, który pokazuje, jak dobrze prowadzić profile w social media. Jeśli się uczyć, to od najlepszych – dlatego polecamy przejrzeć artykuł i zainspirować się 8 najlepszymi firmami w zakresie ich aktywności w social mediach i kampanii reklamowych.

44. Vine zmienia się w Vine Camera

vine camera

Vine jako serwis zostaje zamknięty, natomiast samej funkcji Vine (6 sekundowe, zapętlone treści) będzie można używać na Twitterze lub zapisywać sobie do rolki aparatu. Więcej info znajdziecie tutaj.

45. Facebook będzie oznaczać fake news’y

To nowe narzędzie Facebooka ma ograniczyć rozprzestrzenianie się fałszywych informacji. W mediach społecznościowych nieustannie pojawiają się treści, które udostępniamy i lubimy. Facebook postanowił wytoczyć wojnę fałszywym newsom, wprowadzając możliwość flagowania (potencjalnie) nieprawdziwych postów. Treści te będą następnie weryfikowane przez Facebooka i — jeśli okażą się nieprawdziwe — otagowane zostaną specjalnym komunikatem.

 

social media news

46. Instagram wprowadza live dla użytkowników z US

Funkcja streamingu w czasie rzeczywistym, czyli live video już niedługo będzie dostępna w Instagram Stories. Podczas transmitowania wideo na żywo, użytkownik będzie miał możliwość zarządzania komentarzami pod swoim materiałem lub całkowitego ich wyłączenia. O rozpoczęciu transmisji live, obserwujące osoby mają być informowane — zastosowane więc zostanie tu podobne rozwiązanie do transmisji live na Facebooku. Maksymalna długość transmisji będzie wynosiła 60 minut. Link do artykułu, w którym Mateusz znalazł newsa.

47. Nowości na Snapchacie

W czwartym newsie prezentujemy nowości dostępne na Snapchacie — czyli: rozmowy grupowe, Shazam, nożyczki i pędzel.

Snapchat oficjalnie ogłosił wprowadzenie grup do swojej aplikacji — z nowej funkcji skorzystasz w prosty sposób, rozpoczynając nowy czat lub wysyłając snapa. Nożyczek natomiast użyjemy, aby wyciąć część snapa, a następnie z wycinka zrobić naklejkę; pędzel możesz wykorzystywać do wklejania zachowanych fragmentów i tworzenia innowacyjnych Snapów.

Ponadto Snapchata zintegrowano z aplikacją Shazam, dzięki czemu można rozpoznawać wybrane utwory, przytrzymując palcem ekran.

Więcej o nowościach na Snapie.

48. Live na Twitterze

Twitter ogłosił wprowadzaną zmianę poprzez tweeta, który pokazał nowy sposób na transmisje video live. Dodany ma zostać nowy przycisk, który będzie umożliwiał transmitowanie za pośrednictwem Periscope na Twitterze.

49. Facebook Live 360

Pojawiła się nowa metoda transmisji na żywo na Facebooku: Live 360.Pierwszy Live 360 można było zobaczyć na stronie National Geographic. Transmisja 360 będzie dostępna dla większej liczby stron w perspektywie kilku najbliższych miesięcy.

Jeśli chcesz poczytać więcej o Live 360, kliknij tutaj.

50. Instagram ma już 600 milionów użytkowników

Instagram wciąż rośnie w siłę — co ciekawe, ostatnie 100 milionów instagramowiczów dołączyło w przeciągu ostatnich 6 miesięcy! Mat podkreślił, jak intensywny ten rok był dla Instagrama i spekuluje na temat jego dalszego rozwoju w stronę e-commerce.

51. Zapisywanie wpisów na Instagramie

Pozostając przy Instagramie — wprowadza on coraz to nowsze usprawnienia. Serwis otrzymał właśnie nową funkcję, która pozwala na zapisywanie postów. Dzięki temu w dowolnej chwili będziemy mogli wrócić do filmów i zdjęć, które nam się spodobały.

Nowa funkcja została dokładnie opisana na blogu Instagrama.

52. Facebook Parents Portal

Facebook wprowadza informatory dla rodziców, podkreślając tym samym, że zależy mu na polityce bezpiecznego Internetu. Edukacyjny program Facebooka dla rodziców pomoże nadzorować zachowania dzieci w sieci społecznościowej.

Więcej przeczytasz tutaj.

53. Płatności na Messengerze w Europie

jak płacić przez messengera

Facebook zaczyna wdrażać płatności za pomocą Messangera na terenie Europy — funkcja ta działa już na terenie Stanów Zjednoczonych. Już niedługo będzie wystarczyło podpiąć swoją kartę kredytową, by przelać swoim znajomym pieniądze za pomocą Messangera.

54. Google Home i okulary Snapchata

W dalszej części programu Bartek Berliński prezentuje nowe gadżety, które przywiózł ze Stanów Zjednoczonych — Google Home, czyli osobistego asystenta Google i nowe okulary Snapchata — Spectatles. Więcej o Google Home i Spectatles dowiecie się z naszego artykułu 14 pomysłów na prezent świąteczny dla marketera.


 Share

Artykuł 53 najważniejsze marketingowe newsy grudnia 2016! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Newsy marketingowe – listopad 2016

Marketingowe Podsumowanie Tygodnia to cykl cotygodniowych programów live, podczas których robimy dla Was przegląd marketingowych newsów każdego tygodnia. Co tydzień nagrywamy program, w którym omawiamy najważniejsze, najciekawsze branżowe nowości, które nie powinny Was ominąć. Do każdego odcinka wybieramy 10-12 najlepszych treści, tym samym ułatwiając Ci czasochłonny research :) Wraz z końcem listopada, naszedł czas na Marketingowe Podsumowanie Miesiąca, czyli streszczenie minionego miesiąca i ostatnich 4 nagrań.

Jeżeli ominęły Cię newsy z poprzednich miesięcy, koniecznie nadrób zaległości:

Prezentujemy odcinki nagrane w listopadzie, z uwzględnieniem 3 najważniejszych news’ów:

#15 Marketingowe Podsumowanie Tygodnia

  • Snapchat Spectacles – nowe informacje techniczne Business Insider
  • Analityka na Snapie
  • 100 pytań Boty by Monika Mikowska z jestem.mobi

#16 Marketingowe Podsumowanie Tygodnia

  • Reklamy na Messenger
  • Reklama karuzelowe na YouTube
  • Livestreaming na Instagram

#17 Marketingowe Podsumowanie Tygodnia

    • Twitter QR Codes
    • Nowe opcje kierowania reklam na FB
    • Eyetracking – śledzenie wzroku

#18 Marketingowe Podsumowanie Tygodnia

  • Live’y na Instagramie
  • Nowa wersja Google Sites
  • 15 wtyczek do WordPressa


 Share

Artykuł Newsy marketingowe – listopad 2016 pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Newsy marketingowe – październik 2016

Marketingowe Podsumowanie Tygodnia to przegląd kilku najciekawszych newsów minionego tygodnia – co tydzień nagrywamy dla was program, w którym omawiamy starannie wyselekcjonowane wcześniej nowości. Jeśli dotychczas nie znałeś naszego programu, koniecznie przejrzyj poprzednie nagrania i obserwuj kolejne odcinki. Nie musisz poświęcać czasu na czytanie kilkudziesięciu branżowych artykułów, bo my robimy to za Ciebie – wybieramy najlepsze treści a następnie prezentujemy i omawiamy je podczas cotygodniowego Marketingowego Podsumowania Tygodnia. Kolejne 4 nagrania znów za nami, więc czas na podsumowanie całego października :)

Zobacz też newsy z poprzednich miesięcy:

Przedstawiamy październikowe odcinki, wymieniając 3 najważniejsze news’y każdego tygodnia:

#11 Marketingowe Podsumowanie Tygodnia

  • Zmiany w Messengerze – kolejny etap wojny wypowiedzianej przez FB Snapchatowi
  • Boty w Messengerze
  • Google Optimize za darmo

#12 Marketingowe Podsumowanie Tygodnia

  • Rewolucja w e-commerce? Startuje Facebook Marketplace
  • Facebook testuje formatowanie treści
  • Google uruchamia Shop the Look

#13 Marketingowe Podsumowanie Tygodnia

  • Boty na Messengerze – przykład m.in. Suchara Codziennego
  • Jak tworzyć Momenty na Twitterze?
  • Koniec Meerkata + zmiany w Periscope

#14 Marketingowe Podsumowanie Tygodnia

  • Koniec Vine! Giphy?
  • Netflix w Social Mediach
  • Typografia na stronach www


 Share

Artykuł Newsy marketingowe – październik 2016 pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Newsy marketingowe – wrzesień 2016

Znasz już nasz cotygodniowy program Marketingowe Podsumowania Tygodnia? Jeśli nie, koniecznie nadrób zaległości, a także obserwuj nasze kolejne odcinki – zaoszczędzisz dzięki temu dużo czasu, który byś poświęcił na samodzielny research najciekawszych newsów, jakie pojawiły się w każdym tygodniu. My, żeby przygotować jeden odcinek, przeglądamy 200–300 artykułów, czytamy około 100, z czego finalnie do omówienia wybieramy 10–12 najbardziej praktycznych treści – Ty nie musisz już tego robić, dzięki czemu zaoszczędzasz czas :)! A w dzisiejszym tekście znajdziesz podsumowanie całego ostatniego miesiąca :)

Chcecie też dowiedzieć się więcej o tym, jak wygląda przygotowanie ,,od kuchni” naszych live’ów :)?

Chcecie dowiedzieć się, z jakiego sprzętu korzystamy? Czego się nauczyliśmy przez pierwsze 2 miesiące przygotowywania Podsumowań Tygodnia?

Zachęcamy do przeczytania notki Cezarego Lecha na ten temat

Poniżej wrześniowe odcinki, wraz z wymienieniem 3 NAJWAŻNIEJSZYCH newsów z każdego:

#7 Marketingowe Podsumowanie Tygodnia:

  • Wykorzystanie WhatsApp w Marketingu,
  • Zoomowanie zdjęć na Instagramie,
  • Duże zmiany w remarketingu na Facebooku

#8 Marketingowe Podsumowanie Tygodnia:

  • Narzędzia perswazji Cialdiniego,
  • Wertykalne wideo to przyszłość,
  • Sporo o nowościach w kanałach social media

#9 Marketingowe Podsumowanie Tygodnia:

  • Koniec 140 znaków na Twitterze,
  • Wpływ Insta Stories na Snapchata?
  • Snap i reklamy w głównym feedzie

#10 Marketingowe Podsumowanie Tygodnia:

  • Z jakich serwisów korzystają nastolatkowie?
  • Google włącza AMP=SEO AMP,
  • Update w Google Pingwin


Dodałbyś/dodałabyś jeszcze jakieś informacje do naszej listy :)?

Pisz koniecznie w komentarzu!


 Share

Artykuł Newsy marketingowe – wrzesień 2016 pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Newsy marketingowe – sierpień 2016

Od połowy lipca na naszym Facebooku możecie śledzić nowy cykl – stały, cotygodniowy program live Marketingowe Podsumowanie Tygodnia. Zbieramy tam dla Was wszystkie najważniejsze nowości z branży, jakie pojawiły się w każdym tygodniu. Jeśli przegapiłeś/aś jakiś odcinek – poniżej zebraliśmy dla Ciebie po 3 najważniejsze newsy z każdego odcinka + podajemy link do video, w którym znajdziesz rozwinięcie tych informacji.

O programie – nasze pierwsze odczucia:

  1. Przygotowanie 30–40 minutowego programu zabiera przynajmniej 10–20 godzin, poświęconych lekturze artykułów, przeglądaniu treści i zgłębieniu poruszanych w trakcie LIVE’a zagadnień.
  2. Średnio do odcinka przeglądamy 200–300 artykułów, czytamy około 100, z czego finalnie do omówienia wybieramy 10–12 najbardziej praktycznych treści, która dodatkowo wzbogacamy naszą opinią i komentarzem, starając się nadać danemu tematowi nieco szerszy kontekst.
  3. Prowadzenie audycji na żywo to nieustanna praca i rozwój, nie ma tygodnia bez kolejnych inwestycji w:
  • sprzęt
  • scenografię:
Katarzyna Granops-Szkoda

Tworzymy coraz to nowe gadżety, żeby urozmaicać transmisje :)

  • oprogramowanie:

oprogramowanie Facebook live Jeśli myślisz o uruchomieniu własnego kanału na YouTube lub regularnych Transmisji LIVE na Facebooku, to rada za Krzysztof Gonciarz może być tylko jedna… Wykonaj KROK PIERWSZY:

Poniżej 6 pierwszych odcinków, wraz z wymienieniem 3 NAJWAŻNIEJSZYCH newsów z każdego:

Odcinek #1:

3 najważniejsze newsy:

1. Facebook dominuje komunikatory!

Spośród ośmiu najpopularniejszych komunikatorów online na świecie cztery należą do Facebooka!

2. Nowe Funkcje i Filtry na Snapchacie

3. Facebook Live z nowymi funkcjami

Zobacz wszystkie newsy:

Odcinek #2:

3 najważniejsze newsy:

1.  Raport o AdBlokerach

2. 50 Najskuteczniejszych kampanii banerowych

3. Patent Google potwierdzający wpływ CTR — klikalności w wynikach wyszukiwań — na pozycje

Zobacz wszystkie newsy:

Odcinek #3:

3 najważniejsze newsy:

1. Trendy i narzędzia podnoszące zasięgi organiczne na FB

2. Czym są AMP pages i dlaczego to kolejna poważna zmiana w Google?

3. Nowe Rich Snippety w Google

Zobacz wszystkie newsy:

Odcinek #4:

3 najważniejsze newsy:

1. 10 ostatnich zmian na Facebooku

2. Zmiany w algorytmie Facebooka i sposoby, jak sobie radzić po zmianie algorytmu

3.  Nowe możliwości remarketingu na FB

Zobacz wszystkie newsy:

Odcinek #5:

3 najważniejsze newsy:

1. Zmierzch kampanii bannerowych… i wzrost znaczenia reklamy natywnej

2. Narzędzie analizujące bezpieczeństwo Twojej strony

3. System Reklamowy Pinterest!

Zobacz wszystkie newsy:

Odcinek #6:

3 najważniejsze newsy:

1. Snapchatyzacja Marketingu – Facebook testuje reklamy wertykalne, aplikacja YouTube również wprowadza treści wertykalne oraz transmisje LIVE

2. Najnowsze aktualizacje i nowe narzędzia na Facebooku

3. Czy hashtagi na Twitterze naprawdę działają?

Zobacz wszystkie newsy:

3 prośby zamiast zakończenia :):

  1. Macie jakieś sugestie, jak moglibyśmy jeszcze udoskonalić nasz program? Piszcie w komentarzach :)!
  2. Chcecie być na bieżąco także z wrześniowymi newsami? Jeśli tak, bardzo prosimy o subskrybowanie naszego kanału YouTube, a także o obserwowanie naszego profilu na Facebooku
  3. Co myślicie o warsztatach z:
    • Prowadzenia Transmisji LIVE na Facebooku?
    • Przygotowywania Webinarów On-Line z wykorzystaniem technologi YouTube?
    • Warsztaty miałyby odpowiedzieć na takie pytania jak: Jak zbudować biurowe studio video? Jaki sprzęt kupić? Jakie oświetlenie? Jakie mikrofony? Jakie oprogramowanie używać do nagrywania i prowadzenia transmisji na żywo?

Dajcie znać w komentarzach… co myślicie o takich warsztatach np. drugiego dnia konferencji I LOVE MarketingI ❤ Marketing [25.10.2016] ? :)


 Share

Artykuł Newsy marketingowe – sierpień 2016 pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Black Hat SEO hostingodawcy z wykorzystaniem protokołu https

Podczas wtorkowego szkolenia SEO, w trakcie analizy LIVE działań Link Buildingowych, wzięliśmy pod lupę znaną (w szczególności wśród blogerów) firmę hostingową zenbox.pl. Niestety szybko pojawiły się podejrzenia o świadome stosowanie technik Black Hat.

Ogromne zaciekawienie wzbudziły poniższe wykresy:

Wykres przedstawiający przyrost witryn zawierających linki do domeny zenbox.pl

Wykres przedstawiający przyrost witryn/stron zawierających linki do domeny zenbox.pl

Widząc tak efektowny przyrost nie pozostało nam nic innego jak wczytać się głębiej i dokładniej przeanalizować technikę pozyskiwania takiej skali linków w tak (jakby nie było) krótkim czasie.

Linki = Wzrost!

Za wzrostem linków idzie także wyraźny przyrost widoczności słów kluczowych:

Wzrostu pozycji slow kluczowych w semstorm

Podejrzeń mieliśmy wiele, ale to co zobaczyliśmy, delikatnie mówiąc, wprawiło nas w osłupienie.

To jest tylko skromy wycinek z listy domen linkujących do zenbox.pl – jak sami widzicie pojawiają się tutaj domeny znanych blogerów (Paweł Tkaczyk, Andrzej Tucholski, Jakub Prószyński, Łukasz Kielban, Michał Kędziora, Michał Szafrański). W pierwszej kolejności pomyśleliśmy o szeroko zakrojonej akcji content marketingowej, w którą zaangażowały się popularne osoby z blogosfery i z takim założeniem zaczęliśmy szukać „treści” linkujących do beneficjenta tych działań, czyli zenbox.

Content w większości przypadków wygląda następująco:

https://paweltkaczyk.midea.pl

03-zen

https://mrvintage.pl

09 zen

https://andrzejtucholski.pl

10 zen

https://pijarukoksu.pl

07 zen

https://czasgentlemanow.pl

06 zen

https://blog.paylane.com

13 zen

https://jestkultura.pl

12 zen

Żeby dotrzeć do tego widoku… w przeglądarkach Chrome i Firefox trzeba się przeklikać przez tryb ZAAWANSOWANY (1 krok) i kliknąc link w stopce (krok 2):

tryb zaawansowany w google chrome

Jak pokazują narzędzia analizujące linki przychodzące, Zenbox częściowo poradził sobie z problem na takich domenach jak:

linki z ssl do zenbox z jakoszczedzacpieniadze

link z wersji https upolujebooka do zenbox

Linki oraz pełne wersje witryny w https:// zostały usunięte.

Dlaczego pomimo upływu 8 miesięcy nie załatwiono problemu kompleksowo na wszystkich domenach?

  • Czy to celowe działanie zenbox.pl czy może błąd w konfiguracji serwera?
  • Czy klienci firmy hostingowej wiedzą o posiadaniu szyfrowanego protokołu swojej domeny i czy są świadomi tego, jak wygląda ich strona w wersji https?
  • Czy takie działanie jest etyczne?
  • Czy jest możliwe przypadkowe wygenerowanie i uruchomienie protokołu SSL dla blisko 2000 domen?

Te i inne pytania pojawiły się w naszych głowach, dlatego poprosiliśmy o wsparcie w (kwestiach technicznych) Jakuba Orłowskiego z LH.pl, z którym w ostatnim czasie skonfigurowaliśmy szyfrowany protokół SSL dla https://sprawnymarketing.pl

Wypowiedź Jakuba Orłowskiego, Specjalisty ds. Marketingu w LH.pl:

  • Czy zenbox.pl wie o tej sytuacji?

    Myślę, że to jest pytanie do Zenbox :) Sądząc po sprzedażowych treściach i linkach SEO zawartych w landing page’ach wygląda to na zamierzone działanie. Kilka lat temu jeden z liderów rynku hostingowego zamieszczał dość nachalne reklamy w stronach 404, jednak pod falą krytyki zostały one usunięte. Myślę, że tu będzie podobnie. Tak naprawdę pytanie powinno brzmieć „Czy klienci i użytkownicy wiedzą o tej sytuacji i się na nią godzą?

  • Czy jest to błąd w konfiguracji? Jaki dokładnie?

    Nigdy nie można wykluczyć błędu w konfiguracji, ale liczba zaindeksowanych stron w google (333 000) pozwala sądzić, że to masowe działanie. Jeśli byłby to błąd, to oznacza, że został zreplikowany na wszystkich serwerach i plikach konfiguracyjnych. Błąd mógłby polegać na ustawieniu domyślnego „DocumentRoot” i skierowaniu na błędny katalog na serwerze (zawierający landing). Takie niedopatrzenie świadczyłoby o braku profesjonalizmu, o co nie podejrzewam administratorów Zenbox.

  • Czy jest to błąd trudny do wychwycenia?

    Myślę, że nie. Nie wiem jak długo taka sytuacja trwa, ale prędzej czy później administrator powinien sprawdzić, co się pojawia pod adresami  https:// w domenach klientów.

  • Czy jest to stosowana praktyka przez firmy hostingowe?

    Nie spotkałem się z taką praktyką zarówno w Polsce jak u zagranicznych dostawców. Umieszczanie treści pod domeną klienta bez jego wyraźnej zgody jest dość dyskusyjne.Moim zdaniem pod adresem https:// powinna się pojawiać treść tożsama z http://, błąd 404 lub inna, zdefiniowana treść użytkownika. Nie powinno się umieszczać tam reklam, zewnętrznych odnośników, bo może to powodować chociażby duplicate content i mieć negatywne skutki dla SEO.

  • Czy jest możliwe przypadkowe wygenerowanie i uruchomienie protokołu SSL dla blisko 2000 domen?

Nie wszystkie domeny mają uruchomiony protokół https z automatu. Gdyby nie landingpage (no sam się nie wgrał przecież) kierujący do zakupów w zenbox moglibyśmy mówić o jakimś przypadkowym działaniu i błędzie ludzkim. Tutaj poszlaki wskazują na celowe działanie.

Co na to BOK Zenbox.pl?

Jak widać z odpowiedzi biura obsługi klienta Zenbox – problem nie istnieje. Nie masz wykupionego certyfikatu SSL? Nie interesuj się tym, co widzisz pod wersją https swojej domeny…

Zenbox.pl - Odpowiedź BOK

Czy powyższa technika to Black Hat SEO?

Jak widać skala zaindeksowanych w Google podstron jest bardzo duża (ponad 300 tysięcy), a według naszych analiz problem dotyczy około 2000 domen hostowanych w zenbox.pl

04 zen

Jak inaczej nazwać umieszczanie na naszych stronach obcych treści z linkami wychodzącymi (bez naszej wiedzy)?

Wracając do kwestii Black Hat…można było lepiej wykorzystać te strony pod kątem link buildingu np. wrzucając exact anchory (hosting, hosting stron, hosting www itp.)

05 zen

W celu uniknięcia jakiegokolwiek zarzutu o celowe wykorzystywanie takiego działania pod SEO, radzilibyśmy zenbox.pl wrzucić atrybut rel=”nofollow” do wszystkich linków zawartych na tej podstronie albo wykluczyć z indeksacji takie podstrony (robots.txt).

Z jakimi konsekwencjami może się ta sytuacja wiązać dla zenbox i ich klientów?

Przy takiej skali domen – istnieje duże ryzyko – potraktowania przez Google takiego rozwiązania jako sieć wymiany linków, co wielokrotnie kończyło się karą zarówno dla domeny linkowanej jak również dla domen publikujących linki, w tym przypadku znanych blogów.

Linki, które mogą manipulować wartością PageRank lub pozycją witryny w wynikach wyszukiwania Google mogą zostać uznane za element systemu wymiany linków oraz za przykład naruszenia zasad podanych we Wskazówkach dla webmasterów. Dotyczy to wszystkich działań polegających na manipulowaniu linkami prowadzącymi do Twojej witryny lub z niej wychodzącymi.

Oto przykłady systemów wymiany linków, które mogą negatywnie wpłynąć na pozycję witryny w wynikach wyszukiwania:

  • używanie zautomatyzowanych programów lub usług do tworzenia linków do witryny.

Ponadto tworzenie linków, które nie zostały umieszczone w tekście strony lub poręczone przez właściciela witryny, zwanych sztucznymi linkami, może również zostać uznane za naruszenie zasad wynikających z naszych wskazówek. Oto kilka typowych przykładów sztucznych linków naruszających nasze wytyczne:

  • reklamy tekstowe przekazujące PageRank;

Odsyłamy do pełnego tekstu Wytycznych Google dla Webmasterów

 

Aktualizacja:

Wskazujecie nam w komentarzach inne firmy hostingowe, które w podobny sposób traktują wersje https Waszych stron.

Hekko.pl - strona https

Na szczególną uwagę zasługuje Hekko.pl , na ich stronach znajdziemy już “piękny” exact anchor: “tani hosting”, “tanie serwery”:

Hekko.pl - exact anchor

Strony https znajdujące się na hekko.pl są zaindeksowane w Google

Hekko.pl - zaindeksowane strony https

Zostawiamy temat do otwartej dyskusji.

Wykop artykuł na Wykopie :)

wykop_middle

 

Do tematu odnieśliśmy się także w formie Facebook Live:

Omawiamy dzisiejszy artykuł na Sprawnym Marketingu https://spr…Omawiamy dzisiejszy artykuł na Sprawnym Marketingu https://sprawnymarketing.pl/black-hat-seo-hostingodawcy/

Posted by Sprawny.Marketing on Thursday, June 9, 2016


 Share

Artykuł Black Hat SEO hostingodawcy z wykorzystaniem protokołu https pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

[Video] Content marketing, share’y i wirusowe treści w trudnej branży

Z tej prezentacji dowiesz się, co zrobić i jakie działania podjąć, promując
i kreując małą firmę
na potentata branży. Zobaczysz, co robić w zakresie content marketingu i jak wykorzystuje social media, outreach oraz blogerów
w trudnej, niewdzięcznej i “nieseksownej” branży.

Ta prezentacja Cezarego Lecha na konferencji I ♥ Marketing zajęła II miejsce
w głosowaniu publiczności, zdobywając średnią 4,60/5 z 298 głosów!

Konferencja I love Marketing

Obejrzyj całą prezentację:

Ilustracja

Zobacz też prezentację na SlideShare

(Jeśli nie chcesz oglądać ponownie video, przejdź od razu do slajdów)

Cezary Lech wystąpi także na III edycji konferencji
I ♥ Marketing 1-2.03 w Warszawie
, a także poprowadzi szkolenia Optimized Content Marketing. Zapraszamy na nasze wydarzenia:

 

Szkolenie Optimized Content Marketing


 Share

Artykuł [Video] Content marketing, share’y i wirusowe treści
w trudnej branży
pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

[Video] Jak pogodzić SEO i Social Media w Content Marketingu?

Jak przygotować strategię contentową dla swojej strony? Jak znaleźć tematy na treści, które są poszukiwane w Google, a jednocześnie przyciągają uwagę i dobrze share’ują się w social mediach? Tego i o wiele więcej dowiesz się z tego bezpłatnego video! Obejrzyj godzinny materiał pełen praktycznych informacji!

 

Czego dowiesz się z tego video?

  • Jak przygotować strategię contentową dla swojej strony?
  • Jak znaleźć tematy na treści, które są poszukiwane w Google, a jednocześnie przyciągają uwagę i dobrze share’ują się w social mediach?
  • Jak znaleźć precyzyjne 6-8 wyrazowe tematy na artykuły, które w tej chwili są poszukiwane przez ludzi w Google?!
  • Jak znaleźć słowa kluczowe, które są łatwe do wypozycjonowania samą treścią, a co – jak pokażę na realnych przykładach – pomoże wygenerować dziesiątki tysięcy wejść z Google!
  • Jak konstruować nagłówki tworzonych treści, aby dobrze share’owały się w social mediach?
  • Poznasz też realne case study oraz wiele pomysłów na rozbudowę treści swojej witryny.

Zobacz video:

Chcesz wiedzieć więcej?

Ten materiał video dopiero wprowadza w temat związków Content Marketingu z SEO i Social Media. W nowej edycji Szkoleń Sprawnego Marketingu znajdziesz szkolenie Optimized Content Marketing, na którym szczegółowo omówimy te związki. Dlaczego Optimized Content? Spójrz na poniższą grafikę:

Optimized Content Marketing

Pomysł stworzenia nowego szkolenia wyniknął  z tego, że na rynku jest wiele szkoleń, które skupiają się na związkach content marketingu i copywritingu. Tymczasem w naszym przekonaniu na zoptymalizowany content marketing składają się 3 czynniki – działania content marketingowe, SEO i social media. O tym szczegółowo będziemy opowiadać na nowym szkoleniu. Zapraszamy! Najbliższe szkolenie już 10-11 marca w Warszawie!:

Szkolenie Content Marketing


 Share

Artykuł [Video] Jak pogodzić SEO i Social Media w Content Marketingu? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

5 nowych narzędzi marketingowych Facebooka!

W ostatnich tygodniach Facebook pokazuje, jak reagować na szybko zmieniającym się rynku social media, stając się tym samym jednym z lepszych przykładów zwinnego przedsiębiorstwa ostatnich lat. Facebook bierze to, co najlepsze z każdego serwisu społecznościowego, wykorzystując równocześnie swoją największą przewagę konkurencyjną, jaką jest liczba aktywnych użytkowników.

Zobacz, jakie funkcjonalności Facebook przejął od konkurencji w ostatnich tygodniach:

    • Facebook Video zaczyna przeganiać YouTube, a materiały video natywnie wgrywane na Facebooka osiągają znacznie lepsze zasięgi organiczne niż te, które linkują do YouTube.

  • Facebook Mentions bezpośrednio konkuruje z Periscope i Meerkat, które jak na razie mają mikroskalę i małe zasięgi. W tym samym czasie Facebook Mentions – mimo że to nowa aplikacja – z marszu zyskuje setki tysięcy widzów, co dobrze pokazują przykłady wykorzystania tego narzędzia na fanpage Prezydenta Dudy czy Zbigniewa Stonogi
  • Wprowadzając Facebook Notes, FB przejmuje funkcjonalność nie tylko od LinkedIn Pulse, ale także od serwisów contentowych typu Medium.com oraz platform blogowych (WordPress, Blogspot, Tumblr):

    Facebook “notes” have a new Medium-like appearance. (See comments on this note.) https://t.co/e8QQwWEXeN

    — Dave Winer (@davewiner) August 17, 2015

  • Facebook Instant Stories – czyli sposób na szybkie ładowanie najlepszych tresci od wyselekcjonowanych wydawców. Odpowiedź na popularność BuzzFeed?
  • Instagram Direct (też należący do Facebooka) coraz bardziej upodabnia się do SnapchataSnapstagram? ;)
  • Facebook Messenger oraz należący do Facebooka WhatsUp – na bazie tych dwóch aplikacji powstanie prawdopodobnie kolejna odpowiedź Facebooka na sukces Snapchata.
  • Instagram natomiast skutecznie rywalizuje z serwisami bazującymi na contencie graficznym, takimi jak Pinterest, warto też przypomnieć sobie, dlaczego wg obserwatorów tego rynku to Instagram będzie największym systemem social

To wszystko powoduje, że marketing na Facebooku w nadchodzącym 2016 roku będzie moim zdaniem najbardziej wyraźnym trendem zarówno pod względem zaangażowania i czasu spędzanego przez użytkowników w serwisie, jak i pod względem alokacji budżetów reklamowych. Wiedza z Facebook Marketingu staje się jeszcze bardziej niezbędna dla absolutnie każdego marketera!

Myślę, że powyższe przykłady pokazują, jak Facebook konsekwentnie wchodzi w kolejne segmenty rynku social mediów i ,,rozpycha się” na nich bez pardonu, poprzez przejęcia rozwijających się platform lub poprzez szybkie uruchomienie  w swoim serwisie funkcjonalności podobnych do tych, jakie ma konkurencja.

Facebook jest w tej chwili na bardzo uprzywilejowanej pozycji – większość konkurencyjnych kanałów social nie ma wielu użytkowników, a zatem długo i mozolnie będzie musiało budować ich bazę, a to, jak wiadomo, jest najdroższy i najbardziej czasochłonny proces. Jeśli kierownictwo Facebooka zachowa czujność, to można sądzić, że przez najbliższe lata Facebook nie odda pozycji największego serwisu social.

PS Dobre decyzje podejmowane przez Facebooka nabierają jeszcze większego znaczenia, kiedy przyjrzymy się pozostałym serwisom social, które notują znacznie wolniejsze wzrosty, stagnacje lub mają problem ze spieniężeniem ruchu. Klasycznym przykładem jest Google+, ale – co pokazują ostatnie wyniki – także Twitter zaczyna mieć problemy:

Pomimo pozornie dużej różnorodności serwisów social, okazuje się, że tak naprawdę mamy na tym rynku 7 ważnych graczy, którzy skupiają w swoich rękach wszystkie ważne serwisy:

  • Flickr, Tumblr = Yahoo
  • Twitter i Vine
  • LinkedIn i Slideshare
  • Snapchat
  • Pinterest
  • YouTube i Google+ = Google – nie zarabia
  • Facebook, Instagram, WhatsUp = Facebook

I, co ważne, bardzo prawdopodobne jest dalsze zawężenie a rynku, jak np. zakup Twittera przez Google.

PS2 Na tę chwilę czekamy jeszcze tylko na sensowną wyszukiwarkę, która pozwoli nam przeszukiwać i odnajdywać treści, na które natknęliśmy się za pośrednictwem Facebooka. To może być prawdziwy cios dla Google i bardzo ważny krok dla Facebooka!

PS3 Zapraszam też na nasze szkolenie Facebook Marketing + Facebook Ads – najbliższe już 21 września w Warszawie!

szkolenie_social_media_facebook


 Share

Artykuł 5 nowych narzędzi marketingowych Facebooka! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Jaki wpływ na SEO mają Social Media? Czyli linki dofollow z Google+

TL;DR Zastanawialiście się kiedyś dlaczego w rankingu Search Metrics 2014 ilość +1 z Google+ jest na 3 miejscu pod względem korelacji z pozycjami w Google? Google +1 to linki dofollow! szczegóły poniżej…

Jeśli mówimy o bezpośrednim wpływie social mediów na SEO, to kluczowe pytanie brzmi nie:

“Czy Social Media mają wpływ na SEO?”

tylko:

“Czy jest możliwe pozyskanie linków dofollow z serwisów social media, które będą zaindeksowane przez Google, a tym samym będą miały przełożenie na pozycje strony?”

Wpływ Social Mediów na SEO przez linki dofollow

Przygotowując się do odświeżonego szkolenia SEO: Pozycjonowanie & Link Building, a także drugiego dnia tego cyklu i szkolenia Optimized Content Marketing, zrobiłem spory research tego zagadnienia, a dzisiaj mam zamiar pokazać Wam jedną z metod na pozyskanie linka dofollow z Google+.

Jak pewnie już wielokrotnie czytaliście, wg Search Metrics istnieje nie tylko duża korelacja miedzy CTR a SEO ale także między wynikami organicznymi (SEO) w Google a np. ilością Google +1 (3 pozycja wg. Rankingu Search Metrics):

social media a wplyw na seo - ilosc google plus +1

Ilość +1 jest na 3 miejscu) i koreluje z pozycjami nawet mocniej niż ilość backlinków!

Skąd się bierze korelacja miedzy +1 a pozycjami w Google?

+1’ki mogą być linkami dofollow = mają wówczas bezpośrednie przełożenie na wyniki i pozycje w SERP-ach Google!

Na początek warto zaznaczyć, że nie każdy profil na Google+ udostępnia publicznie informacje o swoich +1, tym samym nie każdy profil może linkować linkiem dofollow do zewnętrznych stron. Jednak wiele osób udostępnia te informacje, rozdając plusjedynkowanym stronom linki dofollow. Poniżej linki dofollow z +1 prowadzące do sprawnymarketing.pl z mojego profilu na G+:

Cezary Lech +1 w Google+ linki seo dofollow

Jak pozyskać najmocniejszego linka z Google Plus?

Jeśli wiec mamy już linki dofollow z Google +, to jak pozyskać najmocniejszego linka z tego serwisu?
Wpiszmy do Google komendę: site:plus.google.com inurl:plusones, a naszym oczom ukaże się lista najmocniejszych profili (o najwyższym PageRank) na Google Plus:

ponad 500 tysiecy zaindeksowanych profili plusones na google plus

Mechanizm działa w ten sposób, iż każdy obserwujący dany profil daje śledzonemu profilowi wewnętrzny link dofollow, a zatem przekazuje też pagerank = im więcej followersów, tym mocniejszy wewnętrzny pagerank strony i tym samym mocniejszy link dofollow z podstrony agregującej +1. Na poniższym slajdzie widać, że Google ma 9’028’166 followersów i tyle samo linków wewnętrznych.

Google-plus-ones-are-dofollow-links

Jeśli chcemy sprawdzić, jakie +1 są zaindeksowane i prowadza do naszej domeny, to najlepiej posłużyć się komendą:

site:plus.google.com inurl:plusones nasza-strona.pl

Np.
site:plus.google.com inurl:plusones sprawnymarketing.pl

linki dofollow google plus +1 profile userow

Google+ to jednak tylko jeden z wielu serwisów, za pomocą którego możemy pozyskać linki dofollow do naszej strony.

Poza tym mamy jako MaxROY.com opracowane metody na pozyskanie linków dofollow z:
YouTube.com
Facebook.com
LinkedIn.com

…i wielu innych najmocniejszych domen w światowym Internecie, które przedstawimy razem z Bartkiem Berlińskim na szkoleniu: SEO: Pozycjonowanie & Link Building.


 Share

Artykuł Jaki wpływ na SEO mają Social Media? Czyli linki dofollow z Google+ pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Czy CTR jest czynnikiem rankingowym w Google?

Temat CTR-u i jego domniemanego wpływu na wyniki i pozycje stron w wynikach wyszukiwania Google poruszałem na Sprawny.Marketing już kilka lat temu w artykule: Jak podnieść klikalność (SERP CTR) wyników organicznych?. W ostatnich miesiącach temat jednak wracał wielokrotnie, głównie dzięki testom prowadzonym przez Randa Fsihkina z Moz, a także za sprawą Bartka Góralewicza, który w kilku swoich szeroko komentowanych tekstach wchodzi coraz głębiej w to zagadnienie.

Wczoraj na łamach Search Engine Land ukazał się kolejny tekst podsumowujący punkt widzenia Bartka i wyniki jego oraz kilku publicznie publikowanych testów z tego zakresu: Is CTR A Ranking Factor In Organic Results?.

Podobny test przeprowadziłem 23 Lipca podczas webinara Live TVIP, który zebrał ponad 300 osób, a około 250 osób wykonało test, o który poprosiłem w trakcie audycji:
Cezary-Lech-Webcast-Live-CTR-ranking-factor-test

Test polegał na tym, żeby wszystkie osoby oglądające audycję w tym samym momencie wpisały w Google frazę “Instagram Marketing”, zmieniły domyślne ustawienia wyników na język polski, a następnie kliknęły link znajdujący się wówczas na 3-4 miejscu wyników wyszukiwań o tytule: “Instagram Marketing i 25 porad, jak zdobywać więcej followersów”. Przechodząc na stronę artykułu Instagram Marketing miały tam spędzić 2-3 minuty, a następnie kliknąć kolejny głębszy artykuł w obrębie Sprawny.Marketing – chciałem sprawdzić, czy spora liczba wejść na ten link przełoży się na wyższą pozycję w Google.

W komentarzach do artykułu Bartek wywołał mnie nieco do dyskusji, powołując się także na nasz test, zatem uznałem, że warto napisać więcej na ten temat.

Czy CTR ma wpływ na SEO?

Wyniki naszego testu wskazują, że można mówić o pewnych korelacjach… Pierwszy raz dopiero wczoraj, po publikacji tekstu Bartka, rzuciliśmy okiem razem z Bartkiem Berlińskim na dane, które spłynęły do Google Analytics oraz Google Search Console po wykonaniu testu – wyniki przedstawiają poniższe wykresy:

CTR wynikow w Google Test SEO

Widzimy wzrost ruchu z Organic (z wykluczeniem dnia 23 Lipca, czyli momentu przeprowadzenia testu), webinar odbył się w czwartek wieczorem, tuż przed weekendem, kolejny wyraźny wzrost został odnotowany dopiero w poniedziałek, wtorek i środę – jest jednak możliwe że część osób sprawdzała, czy test przyniósł jakiś efekt SEO i ponownie klikała w link do artykułu o Instagram Marketingu.,

Kolejny wykres z Google Search Console, z którym już nieco trudniej polemizować:

test klikalnosci SERP

Zielona linia to średnia pozycja artykułu na frazę “Instagram Marketing” wg. Search Console:
5 – 22 lipca średnia pozycja wyniosła 9,8 a w okresie
24 lipca – 11 sierpnia średnia wyniosła 5,3

Widzimy więc wyraźny wzrost średniej pozycji i CTR-ów URLa SprawnyMarketing.pl.

Co myślicie o wynikach tego testu?

 

seo_content_marketing


 Share

Artykuł Czy CTR jest czynnikiem rankingowym w Google? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

7 powodów: “Instagram będzie najpotężniejszą platformą social!”

Analityk Scott Galloway w artykule na LinkedIn Pulse “Winners and Losers in a Digital Age” przygotował zestawienie danych przedstawiajace Instagrama na tle innych platform społecznościowych, takich jak: Facebook, Twitter, Pinterest, Google+ i Tumblr…

Zobaczcie  7 grafik, w których znajdziecie 7  faktów wyraźnie wskazujących to, przed którą platformą social media są najlepsze perspektywy wzrostu!

Polecam także nagranie z webinaru Michała Bajorka o tym, jak promować markę na Instagramie:


1. Serwisy społecznościowe oparte na aplikacjach mobilnych i contnet wizualny wygrywają…

visual-mobile-content-social-media-wins

2.Instagram jest aktualnie serwisem społecznościowym z najszybciej rosnącą liczbą użytkowników

przyrost uzytkownikow instagrama lata 2010-2014

3.Wskaźniki interakcji – czyli procent użytkowników, którzy lajkują, komentują lub tworzą content – jest na Instagramie 15 razy większy niż na Facebooku, 17 razy większy niż na Google+ i 40 razy większy niż na Twitterze!

wskazniki interakcji dla instagram facebook twitter google+

4.Stopień zaangażowania użytkowników Instgrama, Facebooka, Google+ i Twittera w porównaniu do ilości kont:

stopien zaagnazowania uzytkownikow-instgrama facebooka google twitter

5.Instagram pozostaje najszybciej rosnącą społecznością. Poniżej szybkość przyrostu użytkowników platform social media w drugiej połowie 2013 roku…

szybkosc przyrostu uzytkownikow social media 2013

6. 2/3 użytkowników Instagrama jest na nim codziennie, podczas gdy na Pinterest codziennie zagląda tylko nieco ponad 20% userów

czestotliwosc przebywania instagram vs pinterest

7.Największym przegranym w zakresie platforma social media wydaje się być Tumblr, przejęty w podobnym okresie, co Instagram, z podobną bazą użytkowników i wartością przejęcia – mimo upływu czasu, dalej nie zarabia:

porownanie instagram tumblr-pod wzgledem przychodow

Jeśli cały czas nie rozumiesz Instagrama, koniecznie zajrzyj na szkolenia Social Media w trakcie Search Marketing Week.


 Share

Artykuł 7 powodów: “Instagram będzie najpotężniejszą platformą social!” pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Prezentacja video Content Marketing + SEO

29 stycznia w Warszawie odbyło się ważne spotkanie dla polskiej branży e-commerce – SemCamp. SprawnyMarketing miał również swój udział w tym wydarzeniu – Cezary Lech przedstawił podczas konferencji prezentację Content Marketing + SEO. Z tej prezentacji dowiecie się, czym naprawdę jest content marketing i  i jak ewoluował on na skutek mariażu z SEO. Zachęcamy do jej obejrzenia:)

Garść statystyk:

a) Przeciętny internauta spędza tylko 5% czasu na stronach wyszukiwarek...
b) …ale za to 47% na stronach z treścią

Tak duża jest moc content marketingu. Więc na temat tego, jak wygląda współczesny content marketing, dowiesz się z naszej prezentacji:)

Wideo w skrócie zawiera:

  • aktualne informacje i statystyki dotyczące content marketingu;
  • ciekawe case study;
  • informacje o tym o zależnościach pomiędzy content marketingiem a SEO.

Miłego oglądania:)

Prezentacja video:

Prezentacja SlideShare:

Artykuł Prezentacja video Content Marketing + SEO pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Instagram Marketing i 25 porad jak zdobywać więcej followersów i like’ów?

Kiedy blisko dwa lata temu Facebook przejmował Instagram za 1 mld dolarów, branżowi eksperci łapali się za głowy. Czym bowiem “banalna” aplikacja zasłużyła sobie na taką wycenę?! Wielu uważało ten krok za fanaberie społecznościowego giganta w stylu: “kto bogatemu zabroni…”.

W ostatnich miesiącach pojawia się coraz więcej sygnałów uzasadniających tę decyzję. Nastolatki coraz częściej rezygnują z Facebooka i przenoszą swoją aktywność w inne miejsca sieci oraz do aplikacji mobilnych. Wśród wymienianych kierunków migracji wskazuje się takie aplikacje jak: Whats App (kupione ostatnio przez Facebooka za 19 miliardów dolarów!), SnapChat, Vine i w dużej mierze właśnie Instagram

Firmy natomiast zaczynają dostrzegać potencjał marketingowy Instagrama, a tego, jak skutecznie promować się na tej platformie, dowiecie się m.in. z poniższego video:

social media sites most popular teens facebook instagram Screen przedstawiający najpoularniejsze serwisy wśród młodych użytkowników sieci społecznościowych, zródło: Business Insider

W dzisiejszym artykule przedstawiam 11 praktycznych porad wspomagających Growth Hackingowy ;) wzrost ruchu z tego kanału.

Wiele trafnych wskazówek dotyczących Instagrama wynotował swego czasu Neil Patel w artykule: The Science of Instagram: How to Get More Followers and Likes, porady dotyczą jednak głównie profili prywatnych użytkowników, ja przygotowałem spis praktycznych wskazówek dotyczących profili firmowych:

1. Na poczatek coś dla fanów SEO – 11 profili z opcja dodania linka :). W opisie profilu umieść link do strony www, jest to link nofollow, pamiętaj jednak, że Instagram jest aktualnie intensywnie indeksowany/kopiowany przez wiele innych serwisów, które często tworzą kopie profili już z linkiem dofollow, powodując wzrost ruchu z tego serwisu.

http://instagram.com/sprawnymarketing (nofollow)
http://iconosquare.com/sprawnymarketing (dofollow)
http://websta.me/n/sprawnymarketing (nofollow)
http://www.intagme.com/sprawnymarketing (tekstowy URL)
http://www.oninstagram.com/profile/sprawnymarketing (tekstowy URL)
http://www.instavillage.com/u/sprawnymarketing/ (dofollow)
http://www.instagram24.pl/sprawnymarketing (nofollow)
http://www.enjoygram.com/sprawnymarketing (dofollow)
http://picbi.com/sprawnymarketing (nofollow)
http://expdata.com/instagram/user.php?id=427553890 (dofollow)
http://pixsta.com/u/sprawnymarketing/ (nofollow)

[TIP] Podając pełne dane adresowe Twojej firmy w opisie, zwiększysz tzw. Citation Rank, mający znaczenie przy ustalaniu wyników lokalnych.

2. Linkowanie do strony www i produktów – wrzucając na Instagram zdjęcie produktu, pamiętaj, żeby umieścić link do produktu w pierwszej linii opisu. Używaj bardzo “mobilnych” skracaczy linków, typu bit.ly i goo.gl. Link na poziomie aplikacji nie będzie klikalny, jednak stosunkowo łatwo go skopiować/zapamiętać, a następnie wkleić/wpisać w okno przeglądarki i trafić wówczas bezpośrednio do promowanego produktu. Tak to wygląda w praktyce:

stosowanie skracaczy linkow na instagram

[TIP] Zdecydowanie bardziej przyjazny dla użytkowników mobilnych jest link z opisowym, łatwym do zapamiętania urlem (dostępne np. po założeniu konta bit.ly):

bit.ly/1fZU4Sw ➜ bit.ly/crewtshirt

[TIP] Nic nie stoi też na przeszkodzie, aby uruchomić własny firmowy skracacz, jak np.: sprawny.pl lub najbardziej kontrowersyjny przykład skracacza linków, jaki udało mi się znaleźć: kut.as ;)

[TIP] Jeśli zdecydujemy się na skracacz, to warto pamiętać, że jest to doskonała okazja do dodania parametrów śledzących np. przy pomocy Narzędzią tagowania linków Google! To pozwoli Ci lepiej mierzyć konwersje z Instagrama.

3. Tagowanie zdjęć – używaj popularnych tagów, takich jak #love #kiss #cool #funny #cute … #instagood #instacool itp. Top 100 gorących tagów na Instagram znajdziesz na web.stagram.com, najlepiej wyszukać popularne tagi dopasowane do Twojej branży i grupy produktów.

[TIP] Polskim instagramowym mistrzem w tagotwórstwie [to chyba też nowe słowo ;)] wydaje się być AbstrachujeTV

4. Utwórz lokalizację niestandardową, podając adres swojej witryny, i taguj dodawane zdjęcia w utworzonej lokalizacji. Dzięki temu wiele osób jeszcze w głównym feedzie będzie cały czas ,,opatrywać się” z adresem Twojej strony.

[TIP] Warto pamiętać o poprawnej pisowni adresu www – zapisany w całości małymi znakami jest mniej czytelny niż adres zapisany z użyciem kapitalików na początku każdego słowa:
www.SprawnyMarketing.pl

5. Nie zapominaj, że Instagram to także Video – jeśli tworzysz autorskie video, to wskazane jest przygotować osobny kontent z myślą o Instagramie (materiał max. 15 sekund). W tym zakresie doskonałą robotę robi GO PRO:

Film zamieszczony przez użytkownika gopro (@gopro)

[TIP] Zarówno zdjęcia, jak i filmy z insta można osadzać w treści stron, korzystając z funkcji Embed, tak, jak zrobiłem powyżej! Pod tym linkiem znajdziesz kilka dodatkowych możliwości osadzenia kontentu z Instagrama.

6. Oprogramowanie PC/MAC do publikowania zdjęć na Instagramie – jeśli prowadzisz działania na Instagramie, to pamiętaj, że jest odpowiednie oprogramowanie zarówno na Mac, jak i na PC, wspierające dodawanie zdjęć – podszywające się pod telefon komórkowy. Znacząco upraszcza cała sprawę i powoduje, że dodanie kolejnego kanału social media w firmie jest praktycznie bezbolesne ;)

[TIP] Jest kilka bardzo przydatnych aplikacji dla osób zarządzających kilkoma kontami lub dużą ilością followersów.

7. Don’t buy followers!! – Pamiętaj, że Instagram należy do Facebooka i prawdopodobnie prędzej czy później FB wdroży podobne mechanizmy jak EdgeRank – kupieni fani szybko znikną albo obniżą widoczność naszych postów.

8. Kontent i Konkursy – czyli co wrzucać na profil? Nie mogą to być tylko zdjęcia Twoich produktów, bardzo dobrze share’ują się cytaty i złote myśli, ew. kontent w stylu “demotywatory”. Zachęcaj też użytkowników do fotografowania i oznaczania profilu sklepu na produktach, które zostaną w nim zakupione, np. poprzez robienie konkursów na najlepsze zdjęcia z Insta, lub za zdjęcia o największej liczbie like’ów.

Abercrombie wzywa do dzielenia się swoimi zdjęciami już w opisie profilu:

[TIP] Pamiętaj o właściwym dla tego kanału Call to action, jak np. “Double Tap…” lub “Spam me with likes…”. PICLAB to natomiast genialna aplikacja do tworzenia własnych grafik z tekstami.

9. System reklamowy Instagram Ads – Pamiętaj, że już wkrótce na Instagramie będzie można wykupić także reklamy i posty sponsorowane.

Więcej na ten temat

[TIP] W praktyce reklamę można kupować już teraz, trzeba się jednak kontaktować bezpośrednio z właścicielami profili lub szukać w Google.

10. Aby wesprzeć rozwój i szybkość przybierania fanów w tym kanale, warto umieścić wtyczkę na stronie www, która będzie wyświetlała nasze ostatnio umieszczone zdjęcia. Kod HMTL do pobrania tutaj, wygląda to np. tak (przykład z theyallhateus.com):

[TIP] Użyj także innych kanałów Social Media do promocji kanału na Instagramie:

[TIP] Pamiętaj, że podczas dodawania zdjęcia na Instagram, możemy z poziomu aplikacji automatycznie umieścić zdjęcie także na portale Facebook, Twitter, Tumblr lub Flickr.

11. Instagramowa Netykieta – Republikując czyjąś fotkę. nie zapomnij wskazać źródła jej pochodzenia, poprzez otagowanie autora @nazwaprofiluzrodla lub – jak to zgrabnie uczyniło abercrombie – wrzucając nazwę źródła na samą fotkę:

how to corectly repost photos on instagram

Czy Instagram ma już skalę w Polsce?

Instagram pół roku temu ogłosił, że przekroczył 200 mln użytkowników, wgrywane zdjęcia idą już w miliardy, specjaliści branżowi głoszą, że stajemy się “społeczeństwem obrazkowym”, a najszybciej rosnąca grupa userów to #selfie mamy 40+ :)

Polskie największe konta mają po 100-170 tys. followersów (Ewa Chodakowska i Jessica Mercedes). Warto jednak pamiętać, że do skutecznej kampanii na Instagramie często wystarczy znacznie skromniejsze dotarcie – jest to związane z tym, że jak na razie serwis w żaden sposób nie filtruje/ogranicza widoczności treści.

Czy moja firma powinna być na Instagramie?

Na to pytanie niezwykle trudno w tej chwili odpowiedzieć. Najszybciej do działań reklamowych – co zresztą naturalne – zaadaptowały Instagram  branże fashion oraz lifestyle. Nieprzypadkowo za przykłady w tym artykule posłużyły mi głownie strony modowe – to właśnie ta branża wydaje się być w tej chwili najmocniejsza na Insta. “Musisz być tam, gdzie Twoi klienci” – zatem jeśli Twoja grupa docelowa jest na Instagramie i masz pomysł na generowanie tam treści, to moim zdaniem zdecydowanie warto już w tej chwili w ten kanał wchodzić. Przykład trudnej branży na Instagramie: General Electric

PS Ostatnio, przechadzając się po poznańskim Starym Browarze, miałem okazję przekonać się, że nawet największe polskie marki już inwestują w social media, w tym także w mniej popularne kanały social takie jak: Pinterest, Instagram, LinkedIn, Twitter czy Google+. W moim przekonaniu największy potencjał wzrostu na 2015 rok kryje się właśnie w w/w serwisach społecznościowych.
Jeśli zatem czujesz, że potrzebujesz wiedzy i wsparcia z social marketingu, to klikaj w logotypy social na poniższej grafice :)

PS 2 Znacie przykłady Instagramowych profili z tzw. “trudnych branż”?!

PS 3 Followujcie nasze jedyne firmowe instagramowe konto
http://instagram.com/sprawnymarketing

PS 4 Chcesz się dowiedzieć więcej na temat komunikacji marketingowej na Instagramie? Zapraszamy na nasze szkolenie, organizowane wspólnie z firmą Socjomania!

http://searchmarketingweek.com/szkolenie-twitter-pinterest-instagram-googleplus/


 Share

Artykuł Instagram Marketing i 25 porad jak zdobywać więcej followersów i like’ów? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Content Marketing jest teraz tym czym Social Media były w 2007 roku

Wszystko, co jest używane przez człowieka, ewoluuje w kierunku rozwiązań zapewniających wygodę oraz maksymalną użyteczność. Skoro Internet został oddany “w ręce ludu”, nic dziwnego, że ewoluuje w kierunku “od maszyny do człowieka”. W tym sensie Internet można porównać do języka – wbrew zapędom purystów i technofili, język mimo swoich ram gramatycznych, “technologicznych”, jest środowiskiem ewolucji, której efektem jest powstanie możliwie prostego i zrozumiałego nośnika komunikacji. Podobnie jest w przypadku sieci Internet, która ewoluuje w kierunku człowieka, w kierunku użytecznego contentu, treści angażującej użytkowników, wreszcie treści przez nich tworzonej. Gdzie podąża “pospolite ruszenie” użytkowników, tam, niczym markietanka, podążają trendy e-marketingu, a zwłaszcza SEM.

Umarł Link Building, niech żyje Content Marketing

Wybór podejmowanych zadań powinien być uzależniony od celów wyznaczonych przez charakter naszego biznesu bądź konkretnej kampanii internetowej. Pewne narzędzia – kampanie AdWords, Facebook Ads, RTB, kampanie remarketingowe, przynoszą szybki efekt i mogą być wykorzystane do sezonowych akcji. Podobnie zaczyna być postrzegany link building – często twórcom stron typu MFA (made for AdSense) zależy na krótkotrwałym efekcie w postaci wysokich pozycji dla danej domeny. Mając na uwadze krótkie, intensywne efekty, koszty w postaci kary lub założenia limitu budżetowego są zwyczajnym ograniczeniem przy założeniu danych celów.

Jaką drogę należy wybrać jednak, jeśli zależy nam na długotrwałym efekcie?

Content Marketing to nowe SEO

Niektórych przeraża fakt, że Internet nie zapomina. Ofiary memów Internetowych proszą o usunięcie ośmieszających zdjęć nie wiedząc, że Internetowego flow nie da się zatrzymać. Gdy rodził się social media marketing, a firmy nie miały rozeznania w potędze i prawidłach blogosfery, negatywne opinie kłuły w oczy bezradnych menedżerów firm. Okazało się, że walka prawna i pieniądze to nie wszystko – liczy się natomiast długotrwała strategia contentowa, której celem jest dominacja na kluczowych pozycjach w wyszukiwarkach Internetowych.

Skoro Internet nie zapomina, można tym samym wysoko określić wartość contentu w czasie. Zasoby utworzone w ramach kampanii contentowej nie zostają usunięte, wciąż pracują dla naszego biznesu generując dodatkową ilość ruchu sprowadzonego na stronę za darmo. Za stworzenie treści płaci się raz, a wraz z zakończeniem kampanii PPC kierującej do nowej treści, kampania content marketingowa nie kończy się. Treść pracuje przez kolejne lata przez cały czas sprowadzając nowy ruch i zainteresowanie.

Content Marketing i zarządzanie treścią w wyszukiwarkach to pole działania współczesnego specjalisty ds. PR. – mówi Włas Chorowiec z LeadBullet SA, twórcy projektu NextContent.pl:

PR-owiec (a może SEO’wiec?) przyszłości to osoba, która łączy kompetencje klasycznego PR, social media managera z content managerem. Myślę, że obserwujemy rozwój hybrydowej komunikacji rozumianej jako zespół umiejętności wykorzystania współczesnych narzędzi w efektywnym dotarciu do konsumenta (…) Dodałbym do tego jeszcze SEO. Pozycjowanie to dzisiaj niezbędne narzędzie wspierające w skutecznym dotarciu do konsumenta z naszym komunikatem.

W roku 2014 poniższe stwierdzenia staną się jeszcze bardziej wiążące:

    • Content Marketing jest największą bronią w walce o dobrą reputację marki w wyszukiwarkach. Poprzez tworzenie wartościowych treści na wiarygodnych domenach, często jesteśmy w stanie szybko zdominować SERP na nazwę naszej firmy/produktu
    • Chcąc osiągnąć zadowalający efekt na polu SEO lokalnego – możemy do budowania strategii contentowej wykorzystać media i serwisy lokalne.
    • Google Authorship – Dzięki możliwości dodania linku do profilu Google+ autora w artykule publikowanym na łamach serwisu o wysokiej reputacji, jesteśmy w stanie zyskać efekt w postaci wyświetlenia nazwiska oraz zdjęcia autora poprzez określenie authorship.
    • Wykorzystując narzędzia do zarządzania Content Marketingiem typu NextContent.pl, można ułatwić publikacje także infografik, galerii zdjęć oraz osadzić materiały video.
    • Część wydawców zgadza sie tylko na linki nofollow lub tekstową wzmiankę o stronie www autora. Przy dobrze napisanym artykule czasami wystarczy drobna wzmianka o twojej firmie/produkcie, a użytkownik już sam ją znajdzie – często efektem ubocznym content marketingu jest wzrost wyszukań i wejść z brandowych słów kluczowych. Do mierzenia tego efektu dobrze sie nadaje Google Trends.
    • Jeśli w 2014 chcesz spać spokojnie (nie myśląc o kolejnych update’ach Google) to jedną z najważniejszych rzeczy jest odpowiednia dywersyfikacja ruchu. Także w tym punkcie Content Marketing jest jednym z ciekawszych trendów. W 2014 postaraj się aby proporcje ruchu na Twojej stronie wyglądały podobnie jak na poniższym screenie z narzędzia Fokus (Google – 20-30%) zrodla ruchu social media content marketing

 

Długość kontentu a korelacja z pozycjami w Google

Jak zauważa Neil Patel w artykule How Content Length Affects Rankings and Conversions długość kontentu ma bezpośrednie przełożenie na wskaźnik konwersji ale także na pozycje w wyszukiwarce. Okazuje się że rekomendowana długość tekstu to min. 2000 słów:

dlugosc tekstu a pozycje strony w wyszukiwarce

Podobne analizy przeprowadzone przez Moz.com idą krok dalej sugerując że dłuższy bardziej rozbudowany kontent ściąga też wyraźnie więcej linków!

Content Marketing jako doskonałe źródło ruchu z kampanii PPC/Social Media

Dobra treść, którą umieściliśmy w popularnych portalach może okazać się znakomitym landing page’m dla naszych kampanii. Uznane przez internautów źródło informacji może się okazać doskonałym nośnikiem virala. Jak wiadomo, w programach reklamy CPC liczy się klikalność. Dobry content ściąga ruch za grosze. Za reklamy, które klikają się lepiej, zazwyczaj płacimy mniej – jest tak na YouTube, na Facebooku, a także programach RTB oraz w Google AdWords.

Umieszczając artykuł w nowej, niezależnej lokalizacji, możemy także zyskać wejścia całkowicie nowych użytkowników. Ponieważ docieramy do grupy docelowej, której nie byliśmy w stanie dosięgnąć za pomocą reklam, możemy się spodziewać dodatkowych konwersji – trafiamy bowiem do użytkowników o nawykach innych niż przeciętny użytkownik naszego serwisu, o takich, którzy nigdy nie słyszeli o naszej marce.

Nowości w promocji contentu

Warto również zauważyć, iż po zmianie algorytmu Edge Rank na Facebooku bardziej eksponowane będą posty z linkami do artykułów. Wartościowa treść już teraz wyświetla się lepiej od zdjęć.

A oto dowód:

Kolejnym faktem godnym zauważenia jest wzrost liczby wyświetleń wyników typu In-depth articles w Google. Zajawki do artykułów występują już na około 6,4% zapytań

Opcje Google związane z promocją contentu pojawiają się dla sporej części zapytań (źródło: Mozcast)

Nowe możliwości promocji contentu będą dotyczyły już wkrótce także Google+ i AdWords na stronach w sieci reklamowej Google. Formy reklamy promujące content opublikowany na Google+ już wkrótce będą dostępne w jednostkach reklamowych sieci Google.

W trakcie szkolenia Content Marketing pokazuję realne case’y content marketingowe m.in. w oparciu o tzw. ciężkie branże, takie jak Kabiny WC :)

Tekst współtworzył Rafał Kowalewski

Artykuł Content Marketing jest teraz tym czym Social Media były w 2007 roku pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

15 faktów o Google Disavow Tool i usuwaniu flitra

W ostatnich dniach na polskich blogach SEO jeden z najpoluarniejszych tematów to jak wyciągnąć stronę z filtra po Pingwin Update, jak poprawnie używać Disavow Tool oraz jak pisać reinclusion request. Wpisując się nieco w ten trend publikujemy zagregowaną listę 15 kluczowych informacji o których warto pamiętać podczas walki z Pingwinem.

1. Disavow tool dziala i potrafi wyciągnąć witryny z Pingwina! Matt Cutts potwierdził to na twitterze w odpowiedzi na pytanie Josha Bachynskiego, jest tez kilka publicznych case’ów to potwierdzajacych.

@joshbachynski disavows can help for Penguin.

— Matt Cutts (@mattcutts) June 28, 2013

2. Zanim użyjesz Google Disavow Tool sprawdź czy Twoim problemem oby napewno jest Pingwin Update czy nieco zapomniany Panda Update? To kolejna kwestia poruszona przez Josha Bachynskiego w trakcie Search Marketing Day – w dużym skrócie: Wez daty updateow z http://moz.com/google-algorithm-change, uruchom swoje statysyki np. za ostatnie dwa lata i zobacz czy spadki ruchu nie pokrywaja sie ze wcześniejszymi updatet’ami Panda ktorych bylo okolo 12 oraz z najnowszymi Pingwinami. Jeśli znajdziesz punkty wspólne to źródeł problemów szukaj na znacznie wczesniejszym etapie.

3. Zwróć uwagę na format przesyłanego pliku – poprawny format w jakim należy wgrać plik to UTF-8, a nie domyślnie stosowany przez Notatnik ANSI. To podobno najczęstszy błąd i powód odrzucania prośby o ponowne rozpatrzenie witryny.

4. Zgłaszając linki zwróć uwagę na subdomeny i linki z głębokich podstron lub ew. wykluczaj całe domeny komenda: “domain:”

5. Pisząc reconsideration request nie zapomnij dodać informacji że dodaleś także plik z linkami do wykluczenia w Disavow Tool.

6. Nie wysyłaj kolejnych reconsederation request jeśli na poprzednie nie dostales odpowiedzi.

7. Plik z linkami można tez umieścić jako plik w docs.google.com wybierając opcję, iż plik może oglądać każdy kto otrzyma link, nie zastąpi to jednak wysłania pliku przez Disavow Tool.

8. Pamiętja że poprzez wykluczenie linków w Disavow Tool wyjście z filtra niekoniecznie musi powodować powrót na dawne pozycje.

9. Nie marnuj czasu na ręczne działania i “fizyczne” usuwanie linków, w większości wypadków wystarczy wykluczenie linków w narzedziu Disavow. Wszelkie działania podjęte ręcznie warto jednak opisać w reinclusion request.

10. Problematyczne linki nie muszą kierować tylko do strony głównej (przypomnę, że można dostać komunikat o “Nienaturalnych linkach” za linki prowadzące tylko do jednej podstrony…)

11. Warto pamiętać że do rozwiązania problemu wystarczy analiza linków dostępnych w Narzędziach Google dla Webmasterów.

12. Tylko ostatnia najświeższa wgrana wersja pliku jest brana przez Google pod uwagę, zatem jesli wgrałeś plik zbyt rozbudowany, w błędnym formacie lub zawierający dobre, jakościowe linki – wgraj jak najszybciej nowy poprawiony plik.

13. Jeśli po zgłoszeniu pliku czekasz tygodniami, odpowiedzi brak i nic sie nie zmienia to pamiętaj ze problemem nie koniecznie muszą być linki – wróć ponownie do punktu drugiego tego zestawienia.

14. Dobrą praktyką jest pisane reconsideration request przez właściciela firmy/strony lub przez osobe na możliwie wysokim stanowisku, warto wówczas podpisać się pod wnioskiem z imienia i nazwiska oraz podając stanowisko. Dobrze jest opisac całą historie, co sie stało, dlaczego oraz jakie kroki zostaly podjęte aby sytuacja nie powtórzyła się w przyszłości np.: zmiana agencji, przejcie procesu przez dział wewnatrz firmy itd.

15. Zanim zaczniesz wykluczać jakiekolwiek linki dokładnie przeczytaj oficjalne pliki pomocy narzedzia Google Disavow

Jestem otwarty na sugestie kolejnych punktów pasujących do tego zestawienia, proszę śmiało pisać w komentarzach jakie jeszcze punkty powinny się znaleść w tym zestawieniu. Zachęcam zatem do komentowania oraz do klikania +1 :)

Żródło grafiki – Google Disavow Tool

Artykuł 15 faktów o Google Disavow Tool i usuwaniu flitra pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Cezary Lech o tym dlaczego warto przyjść na ścieżkę SEO Heroes i szkolenie SEO PRO

SearchMarketingDay.com to impreza, na której po raz pierwszy w Polsce będzie można zobaczyć i posłuchać na żywo (z tłumaczeniem symutlanicznym na polski) a także porozmawiać podczas przerw, after party i panelu dyskusyjnego ze światową czołówką branży SEO z Kanady, Australii, USA i innych krajów europejskich. W tym roku pojawi się aż 14 nowych prelegentów, choć nie zapomnieliśmy także o “starych znajomych”.

Dan Petrovic i jego 7 testów SEO to według wielu jeden z najlepszych ostatnimi czasy artykułów:

“Od dawna nie było u was tak dobrego artykuł SEO. Dobra robota:)”

Dan i Toni Anicic poprowadzą wspólnie także pierwszą część szkolenia SEO PRO w trakcie, której podzielą się swoją wiedzą z zakresu SEO.

  • Skalowanie SEO z wykorzystaniem unikalnych narzędzi i metodologii
  • ECommerce SEO dla Magento – wiodącej na świecie platformy eCommerce

Podczas szkolenia Panowie podzielą się rezultatami swoich badań i testów SEO oraz zaprezentują ich praktyczne wdrożenia. Obaj panowie wezmą także udział w panelu dyskusyjnym, na który zarezrwowaliśmy aż 2 godziny, uczestnicy szklenia SEO PRO już teraz mogą zadawać pytania przez Google Moderator.

Josh Bachynski jest w tym roku prelegentem najmocniej kojarzonym z ciemną stroną mocy SEO. Twórca narzędzia SEnukeX posiada szeroki wachlarz wiedzy tajemnej, którą będzie się dzielił w trakcie pierwszego dnia konferencji jak i podczas szkolenia SEO PRO. Bardzo błyskotliwy, swoje poglądy jaskrawo prezentuje w publikowanych przez siebie video, jego poglądy często mocno różnią się o tzw. mainstreamu Googl’owego jak i branży SEM.
W trakcie częsci głównej konferencji Josh przedstawi swoje spostrzeżenia w zakresie nieco zapominanego, a cały czas siejącego mocne spustoszenie algorytmu Panda. Na moje pytanie czy zamierza coś mówić o Pingwinie, Josh odpisał:

“Yes i will include it of course – but remember penguin only affects sites that have over optimized – panda affects EVERY site :-)”

Konstatny Kanin autor bloga konstantinkanin.com blisko współpracujący z MaxROY.com oraz
Marina Khaustova opowiedzą o SEO w Rosji i krajch RuNetu. Ten temat Kostek przybliżał już nam w jednym ze swoich pierwszych artykułów w trakcie jego prezentacji poznamy zagadnienie od znacznie bardziej praktycznej i narzędziowej strony.

Razvan Gavrilas jego błyskotliwe analizy backlinków wprowadzały w zakłopotnie wielu blackhatowych speców od SEO i często pokazywały jak czarne może być black hat SEO (Ostatnio na ta frazę Payday Loans “wypozycjonował się” blog Matta Cutts’a.). Wszystkie analizy Razvan prowadzi w oparciu o narzędzie Cogntive SEO, ktore w ostatnich tygodniach nawiązało strategiczną współpracę z Majestic SEO Dixona Jonesa… który w trakcie Search Marketing Day pokaże nam najciekawsze wnioski wynikające z analizy 3,584,026,567,247 unikalnych adresów URL oraz na ich podstawie postara się przewidzieć przyszłość SEO i wskazać wyraźne trendy w zakresie wypływu linków na pozycje.

Ralph Tegtmeier “Fantomaster”, który wreszcie pokaże nam gotowe narzędzie do tworzenia unikalnych tekstów. Temat wygląda szczególnie ciekawe w kontekście ostatniej prezentacji Radka Kubery w trakcie Festiwalu SEO w Katowicach i jego desynonimizatora, który w ostatnich dniach udowadnia jak łatwe jest odsynonimizowanie tekstu.

Ralph poświęci swoje wystąpienie także ekscytującemu tematowi How Cloaking 3.0 Dominates the Search Engines Like Gangbusters a swoją prezentacje opisał w sposób następujący:

“Cloaking (aka “IP delivery”) od dawna jest uważane za najbardziej wydajną technologię SEO na konkurencyjnych rynkach internetowych. I wbrew uporczywej propagandzie wyszukiwarek i konwencjonalnej mądrości “White Hat”, [technologia ta] nigdy nie została zdegradowana lub pozbawiona skuteczności przez wprowadzanie postępowych poprawek i stale zmieniających się algorytmów rankingu. (…) Jednak czyż nie zmieniło się to z biegiem czasu? Z pewnością – tak jak i całe SEO!”

Stephena Burnsa z blekko poznałem w Berlinie w trakcie konferencji OMcap. W wielu momentach jego prezentacja zmieniła mój sposób myślenia o działaniu wyszukiwarek! Stephen opowie o tym jak działa wyszukiwarka Blekko, z jakimi problemami się borykają i postara się nam pokazać specyfikę działania ich wyszukiwarki. Przypomnę także, że udziałowcem Blekko jest firma Yandex, która poważnie rozważa ekspansję w naszej części Europy.

Marcus Tober, ta prezentacja zapowiada się jako absolutnie wyjątkowo! Marcus bazując na danych z polskiego rynku przedstawi czynniki o największym wpływie na pozycje, wykaże też poważne różnice w czynnikach SEO między Polską a innymi krajami! :)

Maik Metzen bliski współpracownik Andre Alpara, współautor jednego z ostatnich artykułów na Sprawnym, przedstawi temat bliski Afiliantom i piątkowemu szkoleniu z Programów Partnerskich – “SEO strategies for Affiliates”

Dominik Wojcik po doskonałej zeszłorocznej prezentacji, która zainspirowała m.in. Artura Strzeleckiego do dalszych badań w tym roku Dominik do dnia konferencji postawowił nie ujawniać tematu swojej prezentacji. Czekamy zatem z niecierpliwością na kolejną porcję inspirującej wiedzy z zakresu white hat… black hat?!

Jednym z ostatnich prelegentów ścieżki SEO Heros jest Gareth Hoyle twórcy firmy Manual Link Building oraz narzędzia Link Detox. Prezentacja w całości będzie poświęcona update’owi Pingwin i najnowszym spostrzeżeniom w zakresie wyciągania stron z filtrów. Gareth w trakcie całego pierwszego dnia będzie do waszej dyspozycji przy stoisku Link Detox w foyer konferencyjnym…

Szkolenie SEO PRO
28.06.2013
Zarejestruj się

Dzisiaj ostatni dzień promocyjnej ceny!


 Share

Artykuł Cezary Lech o tym dlaczego warto przyjść na ścieżkę SEO Heroes i szkolenie SEO PRO pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Google zbanował w Polsce 235 000 domen!

To już koniec Systemów Wymiany Linków! Era SWLi ostatecznie, konsekwentnie i powoli ale jednak przechodzi do historii. Wskazują na to twarde dane o ilości zbanowanych domen – przez ostatni rok z polskich Systemów Wymiany Linków zniknęło 235 tys. domen!

Na ten sam fakt zwracał już w tym roku uwagę Piotr Cichosz oraz Michał SEO Hero. Okazuje się jednak że dopiero gdy zsumujemy straty wszystkich większych SWLi jesteśmy w stanie dostrzeć szerszy trend w jakim ten proces zmierza:

e-weblink.com

Lipiec 2011: 115 tys. domen
Aktualnie: 35 tys. domen
Spadek o: 80 tys. domen

spadajac ilosc domen w systemach wymiany linkow

Żródło: e-weblink (wybaczcie nofollow, domena była ostatnio zbanowana :/ )

 

 

 

 

 

 

 

 

gotlink

Listopad 2011: 180 tys domen
Aktualnie: 65 tys. domen
Spadek o: 115 tys. domen

spadająca ilosc domen w systemie gotlink w 2011 i 2012 roku

Zródło: Gotlink.pl

 

 

 

 

 

 

 

 

Inne SWLe:

  • SEOmatik spadek o około 40 tys. domen
  • LinkMe.pl spadek o około 10 tys. domen
  • Jeśli macie info o spadkach w innych systemach proszę o info w komentarzach, zaktualizuję wpis

W 13 miesięcy ubyło z SWLi conajmniej: 235 000 domen!

[edycja 31.10.2012]
W komentarzach wiele osób zwróciło mi uwagę że praktyce za spadek ilości domen obecnnych w SWLach odpowiada takżę kilka innych czynników o których warto pamiętać, takich jak:

  • Subdomeny – kilka systemów w “domeny” wlicza także subdomeny
  • Zmiana wymagań jakościowych przez SWLe
  • Bany
  • Część domen znajdowała się w więcej niz jednym systemie

Czy mamy kryzys w branży SEO? ;)

Jakiś czas temu Kaspar Szymański wyraźnie wymienił z nazwy dwa SWLe jako przyczyny filtrów dla wielu witryny, a co jak teraz widzimy było także przyczyną banów wielu stron, które w tych systemach brały udział:

…witryny uczestniczyły w systemach wymiany linków, które przekazują PageRank, takich jak e-weblink czy gotlink. Korzystanie z SWLi lub pozyskiwanie innych nieorganicznych linków może spowodować spadek pozycji witryny w naturalnych wynikach wyszukiwania i nie zalecamy takiej strategii.

Tak czy inaczej należy się uznanie dwóm największym SWLom za transparentność i pełny dostęp do jednak newralgicznych danych. Założyciel jednego z SWLi demonstrował już jednak kilka razy że potrafi być bardzo szczery i otwarty podając np. gotowe przepisy na depozycjonowanie stron konkurencji.

Przy okazji tego artykułu warto wspomnieć czy i ew. jak można zabezpieczyć swoją stronę przed linkowaniem z SWLi, co ciekawe niektóre systemy każą sobie za to płacić :) Warto też pamiętać o nowym narzedziu Google Disavow Links.

  • Jakich metod na Link Building Ty używasz?
  • Czy SWLe są już passe?
  • Czy branża dojrzała do ostatecznego zrezygnowania z systemów wymiany linków?

Ciekawy jestem waszych opinii w komentarzach. Przypominam też że już za niecały miesiąc na szkolenie SEO PRO: Link Buidling przyjedzie do Polski Martin MacDonald. Obecność potwierdził mi już dwukrotnie, bilet lotniczy kupiony, a termin zabookowany od Maja.

Artykuł Google zbanował w Polsce 235 000 domen! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Streszczenie 5 Hangoutów SEO – Sporo nowości!

W ostatnich tygodniach w branży SEO co rusz jest głośno o tzw. hangoutach z tematu SEO i pozycjonowanie, głównie w wykonaniu Johna Muellera z Google. Regularnie relacjonuje je dla nas Karol Dziedzic na swoim Profilu Google+, raz już korzystaliśmy z uprzejmości Karola i dzisiaj ponownie w większym wpisie przedstawiamy wam najważniejsze newsy przekazywane nam tej formie przez Google. Artykuł jest długi, zawiera sporo cytatów i zpożyczeń z innych stron, jeśli natomiast nie śledziliście ostatnich informacji to tutaj znajdziecie czystą esencje – warto przebrnąć.

Pierwszy polski Hangout SEO

Zanim przejdziemy do omawiania newsów, warto wspomnieć że wczoraj wieczorem miało miejsce pierwsze polskie spotkanie SEO na platformie Hangout czyli wdrożonej w Google+ opcji pozwalającej na telekonferencje video kilku osób. Polskie spotkanie zebrało ośmiu specjalistów z polskiego podwórka i około 75 słuchaczy obserwujących transmijse live na YouTube. Spotkanie skrzyknął i zorganizował wspomniany już Karol Dziedzic.

Dla osób które opuściły audycje na żywo jest dostępne nagranie na YouTube:


Tak jak Karol Dziedzic wyspecjalizował się w relacjonowaniu zwartości hangoutów z Johnem Muellerm, tak zdaje się że Sebastian Jakubiec będzie relacjonował polskie spotkania na hangout. Paweł Rabinek przygotował natomiast fajne zestawienie adresów stron i źródeł, na które się powoływaliśmy w trakcie Hangoutu.

Hangout SEO: 301, chmury tagów, nofollow, geolokalizacja

Chronologicznie od najświeższego Hangoutu z Google Webmaster Central

24 Sierpień 2012 John Mueller Źródło: Karol Dziedzic
[Red. Pozwoliłem sobie na drobne zmiany redakcyjne aby wszyscy czytelnicy zrozumieli przesłanie streszczenia.]

• Przy przenoszeniu strony na nowy adres:
– Przekierowanie 301 w modelu każdy stary URL na nowy URL
– Audyt linkowania wewnętrznego i zewnętrznego – double check!
– Zmiana adresu domeny w Google Webmaster Tools

• Czasem humar tagów i htmlowe mapy strony (sitemap.html) na stronie są ok, jednak częściej postrzegane są jako spam – wszystko zależy od intencji.

• W zgłoszeniach o reincluson request warto podlinkować doukemnt stworzony Google docs w których możemy szerzej opisać problem przy ponownym zgłoszeniu witryny do rozpatrzenia

• Inżynierowie Google pracują nad dobrym zbilansowaniem pomiędzy pokazywaniem w SERP’ach świeżych informacji newsowych oraz starszych stron (np. wikipedia)

• Nie jest rekomendowane wstawianie atrybutu “nofollow” na linkach wewnętrznych typu podstrona linkuje do podstrony ale już link “nofollow” na linku do logowania/rejestracji jest juz ok tzw. PageRank Sculpting

• Temat poruszony przez Bill Slawski
John mówił, że to by było dziwne robić sobie jaja z webmasterów, aczkolwiek..

• Czasem można sie przejechac na artykułach sponsorowancyh i guest bloggingu, wiec należy to robić z rozsądkiem lub dodwawać nofollow na linkach wychodzacych z takich artykułów.

Poniżej wady i zalety różnych rozwiązań związanych z geolokalizacją. Zasadniczo w klasyczny podejściu tworzenia wersji językowej na subdomenie czy podstronie – dla G bez znaczenia. Więc róbcie to jak Wam wygodniej.

pozycjonowanie i geotargeting domen regionalizacja seo

 

 

 

 

 

 

 

 

Najciekawsze pytania z dzisiejszego Hangouta opracowane przez Sebastiana Miśniakiewicza często nieco bardziej rozbudowane niż w relacj Karola.

Czy powinno się używać opcji „Zmiana adresu” w Narzędziach jeżeli domena nie jest w 100% przekierowana na nowy adres?

Jest to dopuszczalne, nie musimy mieć 100% przekierowania. Może się zdarzyć, że kilka stron ze starej domeny, np. polityka prywatności, pozostanie na starej domenie – w takiej sytuacji możemy „z czystym sumieniem” użyć w/w opcji z Narzędzi. Trzeba tylko pamiętać o tym, że robot nie zawsze odwiedza każdą stronę z taką samą częstotliwością – z tego powodu przekierowanie całej domeny musi potrwać. Polecam obserwować nową, przydatna funkcję w Narzędziach, którą opisałem niedawno – Stan zaindeksowania. Bardzo przydatne w sytuacji, gdy przekierowujemy serwis ze starego adresu na nowy.

Czy przekierowanie 301 przenosi złą historię na nową domenę? – jak stara otrzyma np. powiadomienie o nienaturalnych linkach

Według słów Johna Google sobie radzi z tym całkiem dobrze – ustawienie przekierowania 301, nawet, jak działa, to jest to rozwiązanie tymczasowe – nieprzydatne dla kogoś, kto myśli o stabilnej pozycji w SERPach swojej strony w długim okresie czasu. jeżeli zaś ktoś uważa, że jakaś domena „ucieka SQT” ciągle w ten sposób – można ją zgłosić w spam raporcie.

Co się dzieje jak jest kilku autorów artykułu? Czy zobaczymy ich wszystkich w SERPach?
Google obsługuje na razie tylko jednego autora dla artykułu. Więc jak jest ich więcej, to Google i tak w SERPy wrzuci jednego. Którego – tego John nie powiedział, moim zdaniem zatem w grę będzie wchodziła reputacja/popularność danej osoby – i ta właśnie wyskoczy w wynikach wyszukiwania przy danym poście.

Czy konkurencja może nam przy Pingwinie zaszkodzić?
Google nad tym cały czas pracuje, aby tak nie było. Np. ignorowane są linki, które spamerzy od czasu do czasu wrzucają gdzieś do naszej strony są ignorowane, nie mają negatywnego wpływu na naszą stronę. Trzeba pamietać tylko, że jak strona spada, idziemy do Narzędzi, widzimy jakieś „dziwne linki” w Narzędziach – nie od razu oznacza to, że to te linki sie do spadku przyczynuiły. Algorytm to wiele czynników – warto wtedy popatrzyć się na strone i dokonac analizy strony.

Usuwając linki (w odpowiedzi na powiadomienie od Google o nienaturalnych BL) czy powinniśmy martwić się tymi, które są oznacne atrybutem nofollow, zwracającymi błędy 4XX/i inne czy te, które są przekierowaniami 302?
Nofollow nie przekazuje PR, więc można pominąć strony, z których mamy takie linki. Błędy też nie są brane pod uwagę. Ale już strony, z których mamy na naszą witrynę poustawiane przekierowanie 302 czy 301 należy przeanalizować – i w razie konieczności „pozbyć się ich”.

Google celowo „miesza z SERPami”, aby „wytropić spamerów”. Czy to prawda? temat został poruszony na SEO by the Sea.
Nie :)

Jeżeli strona leci w wynikach wyszukiwania wiele osób uważa, że prośba o ponowne rozpatrzenie pomoże w odzyskaniu poprzednich pozycji. A jednocześnie obawia się, że może to się okazać zgubne – wychodzi z założenia, że Search Quality Team sprawdza wtedy stronę bardzo dokładnie i może znaleść “coś więcej”. Jak to jest?
Jeżeli strona jest dotknięta tylko „algorytmem” to SQT nie zajmuje się stroną! W takiej sytuacji nie zajdzie sytuacja, w której SQT będzie „negatywnie” wpływał na stronę. Ale jak strona została dotknięta ręczną interwencją, to wtedy już musimy być przygotowani na ocenę strony przez SQT.
Nie jest zatem prawdą, że jeżeli mamy np. stronę z ukrytym tekstem, a zostanie ona dotknięta Pingwinem, to wysłanie zgłoszenia „pogrąży ją do końca”. Tutaj widać zmiane nastawienia – jakiś czas temu miałem z Google inne informacje…

Czy powinniśmy się obawiać, jak na blogu wpisy mają oceny tylko maksymalne?
Jeżeli uważamy, że strona używa rich snippets do spamowania SERPów, to można taką stronę zgłosić poprzez odpowiednie narzędzie jako spam.

Jak Google ocenia strony z dużą chmurą tagów, gdzie są one w nagłówkach H2-H5?
Jak są tylko/w dużej części tagi na stronie, bez jakiegoś sensownego tekstu, to taka praktyka podpada pod upychanie słów kluczowych. Podobnie, jak mielibyśmy na stronie tylko listę kategorii. Jak jest jednak na stronie „jakaś” informacja przydatna dla czytelników (czyli unikalny tekst) – nie ma powodu, aby się obawiać negatywnych konsekwencji ze strony Google.

Gorący temat, o którym napisałem na blogu, a który „rozgrzał do czerwoności” niektórych na PiO :) – czy można wyjść z filtra za nienaturalne linki pisząc, że … to nie my?
Tak, to jest możliwe. Normalnie system radzi sobie z takimi „nienaturalnymi sytuacjami”. Osoby z SQT analizują domenę pod kątem „dziwnych zachowań”. Jeżeli ktoś od lat zdobywa linki z xRumera to zgłoszenie po Pingwinie, że konkurencja mi zaszkodziła według moich informacji nie pomoże. Ale jak ktoś jest dotknięty taką sytuacją jednorazowo/rzadko – takie linki są po prostu ignorowane.

Co z wtyczkami do WordPressa w stylu SEO Smarty Links?
John zaleca … nie używanie takich wtyczek do automatycznego tworzenia odnośników w ten sposób.

Ostatnie pytanie odnosi się też częściowo do zamieszania z Tablica.pl
Więcej w oryginalnym tekscie.

Hangout SEO: zaplecze, bany, subdomeny, linkowanie z sidebar

20 Sierpień 2012 John Mueller Źródło: Karol Dziedzic

Streszczenie odpowiedzi na najciekawsze pytania:
– coraz więcej kumulatorów linków (na naszym podwórku to precelki, katalogi) jest ignorowane jeżeli chodzi o ich linki wychodzące, albo po prostu wycinane. Innymi słowy coraz więcej ogólno-dostępnego zdatnego do napełniania automatem zaplecza zanika

– nie ma żadnych sztywnych ram liczbowych/procentowych w ilości spamowych linków do strony, które grożą oberwaniem karą tzw. z palca

– spamowa subdomena lub podstrona może przyczynić się do spadku domeny głównej

– linki z sidebaru można dobrze zastosować polecając inne strony. Jednak nie jak box nazywa się partnerzy, albo sponsored by i tam umieszczamy “tanie ubezpieczenia Częstochowa”. Wtedy nasza zapleczówka może oberwać (nie karą algorytmiczną tylko manualną – a wycinane są sieci połączeń a nie pojedyncze sztuki) i już nie może przekazywać dalej mocy.

– publikacje prasowe z linkiem zwrotnym (artykuły sponsorowane to podobna kategoria) są ok pod kątem budowania linków o ile robimy to z głową. Chyba, że pójdziemy w skale i zrobimy tysiące zsynonimizowanych tekstów/albo i bez żadnych zmian i puścimy to w świat – wtedy już spamujemy profil linków

– linkowanie ze strony do wikipedii i tym podobnych stron autorytetów nie daje boosta pod kątem rankingu. To tylko udogodnienie dla userów, jeżeli odniesienia są przydatne.

linki pozycjonujace kiedy dzialaja i kiedy przekazuja moc seo

Hangout SEO: Disavov tool, noindex, nowy Pingwin Update, Duplicate Content

17 Sierpień 2012 John Mueller Źródło: Karol Dziedzic

• No-index – to zła nazwa. Tak naprawdę strona tak czy owak jest w indeksie G, jednak nie pojawia się w SERP’ach. Dzieje się tak, ponieważ zależy im na tym, aby złapać linki wychodzące z każdej możliwej strony. Dodatkowo jeżeli mamy linki prowadzące ze stron, które zostały wyindeksowane to nie musimy się już o nie martwić – jednakże jak wrócą z filtra to dalej będą brane pod kątem rankingu

• Jeżeli mamy artykuł z linkiem do nas napisany np w PL na stronie w innym języku – ten link traktowany jest normalnie. Ma taką sama wartość jakby był na stronie w języku w jakim mamy artykuł. Chyba, że to np. zewnętrzne pressel pages to już inna historia.

• Disavov tool w produkcji – żadnej daty na temat jego wypuszczenia nie znamy

• Co do zapowiedzi nowego Pingwina. Długa przerwa pomiędzy wyjściem tego algorytmu na świat, a jego update spowodowana jest wzmożoną pracą na jego produkcją. Ma on poradzić sobie z dużo większą ilością różnego typu dziwnych działań. Jednak w dalszym ciągu dobre strony odpowiednio prowadzone nie powinny być zagrożone

• Utworzenie różnych wersji językowych na różnych domenach i spięcie ich rel=”alternate” nie daje przewagi. Tzn. mamy strony w .com.au i robimy wersję w .co.uk – nie dostajemy boosta na pozycjach w UK. Po prostu wyświetla się brytyjska wersja naszej strony. Jednak warto coś takiego zastosować zwłaszcza pod kątem fraz regionalnych, wtedy wersja dostosowana do odpowiedniego kraju nam pomoże w walce z geolokalizacją

• IP serwera nie daje żadnego boosta. Jedynie jak np. mamy stronę w .com i w GWT nie określimy skąd jesteśmy, nie mamy założonych map ani odpowiednie dane nie są umieszczone na stronie – wtedy dopiero IP serwera jest brane pod uwagę w kwestii geolokalizacji

• Wszystkie strony, zawierające Duplicate Content są indeksowane (np. artykuły prasowe) jednak w zależności od zapytania wyświetla się jedna lub kilka z nich.

Duże i małe litery w URL’ach mają znaczenie – ponieważ każdy z nich indeksowany jest osobno. Może się zdarzyć, że wyświetlą w SERP’ach zobaczymy obydwa – chyba, że treść jest na nich identyczna to wtedy tylko jeden

• Duża ilość Duplcate Content w obrębie jednej strony nie obniża jej rankingu. Powoduje tylko spowolnienie procesu indeksowania i delikatny problem w wyświetlaniu odpowiednich podstron w SERP’ach

• Linkowanie do zdjęć na stronie może przyczynić się do wyświetlania ich wyżej w Google Images

• Jeżeli przywalisz np. Xrummerem w nową domenę (świeży serwis) to może wylecieć z SERP’ów. Stare domeny dobrych marek są niezagrożone

• Zduplikowana treść w katalogach jest wychwytywane algorytmicznie. Syfne mieszane zdania również. Jeżeli wpisy do katalogów są odpowiednio przesynonimizowane wtedy już jest problem – gorzej to wychwycić. Jednakże można za takie cuda o ile nie złapie nas algorytm dostać strzała tzw. z palca.

Hangout SEO:

13 Sierpień 2012 John Mueller Źródło: Karol Dziedzic

• Linki site wide i z sidebar’ów nie są problemem, o ile nie prowadzą one z kiepskich stron i głównie na exact match i jak to się potocznie mówi – “na pierwszy rzut oka widać po co tam są”. Klasyczne linki ze stopki albo sidebara do podnoszenia pozycji są dewaluowane, albo ignorowane w obliczaniu rankingu.

• Czemu strony które powielają treści producentów są wyżej niż faktyczny twórca opisów swoich produktów?
Pojawiają się one w serpach, ponieważ czasem użytkownik chce zobaczyć sklep, w którym może kupić produkt, a nie stronę producenta z opisem samego produktu. Wszystko należy rozpatrzyć szczegółowo w zalezności od frazy (np. konkretny model laptopa)

• Róznica pomiędzy serwerem współdzielonym a serwerem dedykowanym polega na tym, że można oberwać jeżeli na współdzielonym serwerze jest w większości SPAM. Aczkolwiek oczywiście zdaża się to w wyjątkowych okolicznościach.

• Przy dużej ilości błędów np 500 error proces indeksacji jest automatycznie spowalniany – dodatkowo wysyłana jest informacja o dużej ilości znalezionych błędów

• Przy używaniu Google removal tool nie ma znaczenia czy dajecie dostęp robotom do contentu który chcecie usunąć, czy też nie. Warto jednać dać robotom dostęp i na niechcianych stronach ustawić 404

Sporo ciekawych wskazówek przekazał także Matt Cutts podczas ostatniej konferencji SES w San Francisco.

P.S. Przy okazji na moim profilu Google+ mała przestroga przed stosowaniem systemów kupowania linków… oraz głos w dyskusji nt. działania lub nie działania linków nofollow – zapowiada się że będzie to temat kolejnego polskiego Hangouta. Przygotujcie swoje case study :)

Artykuł Streszczenie 5 Hangoutów SEO – Sporo nowości! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

5 nowych szkoleń na SearchMarketingWeek.com Warszawa

Część z was zapewne zdążyła już się przyzwyczaić do 3 terminów w ciągu roku kiedy organizowane są eventy MaxROY.com:

  • Szkolenia Search Marketing Week for e-commerce, Poznań – Marzec
  • Konferencja Search Marketing Day, Poznań – Maj/Czerwiec
  • Szkolenia Search Marketing Week, Warszawa – Listopad

Zgodnie z tym corocznym planem czas ogłosić zbliżające się nowości w trakcie Listopadowgo tygodnia szkoleń. Pod wieloma względami będzie to nasz rekordowy event. W dzisiejszym wpisie wyjaśniam dlaczego zdedydowaliśmy się na nowe szkolenia, co mnie osobiście w nich najbardziej interesuje oraz oraz jak pozyskana wiedza może przełożyć się na wzrost naszych biznesów.

Search Marketing Week to tydzień szkoleń z marketingu internetowego, w jednym miejscu zebrana śmietanka intelektualna polskiej branży internetowej! 5 dni, 13 szkoleń, 16 wykładowców!W tydzień dowiesz się więcej niż przez 5 lat studiów! Przygotowaliśmy pięć zupełnie nowych i świeżych oraz kilka radykalnie odświeżonych szkoleń…

Szkolenie dla klientów agencji SEM=SEO+PPC (AdWords)

To szkolenie w 100% wynika z misji MaxROY.com sp. z o.o.:

“MaxROY.com poprzez doradztwo strategiczne, szkolenia i wsparcie operacyjne umożliwia firmom prowadzić sprawne działania w obszarze search marketingu”

Szkolenie skierowane jest do właścicieli i kadry kierowniczej polskich przedsiębiorstw. Jego cel to uświadomienie klientów agencji SEM (czyli zarónowo SEO jak i PPC – AdWords) jak powinno się dobierać i współpracować z Agencjami SEM. Na co zwrócić uwagę podpisując umowę, jakie kruczki i chwyty marketingowe stosują firmy aby pozyskać nowych klientów. Wyjaśnimy też dlaczego SEO czasami musi być drogą usługą oraz jak konktrolować to co robi dla nas firma pozycjonerska.

Wiekszość managerów i osób na stanowiskach kierowniczych nie potrzebuje znać szczegółów Google AdWords lub Analytics, nie potrzebuje wiedzieć jak na poziomie SEO PRO pozycjonuje się strony, nie musi wiedziec co podnosi CTR reklam Adsense, reklam na facebooku czy wysyłanych mailingów. To co natomiast jest niezbędne to świadomość dostępnych możliwości, czego wymagać, na co zwracać uwagę, jak mierzyć efektywność, czego wymagać od pracowników oraz jak knotrolować prace agencji.
Jak zadać pytania, które zaskoczą agencje starające się sprzedać nam kolejne “produkty marketingowe” i w końcu jak wybrać najefektywniejsze kanały i formy promocji?
Dowiedz się więcej o szkoleniu dla klientów agencji SEM dla tej samej grupy odbiorców polecamy też opisywane nieco niżej szkolenie z Inbound Marketing.

Szkolenie z optymalizacji CTR w AdSense

Po serii artykułów Marcina Kosedowskiego na Sprawny Marketing ( Jak zmiana liczby reklam wpływa na zarobki ze strony?, 5 skutecznych sposobów na zwiększenie przychodów ze strony, Co ważniejsze: pozycjonowanie czy sprzedaż? ) zdecydowaliśmy się zorganizowac szkolenie jakiego w Polsce jeszcze nie było. Szkolenie z technik optymalizacji klikalności w reklamy Google AdWords w sieci partnerskiej Google!

  • Dowiesz się jak zrobić stronę MFA – Made for Adsense (strona stworzona tylko i wyłącznie w celu zarabiania na kliknięciach w reklamy AdSense), która nie zostanie zbanowana, a jednocześnie zarobi tyle co strony najlepszych spamerów?
  • Zobaczysz jak dosłownie z dnia na dzień zamienić zwykłą stronę opartą o treść w maszynkę generującą setki wartościowych kliknięć w reklamy.
  • Dowiedz się jak to możliwe, że największe portale kasują po 500 złotych za tysiąc wyświetleń reklamy (50 groszy za wyświetlenie, nie kliknięcie!), a reklamodawcom się to opłaca i zastosuj na swojej stronie takie same sztuczki.
    Spraw, aby zarobki z twojej strony natychmiast i trwale wzrosły, nawet przy małym ruchu.

Dowiedz się więcej o nowym szkoleniu Marcina Kosedowskiego

Szkolenie z Indound Marketing

Na czym polega Inbound Marketing?

Inbound Marketing nowczesna koncepcja marketingu internetowego

Pojęcie Inbound Marketingu nie doczekało się jeszcze pełnego tłumaczenia na język polski. W wikipedii znajdujemy bardzo lakoniczną definicje:

…aktywny marketing przychodzący, skupia się na działaniach w Internecie mających na celu bycie odnalezionym przez klientów. Obejmuje trzy główne obszary: marketing w wyszukiwarkach, blogi, media społecznościowe. […] Idea inbound marketingu polega na podjęciu takich działań w mediasferze aby potencjalini klienci sami znaleźli to, czego szukają. Inbound marketing łączy elementy marketingu internetowego, które w skuteczny sposób pozwolą wciągnąć klientów w sfere działań marketerów.

W dużym skrócie jest to od około 2 lat bardzo popularna koncepcja marketingu internetowego w Stanach Zjednoczonych, intensywnie promowana m.in. przez Randa Fishkina z SEOmoz.org podczas jego licznych prezentacji. Szkolenie będzie prowadzone przez Dorotę Zys, prelegentkę tego rocznego Intenet Beta. Gościem specjalnym na tym szkoleniu będzie Martin MacDonald Inbound Marketer w Expedia.com, który opowie jak w praktyce realizuje się działania w zakresie Inbound Marketingu – więcej o szkoleniu.

Szkolenie z Marketing automation

Na czym polega Marketing Automation?

Marketing Automation to narzędzie marketingowe umożliwiające automatyzację części działań i procesów marketinowych. Opiszę jak to wygląda w MaxROY.com… Przy okazji promowania zbliżających się szkoleń dodaliśmy do systemu następujące strony: MaxROY.com.pl, SprawnyMarketing.pl, SearchMarketingWeek.com, SearchMarketingDay.com. Te witryny podobnie jak w remarketingu AdWords zostawiają w przeglądarkach osób odwiedzających tzw. pliki cookie.
W miedzyczasie wysyłamy mailing reklamowy promujący zbliżające się szkolenia. Mailing wykonujemy z poziomu systemu Marketing Automation dodając wcześniej możliwie rozbudowaną baze mailingową (E-mail, Imie, Nazwisko, Firma, Tel. kontaktowy itd). Każda osoba w systemie dostaje w treści maila unikalny link (adresy URL mierzące), każda osoba która kliknie w link umieszczony w mailingu jest od tego momentu przyporzadkowywana do konkretengo wpisu w bazie danych (od tego momentu wiemy jak ta osoba ma na imie w jakiej firmie pracuje, jaki ma numer tel i adres mailowy) to stwarza możliwość powiązania bezpośrednio także naszych stron które odwiedza (plik cookie o danym numerze = ten adres email).

Okazuje się zatem że po 2-3 miesiacach działania systemu i wysłaniu kilku mailingów możemy badać, które osoby są szczególnie zainteresowane jakaś specyficzną ofertą naszej firmy. Możemy określić zatem reguły że gdy: użytkownik wejdzie na podstronę szkolenia SEO na SprawnyMarketing.pl, nastepnie sprawdzi co na ten temat piszemy na stronie firmowej MaxROY.com.pl a nastepnie wejdzie jeszcze na SearchMarketingWeek.com i kliknie opis szkolenia SEO – to znaczy ze jest prawdopodobnie bardzo zainteresowany tym szkoleniem – mozemy zatem wygenerowac regułę automatyczną, która spowoduje wysłanie maila ze szczegółowymi inforamacjami do potencjalnego klienta lub wyśle komunikat do działu call ceneter żeby zadzwonić do danej osoby przekazać jej więcej informacji, dać specjalny rabat.

W dużym skrócie: możemy automatyzować spersonalizowany marketing i docierać do klienta dokładnie wtedy kiedy potrzebuje naszego produktu. Ten sam mechanizm możemy powielić w sklepach internetowych i innych działalnościach, także usługowych. Na szkoleniu gościem specjalnym będzie Paweł Sala, który opowie o integracji systemu mailingowego Freshmail.pl z narzędziem Marketing Automation.

Dowiedz się więcej o szkoleniu z Marketing Automation

Szkolenie z copywritingu sprzedażowego z elementami SEO

Szkolenie przeprowadzi dobrze znany specajlista od copywritingu, autor dwóch książek z tego zakresu Dariusz Puzyrkiewicz. Na szkoleniu dowiemy się dlaczego tak ważne jest świadome pisanie tekstów sprzedażowych nastawionych na realizacje konkretnych celów.

Zwaracam waszą uwagę że szkolenie jest bardzo praktyczne także dla osób, które na codzien pracują z reklamami AdWords – to oczywiście inna forma copywritingu z precyzyjnie określonymi limitami znaków ale proces tworzenia nagłówków i dobrego copy reklam jest taki sam nie zależnie od długości tekstu.

Na szkoleniu Darek pokaże najlepsze metody na poszukiwanie inspiracji, testowanie nagłówków i pisanie doskonałych tekstów którym nie oprze się żaden klient! Na szkoleniu Darek uczy jak z dystansem spojrzeć na swoją stronę tak aby konsekwentnie podnosić ROI – czyli zwrot z inwestycji w reklamę.

Na szkoleniu gościem specjalnym będzie Sławomir Gdaq, który przedstawi w trakcie godzinnej prezentacji najważniejsze elementy z punktu widzenia SEO copywritingu, czyli jak pisać teksty sprzedażowe tak aby pogodzić wysokie konwersje z wysokimi pozycjami w Google.

Więcej o szkoleniu z Copywrtingu sprzedażowego

SEO PRO by Martin MacDonald i Cezary Lech

To szkolenie przeprowadzimy w dwójkę z Martinem MacDonaldem i pomocą Marka Grońskiego. Cały czas trzymamy się wątku Link Buidlingu jednak jak to ze szkoleniami SEO PRO bywa także to szkolenie niepowtarzalne. Zaprezentujemy w nim około 60-70% zupełnie nowych materiałów. W pierwszej połowie szkolenia w okolo 3 godziny przedstawimy wam to co dotychczas prezentowaliśmy przez cały dzień! Bardzo skondensowana dawka wiedzy o budowaniu linków, same konkrety, bez lania wody. Pod koniec pierwszej cześci przekażemy pen drive’y z odświeżonymi i zaktualizowanymi listami na Twoje linki.

Drugą połowę szkolenia bierze na swoje barki Martin MacDonald pokaże nam swoje nowe narzędzie SEO i przedstawi trzy ciekawe case study z zakresu Pingwin Update. Martin pokaże nam jak wyciągnąć strony po Pingwin Update oraz swoje najciekawsze metody na Link Building. Ja natomiast zaprezentuje nowe podejście do pozycjonowania stron wg. zasdy Pareto 80/20 oraz nasze najnowsze odkrycia w zakresie pozyskiwania linków ze stron TrustRank. Na szkoleniu otrzymasz także zaktualizowane listy:

  • Lista 1000 zagranicznych stron do założenia profili o wysokim TR
  • Lista 100 sprawdzonych polskich katalogów o wysokim Trust Rank
  • Lista 50 wartościowych polskich precli
  • Lista 100 angojezycznych wartościowych stron z artykułami o wysokim TR
  • Lista 100 polskich stron o wysokim TR z których możesz pozyskać linki – pokażemy jak to robić oraz jak szukać tego typu stron!
  • Lista 400 katalogów zagranicznych (wysoki TR) oraz przedstawienie metody na pozyskiwanie z nich linków
  • Lista 3000 polskich for umożliwiających dodanie linków
  • Lista 2500 płatnych polskich precli!
  • Lista 13 892 katalogów (w tym 2500 seo katalogów!)
  • Dostaniesz kod promocyjny który pozwoli Ci bezposrenido po szkoleniu pozyskac około 150’000 linków!

Szkolenie w dużym stopniu będzie dotyczyło nowej systuacji w Google po Pingwin Update, jak pozycjonować strony, jak wyciągać je z filtra, co powoduje spadki pozycji, jak sie zabezpieczać przed depozycjonowaniem, jakie narzedzia używać. Martin MacDonlad pokaże w tym zakresie najnowsze casey i dane z rynku anglojęzycznego. Więcej o szkoleniu SEO PRO.

Zapraszamy na:

Artykuł 5 nowych szkoleń na SearchMarketingWeek.com Warszawa pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Jak zarabiać 20.000 zł miesięcznie na afiliacji?

Przyjęło się w Polsce i przez długi czas ja myślałem podobnie że na afiliacji i programach partnerskich w naszym kraju nie da się zarobić naprawdę dobrych pieniędzy. Dzisiaj chcemy wam pokazać wywiad z Marcinem Kaczmarkiem z firmy CashinPills, której stoisko spotkaliśmy podczas ostatniej wizyty w Barcelonie na konferencji A4U Expo.

W ostatnim artykule/infografice o branży SEO na Sprawnym wspomnieliśmy o innych formach zarabiania dostępnych dla zdolnych pozycjonerów:

Metody zarabiania dla zdolnych marketerów, pozycjonerów i SEO

Na ostatniej z wymienionych możliwości skupimy się w dzisiejszym artykule – marketing afiliacyjny czyli programy partnerskie. Jak zarobić na nich naprawdę duże pieniądze?

Program Partnerski Cash in Pills - jak zarabiac w internecie

Program partnerski CashinPills to platforma ,która umożliwia sprzedać produktów z szybko rosnącej kategorii zdrowie i uroda. W ofercie znajdziemy glownie suplementy diety ,ale też produkty takie jak kremy, zabawki erotyczne czy zestawy do wybielania zębów.

Produkty oferowane przez CashinPills sa przebadane ,bezpieczne do stosowania i wyprodukowane według najwyższych standardów jakościowych. Progam oferuje szeroki zakres narzedzi promocyjnych , oferty przetłumaczone na 20 języków i lokalne metody płatności.

Współpraca z CashInPills dla partnerów to przede wszystkim wysokie konwersje niemal z każdego rodzaju ruchu, niezależnie od kraju i rodzaju strony.

Mieliśmy okazję porozmawiać z polskim opiekunem programu, który opowiedział nam trochę więcej o swojej pracy, a także tym, skąd bierze się popularność tego typu usług i ile zarabiają czołowi partnerzy.

Marcin Kaczmarek jest współwłaścicielem zlokalizowanej na Cyprze spółki CashInPills, odpowiedzialny za rozwój i działanie firmy w Polsce.

Cezary Lech
Witaj, Marcin Powiedz nam proszę skąd pochodzisz i skąd się u Ciebie wzięło Twoje zaangażowanie w marketing afiliacyjny?

Marcin Kaczmarek
Cześć, marketingiem i programami partnerskimi interesowałam sie od bardzo dawna w zasadzie od samego ich poczatku w Polsce i na świecie. Moja przygoda z marketingiem afiliacyjnym zaczęła sie od programów takich jak Commision Junction około 2001 roku , potem uczestniczyłem w zasadzie we wszystkich większych programach partnerskich w Polsce ( Bankier , Allegro itd ).

Cezary Lech
Jaka była pierwsza prowizja, którą zarobiłeś?

Marcin Kaczmarek
Pierwszy czek dostałem ze wspomnianego Commsion Junction , pamiętam ,że zarobienie pieniędzy było najłatwiejszą częścią całego przedsięwzięcia.
Potem bylo dluuuugie oczekiwanie na czek i walka w bankach o jego realizacje , która kosztowała tyle, że juz niewiele z niego zostawało ;-)

Cezary Lech
Jak długo działasz w branży?

Marcin Kaczmarek
Od 2001 roku.

Program partnerski sprzedazy tabletek i supplementow

Cezary Lech
Zanim zaczęła się Twoje przygoda z CashinPills odnosiłeś sukcesy jako partner. Co promowałaś i jak przerzuciłeś się na CashInPills?

Marcin Kaczmarek
Tak jak już wspomniałem byłem partnerem i miałem strony w bardzo różnych branżach z różnymi grupami odbiorców. Kiedyś trafiłem na program sprzedający suplementy diety. Spodobała mi sie szeroka oferta i fakt, że mogłem dobrać produkt  do różnych stron.

Sporo czasu promowałem te oferty i na pewnym etapie pomyślałem ,ze fajnie byłoby zrobić cos takiego ,ale przeznaczonego na rynki inne niż anglojęzyczne i tak powstał pomysł CashInPills. Potem była jeszcze długa i wyboista droga do stworzenia produktów i urzędowa droga przez mękę związana z całym przedsięwzięciem.

Cezary Lech
Jak długo CashInPills jest na tym rynku?

Marcin Kaczmarek
CashInPills jest na rynku od 2010 roku.

Cezary Lech
Podobno CashInPills jest znany z wysokich prowizji nawet do 30% wartosci sprzedaży. Jak to się dzieje, że konwersja Waszych ofert jest tak wysoka?

Marcin Kaczmarek
Wysokość prowizji w CashInPills rzeczywiście jest dość wysoka , jednak bardziej niż z tego jesteśmy dumni z faktu ,że nasze produkty mają bardzo wysokie konwersje ,bo to jest główny wyznacznik tego ile może zarobić partner.

Jest to możliwe z paru powodów, przede wszystkim oferujemy ekskluzywne produkty niedostępne nigdzie indziej. Nie ma więc ryzyka,że klient zobaczy produkt np. na stronie a potem kupi go w aptece. To ogromna przewaga Cashinpills w porównaniu np. z aptekami internetowymi.
Poza tym cały czas pracujemy nad naszymi stronami, optymalizujemy landing page, testujemy rożne warianty, w programie pojawiają się nowe materiały reklamowe itd.
Oczywiście zawsze jest coś do poprawienia, dlatego bycie w stałym kontakcie z partnerami i wsłuchanie się w ich potrzeby to podstawa.

Cezary Lech
Jak wyglądają przeciętne konwersje Waszych partnerow?

Marcin Kaczmarek
Wszystko zależy od źródła ruchu. Webmasterzy wysylajacy ruch organiczny na swoje dobrze zoptymalizowane landingpage np. blogi osigaja konwersje na poziomie 1/20 czy 1/30. Oczywiscie konwersje z innych typow kampanii sa zwykle gorsze niz z ruchu SEO. Nasze produkty daja szerokie pole do popisu dla pozycjonerow, bo ilosc fraz dlugiego ogona dla kazdego z nich jest naprawde spora.

Cezary Lech
Czy Wasze usługi są świadczone wyłącznie i bezpośrednio przez Was?

Jak zarobic pieniadze w internecie na programach partnerskich

Marcin Kaczmarek
Tak. Nasi partnerzy mogą mieć pewność, że nasze usługi są świadczone wyłącznie i bezpośrednio przez nas. Jesteśmy właścicielem i zarządcą wszystkich ofert. To sprawia,że możemy szybko reagować na potrzeby rynku i partnerów.

W przeciwieństwie do sieci afilacyjnych gdzie programem zarządza ktoś inny, a ktoś inny sprzedaje produkt.

Cezary Lech
Dlaczego partnerzy powinni rozważyć promocję waszej oferty?

Marcin Kaczmarek
Z 5 powodów:

  1. Prowizje za promocję naszej oferty produktów są naprawdę wysokie. Niektórzy z naszych partnerów zarabiają nawet 20 000 zł miesięcznie.
  2. Posiadamy szeroką ofertę produktów:
    Zawsze pozostajemy do dyspozycji i chętnie podpowiemy jaki rodzaj produktu ma największą szansę sprzedawać się na danej stronie. Mamy doświadczenie w sprzedaży tych produktów na najróżniejszych rodzajach witryn od ogrodnictwa do stron z grami online.
  3. Rynek suplementów diety stale rośnie niemal w każdej grupie wiekowej. Produkty nadają się do każdej metody promocji od SEO / SEM / email.
  4. Produkty sprawdzają się także jako upsell i uzupełnienie dotychczasowej oferty, zwiększając zysk z użytkownika na stronie.
  5. Strony przetłumaczone na wiele języków pozwalają konwertować ruch nie tylko z Polski. Warto wykorzystać swoją wiedzę SEO i reklamować produkty za granicą, gdzie konkurencja jeżeli chodzi o SEO jest dużo mniejsza, a w konwersje wyższe.

Cezary Lech
Jakie są miesięczne zyski najlepiej zarabiających partnerów?

Marcin Kaczmarek
Żeby dostać sie do TOP 5 trzeba przekroczyć 6000 zł.

Screen z panelu administracyjnego programu partnerskiego za Czerwiec 2012:
Ile i jak mozna zarobic w internecie na programach partnerskich i afiliacyjnych

Cezary Lech
Czy zaopatrujecie partnerów, którzy chcą promować wasze usługi, w materiały?

Marcin Kaczmarek
Tak oczywiście. Partnerzy przystępujący do programu dostają od nas szeroki wybór materiałów reklamowych. Poza standardowymi bannerami, są też bannery hostowane, page peel, popundery. W najbliższym czasie dojdą tez blogi. Będzie możliwość wysłania ruchu na bloga,zamiast bezpośrednio na stronę sprzedażową, co znacząco zwiększa konwersje.

Cezary Lech
Opowiedz nam proszę o wypłatach i o tym w jaki sposób CashInPills wspiera webmasterów uczestniczących w programie.

Marcin Kaczmarek
Prowizje są wypłacane naszym partnerom na początku każdego miesiąca. Oferujemy różne metody wypłaty zgromadzonych środków: przelew, czek, paypal, a w tej chwili wprowadzamy możliwość uzyskania karty kredytowej, która będzie raz miesięcznie doładowywana środkami zgromadzonymi w programie.
W naszym zespole sa specjaliści SEO, marketingowcy, specjaliści marketingu szeptanego, graficy oraz programiści. Zawsze pozostajemy do dyspozycji partnerów, pomagamy dostosowywać strony, doradzamy w jaki sposób uzyskać najwyższe możliwe konwersje.
Jesteśmy w stałym kontakcie ze wszystkimi partnerami przez telefon, email, skype.

Cezary Lech
Zachęcacie partnerów do szerszych działań niż samo umieszczanie bannerów na stronach. Opowiedz nam o tym.

Marcin Kaczmarek
Większość partnerów nie docenia siły indywidualnie przygotowywanych landing page. Wlasny blog,strona z opiniami i komentarzami dotyczacymi różnych suplementów diety,ranking czy własny amatorski film wideo przedstawiający produkt, pomysłów jest wiele.
Jedno jest pewne kierowanie ruchu na taką stronę, zamiast na strone główną produktu poprawiają konwersje i zyski nawet o kilkadziesiąt %.
Tworzenie tego typu stron jest szczególnie ważne w kontekście ostatnich zmian w algorytmie Google, który szczególnie promuje unikalne i dobre jakościowo strony.
Z naszej strony partnerzy mogą liczyć na wszelką pomoc w tym zakresie. Dostarczamy potrzebne zdjęcia i materiały. Wspieramy i doradzamy.

Cezary Lech
Stworzyliście możliwość tworzenia własnych landing page przez partnerów i generowanie kodów partnerskich kierujących bezpośrednio na nie. Możesz powiedzieć więcej na ten temat?

Marcin Kaczmarek
Tak, jest to bardzo ciekawe rozwiązanie, dające duże możliwości marketingowe. Załóżmy,że partner ma stronę dotycząca diet, ale nie chce umieszczać na niej żadych reklam, ani nawet linków do naszych stron.
Partner może w treści strony zachęcić do zakupu jednego z naszych produktów i może wygenerować link partnerski,który będzie prowadził do jego własnej strony i jednocześnie zapisywał ciastko wybranego produktu.
Jeżeli klient zachęcony tekstem na stronie wejdzie np. do google.pl i w ten sposób wyszuka produkt to prowizja zostanie przypisana partnerowi.
To rozwiązanie stosowane jest np. przez naszych partnerów skupiających sie na marketingu szeptanym. Tworzone przez nich linki partnerskie kierują np. do tworzonych przez nich wątków na forach internetowych, gdzie często nie mogą umieścić swojego URL.

Cezary Lech
Opowiedz nam proszę o partnerze, który odniósł sukces z CashInPills.

Marcin Kaczmarek
Na początku roku rozpoczeliśmy współprace z partnerem, który miał bardzo podstawową wiedze na temat tworzenia stron i brak jakiegokolwiek pojęcia o SEO. Pamiętam,że pierwsza wersja jego strony była oparta na darmowym szablonie wordpress i stała na darmowym hostingu.
Partner postanowił stworzyć ranking, w którym opisywał i porównywał różne produkty na odchudzanie. W tej chwili strona ta jest bardzo wysoko w wynikach wyszukiwania na słowa kluczowe związane z różnymi produktami odchudzającymi dostępnymi na polskim rynku.
Partner skupił sie na zbieraniu ruchu z długiego ogona, zamiast na walce o słowa takie jak „ tabletki odchudzające” .W tej chwili stworzone został podobne strony związane z innymi produtkami np. na cellulit. A zarobki partnera rosną o kilkadziesiąt % miesięcznie.

Cezary Lech
Czy CashInPills oferuje partnerom szkolenia czy wsparcie marketingowe?

Marcin Kaczmarek
Tak. Oferujemy materiały, listy słów kluczowych, reklamy banerowe, blogi, teksty, teksty do mieszarek itd. Cały czas dochodzi coś nowego.

Cezary Lech
Jakiej platformy afiliacyjnej używacie?

Marcin Kaczmarek
Korzystamy z oprogramowania, które stworzyliśmy sami do tego celu, ze względu na bardzo specyficzne potrzeby naszego programu mieliśmy problem ze znalezieniem jakiegokolwiek pudełkowego rozwiązania spełniającego nasze potrzeby. Myślę, że całkiem nieźle nam to wyszło ;-)

Cezary Lech
Czy macie jakieś specjalne oferty lub konkursy dla partnerów?

Marcin Kaczmarek
W najbliższym czasie planujemy dwa konkursy dla webmasterów zarejstrowanych w programie. Jeden będzie to konkurs SEO i drugi to konkurs dla webmasterów promujących sam program partnerski.
Partnerzy maja możliwośc zarabiania 5% prowizji od sprzedaży wygenerowanych przez poleconego przez nich partnera.

Cezary Lech
Co jeżeli ktoś dopiero zaczyna z pracę z programami partnerskim ? Jakieś rady dla początkujących?

Marcin Kaczmarek
Powiem Ci szczerze, że czasami bycie początkującym to zaleta :)
Z moich obserwacji wynika,że tacy partnerzy odnoszą sukcesy,bo nie powielają schematów,a w tym tkwi cały sukces.
Doświadczonym webmasterom czasami sie po prostu nie chce, tworza strone byleby była, wrzucaja na szybko bannery, czasami nawet nie do końca przemyślanie.

Różnica konwersji między byle jaka strona napisana na kolanie, a strona gdzie znajdziemy dobrze napisane opisy,unikalne zdjecia czy film z produktem w roli głównej potrafi sięgnąć kilkuset procent. My cały czas zachęcamy webmasterów do tworzenia dobrych jakościowo stron, dostarczamy potrzebne materiały, jeżeli czegoś brakuje np. określonego rodzaju zdjęcia to wystarczy do nas napisać.

Poza tym cały czas opiekun programu jest dostepny przez Skype czy GG, chetnie podpowie i doradzi. Dla zarejstrowanych w programie dostepne jest tez forum dyskusyjne, gdzie mozna zadawać pytania dotyczace np. SEO.

Cezary Lech
Czy jest coś jeszcze, co chciałbyś powiedzieć ludziom z branży?

Marcin Kaczmarek
CashInPills jest programem partnerskim tworzonym przez ludzi,którzy sami byli partnerami i zdają sobie sprawę,że potrzeby partnerów sa znacznie większe niż podstawowe rozmiary bannerów i link do produktu. Program ma do zaoferowania znacznie więcej niż tu wymieniłam, więc mogę tylko zachęcić do dołączenia do nas i zarabiania z CashInPills.com.



Artykuł Jak zarabiać 20.000 zł miesięcznie na afiliacji? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Infografika: Czy polskie SEO to rynek kanciarzy?

Za kilka dni na łamach Sprawnego Marketingu ukaże się nowy Kodeks Etyczny SEO przygotowany IAB Polska. Nie zależnie od tego co przygotowuje w nowym dokumencie IAB już jakiś czas temu postanowiliśmy przygotować polskie tłumaczenie infografiki, która ukazała się w grudniu 2011 w serwisie SEOBook.com pod tytułem: SEO Lemons.

Naszym zdaniem Aaron Wall w bardzo ciekawy sposób opisał rynek pozycjonowania stron a infografika doskonale oddaje realia zarówno amerykańskiego jak i polskiego rynku usług SEO! Wbrew powszechnej opinii nasz kraj nie różni się od inncyh rynków tak bardzo jak dotychczas myśleliśmy, zapraszam do lektury…

Czy SEO to rynek kanciarzy?

czy-seo-to-rynek-kanciarzy

Różnica wiedzy

W 2001 roku George Akerlof dostał Nagrodę Nobla za swój artykuł “A Market for lemons”. W tym słynnym tekście Akerlof wyjaśnia, że gdziekolwiek istnieje duża różnica wiedzy między sprzedawcą a kupującym, sprzedawca zwykle wykorzystuje niewiedzę kupującego sprzedając mu towary lub usługi po nieuczciwej cenie.

“Sprzedawca zwykle wykorzystuje niewiedzę kupującego”

Nigdzie ta reguła nie jest widoczna tak mocno, jak w branży używanych samochodów. Bez pomocy niezależnego rzeczoznawcy, przeciętny kupujący jest w stanie ocenić najwyżej estetykę auta.

“Czy można lepiej podnieść wartość towaru, niż przez podniesienie jego ceny?”

W rezultacie, w autokomisach ludzie podejmują decyzje zakupowe na podstawie postrzeganej przez siebie wartości samochodu. A czy można skuteczniej podnieść tę wartość, niż przez podniesienie jego ceny?

Lepszym biznesem jest kupowanie po niskich cenach uszkodzonych aut i sprzedawanie ich po cenach sugerujących wyjątkowo dobry stan, niż kupowanie droższych, ale naprawdę sprawnych aut.
Przeciętny klient zamawiający usługi SEO ma nikłą wiedzę i nie potrafi odróżnić dobrego SEO od złego SEO. Korzystają z tego firmy SEO, sprzedające złe SEO w cenie dobrego, wypychając dobre SEO z rynku.

A co to ma wspólnego z kupowaniem usług SEO?

WSZYSTKO!

Prawdziwe koszty i korzyści z pierwszego miejsca

Inaczej niż w przypadku ruchu z Google AdWords, wielu ludzi uważa ruch SEO za “darmowy”. Tymczasem koszt efektywnej kampanii SEO istnieje i zależy od konkurencji z innymi witrynami. To nie “twoja firma przeciwko Google”. To “twoja firma przeciwko wynikom wyszukiwania znajdujących się powyżej twojego”.

“Wielu ludzi uważa ruch SEO za “darmowy”

W pozycjonowaniu obowiązuje zasada “zwycięzca bierze większość”. Według licznych badań, pierwsze 3 wyniki przyciągają przeszło 55% kliknięć, a pierwszy wynik dostaje 2 razy więcej kliknięć, niż drugi.

Reklamodawca doświadczający korzyści z zyskania wysokich pozycji, agresywnie inwestuje w SEO dla wytworzenia bariery konkurencyjnej, przeciwdziałającej przechwyceniu przez konkurencję korzystnych pozycji w wynikach wyszukiwania.

Ponadto, liderzy rynku z natury rzeczy mają dostęp do najlepszych danych rynkowych i badań, dzięki którym wiedzą, w co warto inwestować najmocniej.

Sprzedawcy uliczni

Od kiedy SEO stało się najgorętszym słowem w internetowym biznesie, wiele firm niemających doświadczenia i wiedzy potrzebnej do prowadzenia efektywnych kampanii w wyszukiwarkach podejmuje próby pozyskania udziałów w tym torcie… a czasem nawet zagarnięcia całego tortu.

Wiele firm projektujących witryny internetowe przeszło błyskawiczną “metamorfozę” w “ekspertów SEO”. Dla części z nich “działania SEO to optymalizacja kodu”, dla innych “SEO to relacje z klientami”. Większość nie potrafi podjąć skutecznych działań w najważniejszych obszarach, takich jak pozyskiwanie linków.

Wielu rejestratorów domen i wiele firm hostingowych podejmuje próby sprzedawania swoich usług w postaci “SEO za 100 zł miesięcznie”. Takie usługi prawie nigdy nie dają żadnych efektów w wynikach wyszukiwania, są po prostu wyłudzaniem nadwyrężąjącym zaufanie klienta. Ulubioną ofertą takich firm jest “zgłaszanie witryn do wyszukiwarek”.

Spamerzy, telemarketerzy, a nawet niektóre “agencje SEO” prowadzą agresywną sprzedaż “usług SEO” w nieprawdopodobnie niskich cenach

  • Wiele z takich firm wiąże klientów restrykcyjnymi, długoterminowymi umowami, których klient nie może wypowiedzieć, choćby agencja nie wywiązała się z żadnych zobowiązań.
  • Zdecydowana większość takich usług jest całkowicie nieskuteczna. Jeśli można dopatrzyć się jakichś efektów, zwykle mają one charakter krótkoterminowy, a uzyskiwane są metodami wysokiego ryzyka, które mogą skończyć się poważnymi karami.
  • Oszuści często proponują ofertę “pierwsza strona wyników gwarantowana w ciągu 30 dni”. Nie dodają jednak, że będzie to pierwsza strona wyników na zapytania, których nikt nie wpisuje. [red. Adkowy “wypas owiec w bieszczadach” ;)]

“Zdecydowana większość takich usług jest całkowicie nieskuteczna”

Nie ma bariery wejścia

Każdy, kto używa internetu chociaż pół roku i potrafi opanować kilka związanych z SEO pojęć, może ogłosić się “ekspertem pozycjonowania” i sprzedawać usługę pozycjonowania niczego niespodziewającym się klientom. Tacy pozycjonerzy prawie nigdy nie mogą pochwalić się żadnymi wystawionymi przez stronę trzecią dowodami swoich kwalifikacji.

“Jestem pozycjonerem.
Kto tak mówi?
Ja tak mówię!”

 

  • Istnieje trochę branżowych witryn tworzących “niezależne” rankingi “najlepszych” firm SEO. W rzeczywistości takie witryny zapełniają najgorsi gracze na rynku, obecni tam dzięki słonym opłatom za miejsce w rankingu.
  • Kiedy oszuści zauważają skuteczność tej techniki, inwestują zyski w członkostwa w branżowych organizacjach. Witryny najbezczelniejszych są wprost obwieszone odznakami z rzekomo wiarygodnych źródeł.
  • Wiele agencji marketingu internetowego publikuje na swoich witrynach certyfikat Google AdWords. Wielu klientów traktuje te certyfikaty jako dowodzące kwalifikacji agencji w obszarze SEO. W rzeczywistości certyfikat ten nijak nie odnosi się do pozycjonowania, wytwarza jedynie u klientów złudne poczucie bezpieczeństwa.
  • Oficjalne Wskazówki Google AdWords mówią m.in., że “niedozwolone są reklamy zawierające nieuzasadnione stwierdzenia, superlatywy i niezweryfikowane korzyści”. O ile zasady te obowiązują w wielu branżach, z pewnością nie przestrzega się ich na rynku SEO. Reklamy AdWords wypełnione są deklaracjami typu “gwarancja pierwszego miejsca” i innymi uproszczeniami obliczonymi na zmylenie nieświadomego klienta.


Jak zarabia utalentowany pozycjoner?

Przed dobrym pozycjonerem stoi wiele intratnych możliwości zarabiania:

Sprzedaż wiedzy SEO (np. usługi szkoleniowe)

Prowizja za podnoszenie zyskowności witryn

Reklamy kontekstowe

Wysokopłatny etat w korporacji

Stworzenie własnego sklepu internetowego

Kupowanie i sprzedawanie domen i witryn internetowych

Sprzedaż ruchu

Programy partnerskie

Sprzedawca kontra ekspert

Niektórzy pozycjonerzy skoncentrowani są na sprzedaży. Każdemu klientowi mówią: “da się zrobić”, niezależnie od sytuacji.
Pozycjonerzy z dużą wiedzą, dbający o jakość usług często wtrącają słowa takie jak “prawdopodobnie”, “może”. Wiedzą bowiem, że wyszukiwarki to dziedzina jednocześnie złożona i podlegająca ciągłym zmianom.
Paradoksalnie, najczęściej im lepiej pozycjoner sprzedaje, tym gorszym jest pozycjonerem.

Nie ma zachęt do chwalenia się sukcesami

Kiedy pozycjoner odniesie sukces, nie chwali się. Chwalenie się sprowadziłoby na niego szereg niebezpieczeństw, w tym konkurencję prześwietlającą źródła jego sukcesu i kontrolę ze strony inżynierów wyszukiwarek.

Doświadczony pozycjoner widząc udaną kampanię SEO jest w stanie przeprowadzić jej “inżynierię wsteczną”, użyć we własnych kampaniach, obniżając tym samym jej skuteczność dla autora.
Tymczasem inni pozycjonerzy uwielbiają przechwałki. Niektórzy z nich robią to “dla lansu”, kolejni chcą sprowokować innych pozycjonerów do stosowania szkodliwych metod.

Kim bywa ekspert SEO?

Większość pozycjonerów zdaje sobie sprawę, że promować należy nie tylko klientów, ale także siebie samych. Problem polega na tym, że niemal każdy pozycjoner chce zyskać miano merytorycznego lidera branży. Jest to bardzo czasochłonne, a jednocześnie wytwarza zgiełk komunikacyjny, spośród którego trudno się przebić.
Niewielu ma czas na czytanie, testy, promowanie samych siebie, branżowe konferencje i jednocześnie pracę nad projektami klientów.
W rezultacie wielu samozwańczych ekspertów SEO pozyskuje klientów dzięki swojej marce, a następnie zleca działania operacyjne stażystom.

“Wielu samozwańczych ekspertów SEO pozyskuje klientów dzięki swojej marce, a następnie zleca działania operacyjne stażystom”

Agencje SEO to biznes słabo skalowalny

Marketing w wyszukiwarkach to gra o sumie zerowej. Żeby ktoś mógł zyskać, ktoś musi stracić.
Ilekroć następuje zmiana algorytmu wyszukiwarki, ktoś wygrywa, a ktoś przegrywa.

Każdy kto pozycjonuje na dużą skalę, jest najczęściej narażony na te same niebezpieczeństwa w pracy dla kolejnych klientów. Liczebność klientów skłania do kopiowania tych samych strategii i technik w poszczególnych projektach.

“Marketing w wyszukiwarkach to gra o sumie zerowej. Żeby ktoś mógł zyskać, ktoś musi stracić.”

Trudno dobrze dobrać wielkość firmy pozycjonującej. Z uwagi na ciągłe zmiany w algorytmie potrzeba wielu pracowników do przeprowadzania badań, testów i wdrażaniu ich wyników w praktyce. Biznesy funkcjonujące w statycznym otoczeniu mają znacznie mniejsze zapotrzebowanie na pracowników.
Kiedy zmiany w algorytmie tworzą nowe szanse, agencjom może brakować mocy przerobowych, by je wykorzystywać ze względu na zbyt dużą liczbę klientów (patrz Panda Update).

JAKIE JEST ROZWIĄZANIE?

Wiedza + Cierpliwość + Inwestowanie + Testy +

Zatrudnienie pozycjonera + Ciągłe Szkolenia

 

Infografika w wersji pdf:
https://sprawnymarketing.pl/wp-content/uploads/2012/07/seo-rynek-kanciarzy.pdf

Artykuł Infografika: Czy polskie SEO to rynek kanciarzy? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Szkolenia w Warszawie (2 x SEO i AdWords Zaawansowane) + Video z SEO PRO

25 i 26 Czerwca w Warszawie odbędą się trzy szkolenia, których od dawna nie było w tej części Polski. Dwa szkolenia SEO oraz AdWords Zaawansowane. Oprócz tego, odbędzie się jeszcze zaawansowane szkolenie AdWords w Poznaniu. To ostatnia szansa na poszerzenie swoje wiedzy przed wakacjami! Następne szkolenia dopiero w październiku i listopadzie.

  1. SEO i pozycjonowanie – poniedziałek 25 Czerwca, 1277 zł netto – Warszawa
  2. AdWords zaawansowne – poniedziałek 25 Czerwca, 970 zł netto – Poznań
  3. SEO PRO:Link Building – wtorek 26 Czerwca, 2777 zł netto – Warszawa
  4. AdWords zaawansowne – wtorek 26 Czerwca, 970 zł netto – Warszawa

Jak zwykle przygotowaliśmy kilka nowosci, najwięcej zmian dotyczy szkolenia SEO PRO oraz szkolenia zaawnasowanego Google AdWords, które zostało mocno przebudowane przez Tomka Frontczaka i Bartka Berlińskiego.

W dzisiejszym poście udostępniamy także w formie VIDEO zawartość panelu dyskusyjnego, który miał miejsce na ostatnim szkoleniu SEO PRO: Link Building podczas marcowego SearchMarketingWeek.com w Poznaniu. Główna gwiazdą panelu jest Tomasz Górski, który ma olbrzymie doświadczenie w pozycjonowaniu trudnych branż w Stanach Zjednoczonych.

SEO PRO:Link Buidling – co nowego?

W największym stopniu chciałbym skupić waszą uwagę właśnie na szkoleniu z Link Buildingu… szkolenie opracowaliśmy bowiem na nowo w około 50%, zrezygnowaliśmy z rozwijania wątku Xrumera. Ten czas przeznaczyliśmy na przedstawienie narzędzia wszechstronnego i wielofunkcyjnego, które pozwala na outsourcing procesów zdobywania linków. Pobieżnie zliczając, wiedza przekazana podczas szkolenia umożliwi zdobycie 327.896 linków!

Podczas szkolenia przestawimy również:

  1. Zasadę działania oraz narzędzie tworzące tzw. Piramidy Linków
  2. Formy indeksowania zdobytych odnośników – jak zdobyte linki podsunąć do indeksacji Google Botowi
  3. Pokażemy także inspirujący case study pozycjonowania bardzo trudnej frazy w Google.com
  4. Otrzymasz Pen Drive z gotowymi listami stron, na których można zdobyć linki
  5. Otrzymasz kupony na linki do polskich systemów płatnych linków
  6. Kupon promocyjny do wszechstronnego narzędzia do pozyskiwania linków
  7. Dowiesz się czym jest TrustRank oraz jak bezpiecznie linkować strony w erze Pinguin Update

I na zachętę przekazujemy wspomniane we wstępie Video z Tomaszem Górskim, który mówi m.in. o ostatnio wdrożonym w polskich wynikach Venice Update dotyczącym głównie lokalnych wyników wyszukiwań. Tomek będzie także obecny na najbliższym szkoleniu i całym panelu dyskusyjnym – video na dole artykułu. 

Więcej o szkoleniu oraz szczegółowy plan szkolenia SEO PRO:Link Building.
Rejestracji można dokonać na tutaj: https://sprawnymarketing.pl/szkolenia/

Szkolenie SEO i Pozycjonowanie – dla kogo?

Warto pamiętać o istotnej różnicy pomiędzy szkoleniem SEO i Pozycjonowanie, które odbędzie się 25 Czerwca a SEO PRO:Link Building, które przeprowadzimy we wtorek 26-ego. W trakcie szkolenia SEO i pozycjonowanie skupiamy się przede wszystkim na technicznych aspektach optymalizacji stron, zwracamy uwagę na wykorzystanie wewnętrznego potencjału witryn, wskazujemy najczęstsze miejsca gdzie pojawiają się problemy z indeksacją, zduplikowaną treścią, pokazujemy jak optymalizować pliki graficzne oraz video. Przedstawiamy kilka kluczowych narzędzi a na koniec wprowadzamy w temat budowania linków przekazując dostęp do kilku ważnych list z wiarygodnymi dla Google stronami, na których można umieszczać swoje odnośniki.

Więcej o szkoleniu przeczytasz TUTAJ

Zaawansowane szkolenie Google AdWords

Być może wiele osób nie zdaje sobie sprawy z faktu, że w Polsce zostało już tylko czterech certyfikowanych przez Google specjalistów uprawnionych do prowadzenia szkoleń AdWords: Przemek Modrzewski, Maciej Lewiński oraz naturalnie Tomasz Frontczak i Bartosz Berliński. Zespół trenerów uszczuplił się aż o 6 osób… Ponownie dziękując Google za obdarzenie nas zaufaniem, z nową energią przystąpiliśmy do aktualizacji prezentacji o najnowsze case’y, spostrzeżenia oraz wszelkie nowości, które pojawiły się w systemie AdWords.

Można powiedzieć, że zarówno MaxROY.com jak i SprawnyMarketing.pl wyrosły na szkoleniach AdWords. Wielu z was już było na naszych szkoleniach podstawowych – myślę że teraz jest dobry czas, aby wejść na kolejny poziom wiedzy, zaktualizować, odświeżyć informacje, sprawdzić co nowego, a przede wszystkim zadać nurtujące Was pytania i zmusić nas do rozwiązywania trudnych problemów :)

Nowości w trakcie szkolenie Google AdWords Zaawansowanego to m.in.:

  • dokładnie omówione najnowsze zmiany (2012) w wyniku jakości wraz z praktycznym przełożeniem na strukturę konta
  • case optymalnej struktury konta – jak granulować ze względu na rodzaj (brand, ogólne, produktowe, konkurencja, lokalizacyjne) i dopasowanie słów kluczowych (od broad po exact),
  • partyzanckie kampanie remarketingowe,
  • blok Zainspiruj się pokazujący w pigułce pomysłów na strony docelowe, copywriting, reklamy graficzne,
  • reklama video w obrębie YouTube,
  • reguły automatyczne  – 3 reguły oszczędzające 3 dni pracy w miesiącu.
Tomek Frontczak w program szkolenia włączył obszerne fragmenty z jego bardzo dobrze ocenianej prezentacji nt. Zaawansowanych czynników Quality Score w Google AdWords z tegorocznej konferencji Search Marketing Day 2012!
Pełen program odświeżonego szkolenia Google AdWords Zaawansowane – kliknij tutaj.
Każdy uczestnik Szkolenia Google AdWords otrzyma zestaw płyt 6xDVD: Szkolenie AdWords Podstawowe oraz Facebook Marketing i dostęp do unikanych materiałów wideo na naszym zamkniętym forum, rozszerzających zakres szkolenia.

Rejestracje na wszystkie szkolenia można dokonać na stronie: https://sprawnymarketing.pl/szkolenia/

… i obiecany materiał video z Tomkiem Górskim:

Artykuł Szkolenia w Warszawie (2 x SEO i AdWords Zaawansowane) + Video z SEO PRO pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Magnus Brath o SEO w branży Casino i Poker… (artykuł i wywiad)

Jakiś czas temu zaczęliśmy odsłaniać nazwiska kolejnych prelegentów, którzy wystąpią 22 maja w Poznaniu podczas międzynarodowej konferencji SearchMarketingDay.com. Dzisiaj przedstawiamy specjalizującego się w pozycjonowaniu dla branży casino, poker Szweda o imieniu Magnus Bråth. Magnus jest szefem komórki SEO globalnej firmy przyjmującej zakłady oraz casino online – Pokerlistings.com, obecnie pozycjonuje z Malty, chociaż przez kilka lat prowadził biuro Pineberry w Sztokholmie, wcześniej pracował też z Kostaryki. Pineberry i sam Magnus od lat specjalizują się w pozycjonowaniu na najtrudniejsze frazy związane z branżą casino. Jego prywatny blog zajmuje w google.se pierwsze miejsce na frazę “sok motor konsult“, która w szwedzkich realiach jest porównywalna z naszą frazą “pozycjonowanie”. Najbardziej rozpoznawalny szwedzki przedstawiciel branży SEO, zarówno w kraju jak i na świecie.

Żeby przybliżyć Wam sylwetkę Magnusa i dać przedsmak jego prezentacji, zadaliśmy mu kilka pytań. W dalszej części publikujemy też tłumaczenie artykułu Magnusa, w którym udowadnia on wartość linków rotacyjnych, które dawno przestały istnieć oraz krótką radę dla wszystkich pozycjonerów chcących spróbować swoich sił w branży casino, poker.

Magnus Bråth – wywiad:

1 magnus-brath-306x300

Sprawny Marketing:
Nie masz komórki, długie lata pozycjonowałeś z plaż Kostaryki a teraz z Malty, chociaż jesteś Szwedem. Właściwie nie wiemy, jak udało nam się ściągnąć Cię na SMD ;-). Wygląda na to, że branża SEO daje mnóstwo wolności swoim najlepszym synom. Jak cię naśladować?

Magnus Bråth:
Od niedawna mam już komórkę, żona to na mnie wymusiła. Osiągnąłem, to co osiągnąłem dzięki szczęściu i oddaniu pracy. Pracowałem naprawdę ciężko i wciąż tak pracuję, nawet jeśli teraz robię to lepszych miejscach. Jeśli miałbym wskazać jedną konkretną cechę, która daje mi przewagę, to byłby to mój sceptycyzm wobec opinii autorytetów – nie wierzę automatycznie we wszystko, co przeczytam lub usłyszę od rozmówcy. To wymusza na mnie robienie licznych testów, a przez testowanie umie się więcej, niż przez przeczytanie na cudzym blogu.

Sprawny Marketing:
Zapewniasz doskonałą ekspozycję w Google.com dla najtrudniejszych fraz, przede wszystkim związanych z hazardem, np. pokerlistings.com. Co jest według Ciebie najtrudniejszą rzeczą w SEO?

Magnus Bråth:
W internetowej branży hazardowej niewątpliwie panuje olbrzymia konkurencja i są bardzo duże pieniądze do zarobienia (lub wydania). Bardzo mocna konkurencja sprawia, że skalowalność technik SEO odgrywa większą rolę, niż w pozycjonowaniu dla innych branż. Moim zdaniem nieskalowalne techniki SEO to nie techniki, tylko hobby.

Sprawny Marketing:
Czego dowiedzą się uczestnicy Search Marketing Day podczas Twojej prezentacji?

Magnus Bråth:
Mam nadzieję przekazać słuchaczom trochę mojej pozycjonerskiej mentalności. To może być bardzo przydatne, bo SEO to dla mnie bardziej sposób rozwiązywania problemów, niż jakiś konkretny zestaw umiejętności. Algorytm wciąż się zmienia, konkurencja się zmienia. Przy odpowiednim nastawieniu poradzisz sobie z tymi zmianami i wygrasz.

Artykuł: “Tymczasowe linki mają wartość” oraz “Beginners guide to SEO in Poker”

4 temporary-link Od dawna mówimy ludziom, że tymczasowe linki nie mają wartości. A przynajmniej, że nie mają jej w dłuższej perspektywie. Wartościowe linki powinny mieć charakter stały, a przynajmniej istnieć w momencie zliczania ich. Tak uważaliśmy, tak mówiliśmy, ale osobiście nie jestem już pewien, czy to prawda.

Od kilku miesięcy obserwuję pozyskiwanie linków w kilku firmach. Wiele z nich pozyskuje linki w sposób, o którym nie pomyślałbym, że może być skuteczny. Nie podam nazw tych firm, nie jest to zresztą aż tak istotne, przedstawię jednak ich metodę. Zastrzegam przy tym, że nie mam pewności co do skuteczności tych technik dla konkurencyjnych fraz w języku angielskim. Mogę jednak zaświadczyć o ich skuteczności dla średniokonkurencyjnych fraz w mniej popularnych językach.

Pozycjonowana jest witryna, która sama w sobie jest przeciętna, ma dobry TITLE, ale to koniec jej zalet. Linki do niej są pozyskiwane na zasadzie tworzenia najtańszymi metodami treści na darmowych blogach. Owe treści są ledwo powiązane tematycznie z witryną docelową, zresztą w ogóle z mało czym są relewantne, skoro zawierają składające się z 40-50 słów posty ze zdaniami typu “Ojj, ja i mój chłopak naprawdę uwielbiamy usługę Free Music Download, bo słuchamy bardzo dużo muzyki”. Każdy z blogów zapleczowych zawiera posty na wszystkie możliwe tematy, chyba dla każdego klienta były tworzone osobne posty, niezależnie od słów kluczowych i tematyki.

Co się stało, kiedy blogi zniknęły?

Jest ciekawe, że linki tak niskiej jakości poskutkowały i witryna pięła się w SERP-ach. Ale znacznie ciekawsze jest co innego. Pozycjonerzy tworzyli od 100 do 500 takich blogów każdego miesiąca. Powstawały na darmowych platformach blogowych z całego świata (wiele z nich oparto na WordPress MU) i były koszone przez właścicieli tych platform równo z trawą. Średni czas życia tych blogów mieścił się w granicach 20 do 30 dni. Przypominam, że to nie był spam generowany automatycznie. Treści tworzył hurtowo “człowieczy” SEO-copywriter. Te 20-30 dni ledwo wystarczało na zaindeksowanie takiego zapleczowego bloga i skierowanie do niego jakichkolwiek linków. Potem blog przepadał.

Mógłbyś powiedzieć, że ostatecznie witryna w każdym momencie miała od 100 do 500 linków przychodzących – i miałbyś rację. Tyle linków powinno wystarczyć na średnio dobre pozycje dla mniej konkurencyjnych fraz w krajach wielkości Finlandii lub Kostaryki. Czasem jednak dodatkowo zdarzało się, że klienci wypowiadali umowę pozycjonowania przed czasem. Firma pozycjonująca przestawała pozycjonować, zatem wszystkie linki znikały w ciągu 20-30 dni. A tymczasem, kiedy badaliśmy pozycje po 30 dniach, nie było widać żadnych spadków.

Te same pozycje odnotowujemy 5 miesięcy później. 5 miesięcy po zniknięciu wszelkich linków prowadzących do takich witryn, zachowują one swoje pozycje dla średniokonkurencyjnych fraz.

Dlaczego Google honoruje dawno nieistniejące linki?

Pytanie w oczywisty sposób cisnące się teraz na usta brzmi “dlaczego Google na to pozwala?”. Jeśli chodzi o śmieciowe treści, które były używane do tworzenia blogów zapleczowych – nie mam pojęcia dlaczego. Mam za to pomysł dlaczego Google honoruje tymczasowe linki. Spójrz na to z innej strony. Jesteś przykładowo poważanym w środowisku “downloadingowym” blogerem (jak widzicie, nie mogłem się powstrzymać przez pociągnięciem dalej przykładu “ściągającego chłopaka” ze śmieciowego posta, o którym wspominałem powyżej) i wspomniałeś o poświęconym prawom autorskim cyklu artykułów z Guardiana. Jeśli przestaniesz blogować, twoja domena wygaśnie lub zdecydujesz się na przeprowadzkę na inną platformę blogową nie znajac się na przekierowaniach 301: czy twój stary link nie jest wciąż wskazówką, że podlinkowany przez ciebie cykl artykułów z Guardiana jest wciąż wart rekomendacji?

Czy link, który zniknął naprawdę nie powinien być już traktowany jako znaczący, tylko dlatego, że przestał istnieć?

Jesteśmy wciąż pewni, że…

…w dłuższej perspektywie jednak z pewnością spadniesz z wynikach.

[źródło: Temporary Links]

Na koniec: Wskazówka dla zaczynających pozycjonowanie w branży Poker, Gambling…

W swoim życiu byłem na wielu konferencjach poświęconych hazardowi online. Do naszego biura przychodzą liczne magazyny poświęcone hazardowym programom partnerskim. Zarówno te konferencje, jak i magazyny są zwykle wypełnione radami SEO dla początkujących uczestników programów partnerskich. Owe rady są najczęściej strasznie głupie.

Jeśli prowadzisz witrynę z branży poker/casino lub uczestniczysz w programie partnerskim takich witryn i chcesz rozpocząć pozycjonowanie, pozwól powiedzieć sobie coś o konkurencji, która cię czeka. Nie istnieje w internecie branża, w której konkurencja w SERP-ach byłaby ostrzejsza. W tej branży o pozycje walczą najlepsi pozycjonerzy świata.

Moja rada dla początkujących pozycjonerów w branży poker/casino:

Zacznij od pozycjonowania innych branż, ujeżdżanie kucyków, gangi motycyklowe, a nawet ubezpieczenia samochodowe.

[źródło: Beginners guide to SEO in Poker]

Zapraszamy na Search Marketing Day 2012! < –

 

Artykuł Magnus Brath o SEO w branży Casino i Poker… (artykuł i wywiad) pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Po filtrze dla porównywarek: 8 ważnych czynników decydujących o mocy linków!

W ostatnich tygodniach miało miejsce głośne usunięcie z wyników wyszukiwań wielu polskich sklepów i porównywarek cen. Głównym czynnikiem wskazywanym zarówno przez Kaspara Szymanskiego z Google Search Quality Team (Kaspar będzie w Polsce na majowej konferencji SEO Search Marketing Day 2012) jak i same porównywarki w oficjalnych wypowiedziach był tzw. nienaturalny backlink profile tych witryn. Czyli mocne naruszenia wytycznych w zakresie metod zdobywania linków prowadzących do witryny, takich jak korzystanie z automatycznych systemów wymiany linków oraz innych SPAMerskich i łatwo skalowalnych metod pozyskiwania odnośników.


W dzisiejszym artykule wskażemy na jakie elementy w procesie link building należy zwracać szczególną uwagę oraz jak zdobywać poprawne wysoko jakościowe i wiarygodne dla Google odnośniki do naszych stron.

W dużym skrócie tak można podsumować całe zamieszanie: “Linki prowadzące do Twojej witryny świadczą o Tobie i mogą być przyczyną filtra a nawet bana w wyszukiwarce Google”.

Jeśli tak, to czy nie jest to najłatwiejszy sposób na wyeliminowanie konkurencji?

Wraz z karami nałożonymi na polskie porównywarki i sklepy, SEO w Polsce ale także na świecie (kilka miesięcy temu za te same wykroczenia z wyników wyszukiwań został usunięty duży amerykański sklep J.C. Penny) wkroczyło w nowy etap. Od teraz do nowych obowiązków działów marketingu/SEM/SEO należy monitorowanie nowo powstających odnośników do witryny.

Rozpoczynjąc dyskusję nt. linków prowadzących do naszych stron należy sobie zadać pytanie jak możemy sprawdzić, które strony do nas linkują i w jakis sposób? W tym celu działa na rynku kilka narzędzi stworzonych zarówno przez Google jak i zewnętrzne firmy.

Należy pamiętać że komenda link:twojadomena.pl wpisana do Google wskaże nam zaledwie kilka, kilkadziesiąt odnośników i w żadnym stopniu nie jest to miarodajna wartość. Aby dowiedzieć się więcej musimy dodać naszą stronę do Google Webmaster Tools (www.google.pl/webmasters/tools), które jest absolutnie koniecznym i obowiązkowym narzędziem analitycznym SEO dla każdego właściciela strony internetowej, któremu zależy na pozycjach w Google.

W Google Webmaster Tools dostępna jest zakładka:

1 linki do twojej witryny

Po kliknięciu naszym oczom ukaże się rozległa i całkiem precyzyjna lista stron które linkują do naszej witryny:
2 wszystkie domeny
Screen z narzędzia Google Webmaster Tools pokazujący ilość i źródła odnośników prowadzących do domeny SprawnyMarketing.pl

Google Webmaster Tools to także narzędzie w którym przyjdzie nam zgłaszać ewentualne nienaturalne przyrosty linków, które uda nam się zauważyć dzięki narzędziom wymienionym w dalszej kolejności. Pod adresem: https://www.google.com/webmasters/tools/reconsideration?hl=pl możemy także prosić Google o przywrócenie naszej witryny do wyników wyszukiwania. Z tego samego formularza zmuszone były skorzystać na przełomie stycznia i lutego największe polskie porównywarki cen i kilka sklepów. Formularz można wypełniać po polsku, szczerze opisując sytuację i odpowiadając na pytania zawarte w formularzu.

Inne narzędzia do analizy linków prowadzących do witryny

Majestic SEO

Narzędzie dostępne pod adresem http://majesticSEO.com narzędzie brytyjskiego specjalisty Dixona Jones (też będzie w tym roku na Search Marketing Day 2012) posiadające własne roboty indeksujące linki znajdujące się w internecie od ponad 8 lat. W tej chwili jest to największa dostępna baza odnośników, co ciekawe narzędzie pokazuje także historyczne dane o ilości i rodzajach backlinków…

3 majestic seo
Wykres pokazujący ilośc linków prowadzących do trzech zbanowanych ostatnio przez Google porównywarek cen. Dane za okres 5 lat

Open Site Explorer

Kolejne narzędzie znanej amerykańskiej firmy SEOmoz.org dostępne pod adresem www.OpenSiteExplorer.com. Nieco uboższa baza odnośników jest skutecznie rekompensowana przez bardziej rozbudowany element społecznościowy. Ciekawa jest także koncepcja czynników Domain Authority, mozRank, mozTrust – będących odpowiednikami Google’owego wskaźnika Page Rank i pochodnych.
4 seomoz porownywarki
Screen z narzędzia porównujący trzy domeny pod względem parametrów SEO

Cognitive SEO

CognitiveSEO integracja z innymi narzędziami
Cognitive SEO zasysa po API dane z obu wyżej wymienionych narzędzi a także z ahrefs, niemieckiego SEOkicks oraz pobiera linki z wyszukiwarki blekko. Następnie dokonuje bardzo szczegółowej analizy znalezionych linków prowadzących do naszych stron prezentując nam na przejżystych wykresach statystyki:

  • monitoruje jaki % linków znika
  • w jakim miejscu znajdują się linki (położenie na stronie: stopka, site bar, top)
  • z jakich stron linki pochodzą,
  • czy są to linki graficzne (jaki mają tekst alternatywny)
  • jakie mają teksty zaktwiczenia (anchor text)
  • jaki maja PR domeny główne
  • .itp.

Podstawowa wersja narzędzia kosztuje 19$ miesięcznie, zobacz szczegółowy rozpis funkcjonalności.

Nowe czynniki decydujące o mocy linków SEO

Gdy wiemy już jak monitorować i sprawdzać linki prowadzące do witryny czas pomyśleć nad formami i metodami pozyskiwania nowych odnośników. Zanim jednak odpowiemy sobie na pytanie skąd i jak pozyskiwać linki musimy zwrócić jeszcze uwagę na parametry powodujące że pozyskane linki będa miały swoją moc w oczach Google.

  1. Autorytet domeny linkującej

    Pozyskuj linki z dużych wiarygodnych witryn, portali, stron uczelnianych, rządowych i innych stron powszechnie rozpoznawalnych. Domain Authority czyli autorytet witryny można łatwo sprawdzić m.in. we wcześniej wymienionym narzędziu Open Site Explorer, wyrażony jest w zakresie od 0 do 100.

  2. Zdobywaj linki z nowych stron i domen

    Link z zupełnie nowej domeny z której dotychczas nie miałeś odnośnika jest znacznie więcej warty niż kolejny link z domeny na której masz już swoje linki.

  3. Pamiętaj o zasadzie First Link Count

    Jeśli linkujesz do adresu www.strona.pl to pierwszy linki z góry znajdujący się w kodzie strony będzie uwzględniony i policzony przez algorytm. Kolejne linki w tym samym dokumencie/podstronie linkujące do adresu www.strona.pl nie bedą już zliczane przez Google Bota.

  4. Położenia linka w kodzie strony

    Linki położone wyżej w kodzie HTML mają większy wpływ na pozycje strony. Jest związane prawdopodobieństwem że dany link zostanie kliknięty przez użytkownika.

  5. SEO PR

    Prowadząc działania Public Relations zwracaj uwagę na umieszczanie linków w notkach prasowych pamiętając o zasadzie First Link Count czyli z jednej notki prasowej jeden link do danej podstrony. Pozostałe miejsce na linki wykorzstaj do podlinkowania innych podstron lub domen.

  6. Social Media

    Bądź aktywny w social mediach: Google+, Facebook.com, Twitter.com itp. to tzw. czynnik społecznościowy, który ma coraz większy wpływ na wyniki wyszukiwań. Wskazane jest umieszczenie na swoich stronach przycisku +1 (http://www.google.com/intl/pl/+1/button/) oraz założenia konta firmowego w serwisie Google+ (https://plus.google.com/pages/create)

  7. Różnicowanie Anchor Text

    Długość linków i różnicowanie tekstu zakotwiczenia czyli tekst będący klikalną częścią linka np.: “kliknij tutaj” jest tekstem zakotwiczenia (Anchor Text). Jeśli chcesz być wysoko w Google na frazę: “Wczasy egipt” linkuj do swojej strony właśnie tym słowem kluczowym.

    Pamiętaj jednak o różnicowaniu tekstu zakotwiczenia. Szczególnie w ostatnich tygodniach jest to coraz ważniejsze, nadużywanie tego czynnika rankingowego może się skończyć filtrem na domenie. Poniżej przykładowy poprawny i naturalny rozkład tekstów zakotwiczenia:

    5 tabelka zawartosc anchor tekstu

  8. Linki nofollow też pozytywnie wpływają na pozycje strony

    Mimo ze linki nofollow nie przenoszą Page Rank to cały czas przekazują stronie linkowanej tzw. TrustRank i wcześniej wymieniane Domain Authority. Komentarze np. na blogach są zatem cały czas wartościowym źródłem linków.

Powyższe wskazówki są na tyle uniwersalne że śmiało mogą być stosowane przez każdą stronę, której zależy na wysokich pozycjach w
Google. Na koniec warto dodać że wspominane w artykule porównywarki cen wróciły już do wyników wyszukiwań! O małą analizę postarał się ostatnio Cezary Glijer oraz Lexy w artykule: Linki przychodzące szkodzą.

Powyższy artykuł pierwtonie został opublikowany na łamach marcowego wydania gazety Marketing w Praktyce.
Grafika z nagłówka pochodzi z witryny eKomandosi.pl.

Artykuł Po filtrze dla porównywarek: 8 ważnych czynników decydujących o mocy linków! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Jak zdobyć link ze strony rządowej gov.pl?!

SEO Pro: Link Building zbliża sie wielkimi krokrami, zainteresowanie tym szkoleniem trochę nas zaskoczyło i w tym tygodniu pewnie zamkniemy rejestrację. Nadszedł jednak czas aby powiedzieć nieco więcej o formie w jakiej będzie się to szkolenie odbywało oraz pokazać próbkę zawartości merytorycznej tego szkolenia. W opisie i na bannerach podajemy informacje iż łącznie przekażemy 7896 miejsc na nowe linki. W praktyce konkretnych adresów URL będzie znacznie więcej, na szkoleniu robimy także gruntowaną analizę kilkunastu tysięcu katalogów stron (także zagraniczncych), których nie wliczamy we wspomniane podsumowania statystyczne.

W dzisiejszym wpisie chciałem wam pokazać link jaki udało się nam zdobyć z serwisu rządowego pod adresem http://www.eksporter.gov.pl.

Parametry domeny:

  • Page Authority (PA) 68
  • mozRank (mR) 5.72
  • mozTrust (mT) 6.16
  • ACRank: 8
  • Linki OSE: 52,501
  • Linki Majestic: 258,130 linków z 789 domen

Co ciekawe nawet komenda link: w Google zwraca 197 linków! W tym sporo linków z zagranicznych domen. Musicie zatem przyznać że domena prezentuje się całkiem solidnie, do tego URL gov.pl, jakże rzadki w backlink profile naszych witryn.

Do momentu publikacji tego artykułu poniższa podstrona nie była zaindeksowana: http://www.eksporter.gov.pl/Przedsiebiorstwo/Prezentacja.aspx?Id=12244
Robimy zatem mały test indeksacji, zobaczymy ile czasu zabierze Google zaindeksowanie podstrony i przy okazji sprawdzimy siłe i TrustRank Sprawnego Marketingu :)

 

Jak zdobyć link dofollow ze strony rządowej gov.pl?

    1. Pierwszy krok to rejstracja konta pod adresem:

http://www.eksporter.gov.pl/Uzytkownik/DodajUzytkownik.aspx

Wypełniamy formularz:
rejestracja konta eksporter gov pl

 

 

 

 

 

 

 

    1. Po kilku dniach dostajemy większy dokument, ktory należy wypełnić, dodać adres strony (w tym przypadku http://kabinysanitarne.pl) podpisać i odesłać:

dokument zgloszenia do eksporter gov

 

 

 

 

 

 

 

 

 

    1. Czekamy na sprawdzenie zgłoszenia i aktywację profilu

 

    1. Po około 2-3 tygodniach naszym oczom ukazuje się piękny link, bez anchora co moim zdaniem wygląda naturalniej i poprawia TR linkowanej domeny

link-ze-strony-rzadowej-gov-pl

 

 

 

 

 

Ostatnie zadanie, które stoi przed nami to zaindeksowanie linka, czyli podsunięcie go Google pod nos… Jak pokazuje nasz wcześniejszy przyklad nie jest to takie łatwie. Oferty poszczególnych firm nie są w żaden sposób linkowane wewnętrznie zatem musimy ten link zaindeksować linkując do podstrony oferty z zewnątrz.

Więcej tego typu przykładów przedstawimy na szkoleniu SEO Pro, podobnych case’ów jest około 100 i to głównie z polskich domen!

P.S. Jeśli ktoś z was obawia sie ze teraz strona eksporter.gov.pl zostanie zasypana spamem to warto pamietać że wszystkie dane są ręcznie moderowane przez pracowników ministerstwa i generalnie nie ma większych obaw że przejdą mało wartościowe strony.

P.S.S. Jak to powiedział kiedyś Bartek Damek nt. linków TR ze stron .pl:

“I o takie linki właśnie nam chodzi. Jeden taki link jest wart 100 marnej jakości.”

 

Atakowanie stron internetowych w celach SEO?!

Na koniec chciałem zwrócić waszą uwagę na jeszcze jedno szkolenie, które wydaje się że przeszło zupełnie bez echa. Szkolenie jest tylko dla 10 osób, prowadzi je Piotrek Konieczny z dobrze znanego Niebezpiecznik.pl a w trakcie szkolenia przedstawione zostaną m.in. hardcorowe metody pozyskiwania linków! Jeśli myslisz ze stosując xRumera kwalifikujesz się do grona Black Hat SEO to na tym szkoleniu dowiesz się że jesteś małym pikuśem.

Jest to jedyne na polskim rynku szkolenie SEO przygotowane z myślą o zaawansowanych technicznie pozycjonerach! Zapoznaj się z programem.

 


 Share

Artykuł Jak zdobyć link ze strony rządowej gov.pl?! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Konferencja i wydarzenia SEO/SEM w 2012 roku!

Nadchodzący rok będzie bogaty nie tylko w imprezy sportowe (EURO 2012), ale także w imprezy SEO i PPC przygotowane przez MaxROY.com. Planujemy aż 3 duże wydarzenia szkoleniowe! Wczesną wiosną tydzień szkoleń dla branży e-commerce. Późną wiosną do Poznania na Search Marketing Day zjadą największe sławy światowego search i affiliate marketingu. Natomiast jesienią w Warszawie tradycyjnie Search Marketing Week, tydzień szkoleń z marketingu internetowego. W trakcie roku odbywać się będą także szkolenia z Google AdWords.

12-16 marca 2012 – Poznań – Search Marketing Week for e-commerce

Najbliższy Search Marketing Week, będzie rozszerzony o moduły dla branży e-commerce, w dniach 12-16 marca w Poznaniu. Szkolenia z…

  • SEO i Pozycjonowania,
  • E-mail marketingu
  • Usability
  • Google AdWords

…będą rozbudowane o moduł e-commerce i dostosowane do potrzeb branży handlu internetowego. Poza tym do wyboru będą także szkolenia:

  • Google AdWords zaawansowane,
  • Google Analytics i Website Optimizer,
  • Social media = Facebook Ads + Facebook marketing.
  • Szkolenie SEO PRO: Link Building

Co ważne w marcu odbędzie się także druga edycja szkolenia SEO Pro: Link Building! Na którym pokażemy kilkadziesiąt praktycznych metod i narzędzi pozyskiwania linków do stron! Szkolenie zaaktualizowane o najnowszą wiedzę i z jeszcze większą ilością miejsc na linki!

W ramach Marcowego tygodnia szkoleń w Poznaniu przeprowadzimy jedno szczególne, zupełnie nowe szkolenie skierowane do osób, które interesują się tworzeniem aplikacji mobilnych na system Android!. Po więcej szczegółów zapraszamy na stronę szkolenia Android.

22-23 maja 2012 – Poznań – Search Marketing Day

Search Marketing Day międzynarodowa konferencja SEO w Poznaniu, gromadząca światową czołówkę ekspertów SEM. (Po sukcesie pierwszej edycji), szybko wzięliśmy się za przygotowania do kolejnej. Dzięki temu już teraz, na pół roku przed wydarzeniem, mamy dograną listę prelegentów!

Koniecznie zobacz relację video:

Przypomnijmy także przemowe, która dla uczestników konferencji przygotował sam Matt Cutts:

Za video jeszcze raz bardzo mocno dziękujemy Kasparowi, który będąc w stałym kontakcie z Mattem mocno lobbował na jego osobistą wizytę, może zatem w tym roku sie uda? – śmiało dodawajcie +1 :)

Tegoroczna nowość polega na uruchomieniu drugiej ścieżki tematycznej poza SEO będziemy także rozmawiać o SEM, PPC oraz Afillate Marketing. O Search Marketing Day mówimy, że to konferencja zagraniczna, ale w Polsce. Zagraniczna swoimi prelegentami (m.in. Martin MacDonland, Dixon Jones z Majestic SEO, Kaspar Szymanski z Google i inni), urodą miejsca, rozmachem organizacji, językami które usłyszysz w kuluarach. Jest zagraniczna, ale w Polsce (Poznań, Stary Browar), za polską cenę i z symultanicznym tłumaczeniem. Cena bardzo atrakcyjna w porównaniu do konferencji SMX czy SES, natomiast jakość merytoryczna co najmniej podobna, o ile nie wyższa.

Prezentacje ułożymy w dwie ścieżki tematcznye: SEO i PPC. Od teraz co kilka tygodni bedziemy informowali o nowych prelegentach, zarówno z sesji SEO jak i PPC & Affilate Marketing, przybliżali ich sylwetki i tematy prezentacji. Na Sprawnym Marketingu ukaże się także kilka tekstów przygotowanych przez zagranicznych prelegentów.

Na tą chwilę na ścieżkę SEO mamy już potwierdzenia od 11 światowej klasy specjalistów! Część z zaproszonych prelgentów na codzień unika konferencji dotrze do nas m.in. dwóch prelegentów ze światowej czołówki branży: Casino, Gambling. Oczywiście na Search Marketing Day będzie z nami także Kaspar Szymanski.

W tym roku znacznie szerzej otwieramy się na uczestników z zachodu i jak wschodu Europy, autostrada do Berlina i szybko rosnąca ilość połoczeń lotniczych z Poznaniem powoduje że chcemy aby konferencja była jeszcze bardziej międzynarodowa! Wiadomości o polskiej konferencji rozchodzą się po świecie, ostatnio podczas SMX Stockholm mile zaskoczyła nas wzmianka o Serach Marketing Day w prezentacji Martina MacDonalda:

Drugi dzień Search Marketing Day – 16 maja – to szkolenia warsztatowe:

  • Szkolenie SEO Black Hat
  • Warsztaty SEO dla Agencji interaktywnych: Jak tworzyć strony www które rozumie Google
  • Zupełnie nowe szkolenie z zakresu reklamy płatnej, PPC i Google AdWords

15-18 listopada 2012 – Warszawa – Search Marketing Week

Po koniec roku uruchamiamy ostatni w 2012 tydzień renomowanego wydarzenia szkoleniowego. Przez Przez 5 dni, między 15 i 18 listopada, w biurowcu Rondo One w centrum Warszawy 11 specjalistów nauczać będzie o użytecznych technikach analityki internetowej, email marketingu i mediów społecznościowych, ale przede wszystkim – pozycjonowania i Google AdWords.

Jednocześnie w trakcie roku odbywać się będą szkolenia z Google AdWords: podstawowe i zaawansowane. Terminy najbliższych szkoleń będziemy ogłaszać na stronie www.SprawnyMarketing.pl/szkolenia. Najbliższe na przełomie Styczeń, Luty w Poznaniu!

Zapraszamy do rejestracji.

Artykuł Konferencja i wydarzenia SEO/SEM w 2012 roku! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Historia polskiej branży SEO! :D

W ostatnim artykule napisałem: “Czas leci do przodu, zmienia się Google, zmienia się SEO”, jedno jednak się nie zmienia… polska branża SEO skupiona wokół forum PiO! W dzisiejszym artykule przypomnimy szerszemu gronu czytelników kilka istotnych osób, które kiedyś brylowały w dyskusjach “Pozycjonowanie i Optymalizacja”, pokażemy także kilka zapomnianych i już nie istniejących blogów a także z rozżewnieniem powspominamy pierwsze spotkania SEO… zapraszam do wnikliwej lektury historii polskiej branży SEO! :D

Podczas ostatniego zamieszania na Forum PiO uświadomiłem sobie jak długo siedze juz w tej branży oraz jak wielu nowych uczestników rynku SEO nie ma pojęcia kim był Szook lub Paweł Kobis. Zrozumiałem także ile osób, które kiedyś były kimś teraz są anonimowe… sprzedają lody lub siedzą w więzieniu. Czas wszystko weryfikuje… odsiewa pieniaczy a nieokrzesane pokemnony dojrzewając przepoczwarzają się w poczytynych ekspertów i moderatorów dyskusji. Czasami warto sięgnąc pamięcią wstecz, tak dla samego siebie, żeby nie zapomnieć… :)

Spotkania SEO

Menel Party - seo party 2007 Odkąd pamiętam jednymi z bardziej emocjonujących momentów na forum były spotkania SEO. Najczęściej spotkania sprowadzały się do picia piwa i siedzenia w knajpie. Sporadycznie zdarzało się nam pograć w piłkę (piłkę z podpisami śmietanki ze spotkania 2k7 wylicytował Bartek Berliśnki i do dzisiaj wala się po biurze ;) ) co momentalnie pokazywało jak dużo czasu większa część społeczności spędza tylko przed monitorem :).
Co by jednak nie mówić o spotkaniach SEO to miały one swoją wartość, (wbrew temu co sądził wujek wnyk (SEO zlot) i zly sir nimek (Spotkanie w Warszawie), którego nigdy nie chcieli wpuścic ;)) ja w ten sposób poznałem m.in. swoich wspólników a proces ten opisałem już nieco dokładniej na swojej stronie.

W 2007 roku odbyło się pierwsze większe spotkanie w Dzierżąznej pod Łodzią organizowanie przez Szook’a, Xann’a i braci Makaruków spotkanie SEO 2k7 (strona spotkania) lub jak kto woli Menel Party 3k2 LOL! ;D. Do Dzierżaznej zjechało sie dwadzieścia kilka osób, w większości dobrze znanych z forum, a pozostałością po tym evencie jest film ze spotkania SEO Party 2k7 z kilkoma pytaniami do takich SEO jak: Jeż, Adek, mKane, Jimmi, Sobiesiu, Michał Makaruk, Bartek Danowski, AQQry. Tomek Frontczak w roli przepytującego a ja w roli operatora kamery. Zachęcam do oglądnięcia, Tomek prosił żeby wogóle o tym nie przypominać, generalnie chłopaki wyglądają młodo ;).

Blogi z kategori SEO Humor :)

seo pokemony by google W poprzednim akapicie podlinkowałem już dwa “ciekawe blogi SEO” czas zatem przypomnieć sobie twórczość pozostałych: troli, nimków, pokemonów, wujków, kebabów itp. samozwańczych SEO poetów:

Jeśli ktoś nie rozumie aktualnych dyskusji na PiO to zapewniam że dogłębna lektura powyższych blogów pozowli mu skojarzyć sporo faktów. W tych blogach wiele informacji jest przekazanych między wierszami, jeśli jednak przestawimy sie na abstrakcyjne myślenie autorów to zapewniam że pozytywny uśmiech wkrótce zagości na Twojej twarzy :).

Ludzie polskiej branży SEO

Michał Makaruk – Założyciel Forum PiO, zna wszystkich istotnych w branży, można powiedzieć że od początku w polskim SEO, prowadzi często aktualizowanego bloga o seo… ;)

Kuba Makaruk – Brat Michała, którego chyba zawsze bardziej fascynowała ta ciemna strona mocy :)

Bartek Kordynski – Założył jedne z pierwszych systemów wymiany linków – linkuj.pl oraz linkujpro.pl, które swego czasu były znaczącymi graczami na rynku swli.

Piotr Połomski “Piotrek” – Założyciel Otwartego Katalogu Internetowego webwweb.pl

Kill Bill – Znany i lubiany aktualnie działa w branży porno, kiedyś prowadził prześmiewczego bloga o branży SEO, teraz mozemy się tylko zastanawiać gdzie jest Kill Bill… warto też rzucić okiem na wywiad z kill billem :D

Erbit – Swego czasu bardzo aktywny na PiO, następnie zupełnie się wycofał by teraz powrócić i przypomnieć się młodzieży.

Beerbant – Krzysztof Ziókowski – bardzo często głos rozsądku zarówno na PiO jak i w dyskusjach na GoldenLine.

Xann – Tomasz Wieliczko – Właściciel e-weblinka, od wielu lat nieustannie bardzo aktywny, [edycja]

Jeż – Swego czasu uruchomił seodopalacz.pl, ostatnio z pasją rozwija i promuje faceplus.pl, prowadził także blog.jeza.pl, mocny w branży Zdrowie, Uroda.

nrm – Mirosław Okoński – Organizator Spodek 2.0 oraz autor bloga http://normanos.com/, ten wycelowany pistolet zawsze mnie troche przerażał… ;)

Adek – Adrian Kłos – założył system statlink.pl, pierwszy system linków statycznych z mocną moderacją.

SirNimekTego bloga nie prowadził Sir Nimek ale powstał on w konsekwencji zachowania Sir Nimka na PiO, który udzielał się w praktycznie każdym wątku, czasami w najgłupszych tematach byle tylko nabijać sobie licznik postów ;). Bloga uważam z jednego z najlepszych w kategorii “SEO humor” :D

Szook – organizator SEO party 2k7, znany głównie z akcji donoszenia i wysyłania spam raportów do Google i Onet, ostatnio sprzedawał domene szook.pl zatem najpradopodobniej już na SEO emeryturze.

Paweł Kobis, Anioł – założyciel systemu linkorn.pl, firmy AtiBit i Work Elite. Swego czasu prowadził bloga topseo.pl. Niektórzy uważaja że jest to aktualny Piotr Kiper :)

Piotr Kiper – Koyotek_OX – Twórca dodawarki do katalogów OmniiAdd, założyciel HackSEO.pl a ostatnio prowadzi także bloga, który podobno jest przyczyną ostatnich nieszczęść ;). Ostatnia afera została już streszczona a tutaj wydaje się że została umieszczona odpowiedź Piotra.

Inne ważne osoby z branży…

Intruder 2600, szy, MMP, vel, Kava, mKane, Lexy, Noone, zero3, Yeden, zerocool, pneuma, Kaspar Szymanski, it_management, shpyo, zgred, itd.

Wybaczcie że o niektórych nawet nie wspomniałem… o części userów PiO ciężko mi było cokolwiek napisać bo zwyczjanie nie znam ich osobiście lub nie znam ich dokonań. Poza tym myślę że jest w polskiej branży wielu SEO wymiataczy, którzy nigdy się nie ujawnili publicznie. Mam też wrażenie że pominąłem kilka blogów z kategorii “SEO humor” przpomnijcie mi proszę w komentarzach :)
Na koniec polecam także SEO komiks w wykonaniu starej gwardi.

Kto jest kim…?
Myślę że każde kłamstwo ma krótkie nogi a cała prawda prędzej czy później wyjdzie na jaw!

Artykuł Historia polskiej branży SEO! :D pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Link Bulding – różnicowanie parametrów linków

W ostatnim artykule na Sprawny Marketing pt. “Linki do naszej strony – czy nofollow jest coś warte?” Piotr Kiper zwrócił uwagę “że posiadanie 100% linków dofollow do strony może zostać odebrane przez algorytm Google jako próba manipulacji wynikami i tym samym doprowadzić do obniżenia strony w rankingu” w dzisiejszym artykule, odniosę się (po długiej przerwie) do kwestii naturalności linków (backlink profile) prowadzących do naszej strony.

Podczas czerwcowego Search Marketing Day, Ravzan Gavrilas zaprezentował narzędzie Cognitive SEO, którego wszystkie funkcjonalności sprowadzają się do analizy dziesiątek parametrów dotyczących tylko i wyłącznie linków prowadzących do witryny! To narzędzie pozwala nam bardzo z bardzo dużym prawdopodobienstwem określić czy nasz backlink profile wygląda naturalnie czy nie, zachęcam do testowania… wkrótce możecie liczyć na szerszy opis tego narzędzia na Sprawnym.

Większość branży SEO zapewne pamięta powtarzane jak mantra: Różnicuj anchor text!
Czas leci do przodu, zmienia się Google, zmienia się SEO.
Jednak najważniejsza zasada Link Buidlingu: Różnorodność! Pozostaje niezmienna…

Na co zwracać uwagę pozyskując linki?

  • IP
  • DNS
  • Whois
  • Rejestrant
  • Skrypt zaplecza

…to kilka pierwszych i podstawowych elementów o których większość twórców prywatnych sieci blogów, precli lub sieci katalogów zdaje się zapomniała! Robiłem ostatnio większy przegląd rynku i niestety sytuacje podsumować można krótko: tworzone sieci są słabe, skupiają się na ilości domen, prędzej czy później każdy właściciel ulega i zaczyna dodawać co popadnie na niskiej jakości tekstach. Nie wspominając o wątku TR linków z tych stron. Zachęcam do sprawdzenia ogólno dostępnych sieci pod kątem pięciu powyższych czynników i przy okazji lekturę artykułu: Detecting undetectble link networks.

Link Building = Różnorodność

Podobnie mało naturalnie wygląda sytuacja kiedy za bardzo skupiamy się na jednym skalowalnym i łatwym źródle linków… jak np. katalogi, precle, profile z for lub linki z SWLa i gdy ilość linków z jednego źródła wyraźnie dominuje w baclink profile strony! Zastanówcie się ile z pozycjonowanych przez was stron ma obiektywnie ponad 50% linków z katalogów? Narzędzia takie jak omniiAdd, Adder czy SWLe znacząco ułatwiają budowanie linków i to jest jedna z przyczyn dla których na forach pojawiają się wątki w stylu “dodałem kilkasetlinków a strona ani drgnęła” czasami mamy do czynienia ze skrajnymi sytuacjami kiedy usunięcie znacznej części linków (np. z SWLa) powoduje wzrost pozycji strony!

Budując dobry, naturalny backlink profile witryny zdobywaj także takie linki jak:

  • linki site wide oraz pojedyńcze linki z domeny
  • linki ze strony głównej oraz z głębokich podstron
  • link z grafiki oraz link z dokładnym anchor tekstem
  • linki z dłuższym wielowyrazowym anchor tekstem – Long Anchor Text Link Building
  • linki z plików .pdf, .doc, .csv itp.
  • link z podstrony do podstrony
  • link ze stron o wysokim oraz bardzo niskim PageRank
  • linki z blogów, katalogów, z profili, precli, z notek Public Relations
  • linki ze stron polskich oraz zagranicznych
  • linki ze stron o wysokim oraz niskim Trust Rank
  • linki ze stopki, z tresci artykułu, z sidebaru, z menu/topu strony
  • linki z różnego rodzaju skryptów, (WordPress, Drupal, Joomla, itp. mniejsze CMSy i autorskie skrypty)
  • linki dofollow oraz… także linki nofollow!

Pamiętaj, szczególnie w świetle ostatniego artykułu Piotra – każdy link się liczy!


Po więcej zapraszamy na szkolenie SEO PRO: Link Buidilng podczas Search Marketing Week już 14 Listopada 2011!

Polecam także lekturę artykułu: Jak google rozpoznaje spamerksie linki… oraz odsyłam do mojej prezentacji z SilesiaSEM pt.:“Nowe czynniki decydujące o mocy linków SEO”:

Grafika pochodzi z whollysblog.com

Artykuł Link Bulding – różnicowanie parametrów linków pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Przed Search Marketing Day: wywiad z Kasparem Szymańskim z Google

Cezary Lech: Kaspar, ostatnio coraz częściej można zobaczyć Twoje nazwisko na międzynarodowych konferencjach, czy stajesz się europejskim Mattem Cuttsem :)?

Kaspar Szymanski: Cieszę się, że moje wysiłki w zakresie docierania na konferencje webmasterskie są docenianie. Osobiście uważam też, że Matt robi świetną robotę, będąc tak aktywnym w kontaktach z webmasterami. Chcemy po prostu dotrzeć z dobrymi praktykami do możliwie szerokiego grona osób. To dlatego tyle wysiłku wkładamy w Google w odpowiadanie na pytania pojawiające się na przeróżnych konferencjach, odbywających się w różnych miejscach świata i prowadzonych w różnych językach. Jeśli dzięki temu pomagamy choć części webmasterów w poprawianiu ich witryn, nasza praca ma sens.

CL: Drugiego dnia konferencji odbędą się warsztaty z narzędzi SEO, będą tam omawiane także narzędzia powszechnie kojarzone z Black Hat. Moim zdaniem każde narzędzie może być użyte zarówno w dobrych jak i złych celach. Jakie jest Twoje zdanie w tej kwestii?

KS: Nie znam żadnego z narzędzi, do których się odnosisz, ale sztuczne mnożenie linków w zautomatyzowany sposób raczej nie może być uznane za zgodne ze Wskazówkami dla webmasterów. Kolejne nowe pomysły branży są dla nas zawsze ciekawe, niemniej mocno odradzamy stosowania jakichkolwiek technik black hat. Zdobywane w ten sposób linki mają w google’owym grafie bardzo krótkie życie, w mojej więc opinii ich pozyskiwanie jest stratą czasu, który można by wykorzystać na ulepszenie witryny, z pożytkiem dla internautów.

Jaki jest Twój ulubiony mit SEO? Mnie ostatnio zadziwiła wypowiedz jednego ze “speców SEO” jakoby linkowanie do innych stron miałoby obniżać pozycje strony linkującej. Co myślisz o tego typu mitach? Jak Google z nimi ma zamiar walczyć? I jaki jest Twoim zdaniem najbardziej niebezpieczny mit funkcjonujący w branży SEO?

Dobre pytanie! Najgorszy jest chyba ten o wpływie kampanii AdWords na pozycje organiczne. Zaprzeczam temu praktycznie na każdej konferencji. Cieszymy się z każdego klienta systemu AdWords, ale jeśli taki klient zostanie złapany na spamowaniu indeksu Google, zostanie potraktowany identycznie, jak każdy inny. Nie ma podwójnych standardów.

Jaki jest Twoim zdaniem najgorętszy na ten moment temat w SEO?

Wskazałbym na najlepiej widoczną z tegorocznych aktualizacji algorytmu, znaną pod nazwą Panda. Nie wszędzie na świecie widać już wpływ Pandy, ale i tak warto stosować się do ogólnych zasad opisanych na naszym blogu. Jeśli zatem masz obawy, że jakość treści na twojej witrynie nie trzyma standardów, mocno sugeruję rozwiązanie tego problemu najszybciej, jak to możliwe. Nie tylko z powodu algorytmu, ale także z uwagi na twoich użytkowników.

Na Search Marketing Day będziesz brał udział przede wszystkim w panelu dyskusyjnym, podobno szykujesz jakąś niespodziankę… :)

Moim głównym celem jest pomaganie webmasterom w zrozumieniu Wskazówek, a nie ogłaszanie czegokolwiek. Liczę natomiast, że na panelu padną zaskakujące i ciekawe pytania :).

Search Marketing Day odbędzie się tydzień po SMX Advanced w Seattle, czy możemy się spodziewać równie ciekawych rewelacji w stylu “nofollow nie działa”? :)

Poczekamy, zobaczymy :).

Uzupełnienie Cezarego Lecha:

Niespodzianką, o którą pytałem, a o której Kaspar nie powiedział jest video “Matt Cutts z odezwą do polskiej branży SEO” – premiera 15 czerwca na Search Marketing Day w Poznaniu.

Śledź Kaspara na Twitterze i LinkedIn.

Artykuł Przed Search Marketing Day: wywiad z Kasparem Szymańskim z Google pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Poznań, 15 Czerwca 2011 – Search Marketing Day – Międzynarodowa konferencja SEM!

Search Marketing Day czyli pierwsza międzynarodowa konferencja SEM w Polsce! Tylko zagraniczni prelegenci! 15 Czerwca 2011, Poznań, centrum kulturalno-handlowe Stary Browar – Multikino. Na konferencję jest zaledwie 205 wejściówek, taka jest pojemność największej sali kinowej w Multikinie. Informację o prelegentach będziemy publikowali stopniowo, na tą chwilę mamy potwierdzone już kilka gwiazd branży SEM światowego formatu!

  • Rand Fishkin – Streaming Online (cały czas namawiamy Randa na osobistą wizytę)
  • Marcus Tandler
  • Simon Sundén
  • Mikkel deMib Svendsen
  • Kaspar Szymanski
  • Tadeusz Szewczyk

…to tylko kilka z potwierdzonych już osobistości. W najbliższych tygodniach na łamach Sprawnego Marketingu będziemy przybliżali wam sylwetki poszczególnych ekspertów, których będziemy gościć w Poznaniu.

Cena wejściówki rośnie stopniowo wraz z każdą kolejną opłaconą rejestracja, podkreślam opłaconą! Puste rejestracje są usuwane automatycznie po 7 dniach roboczych. Na dzień dzisiejszy cena wynosi 977 zł i w tej cenie jest pierwsze 20 wejściówek! Rejestracja odbywa się na stronie: SearchMarketingDay.com (wersja angielska) i SearchMarketingDay.com/pl (wersja polska).

Na konferencję Search Marketing Day nie będzie żadnych kuponów rabatowych oraz darmowych wejściówek! Ilość miejsc jest bardzo ograniczona a promocja eventu będzie prowadzona także w krajach ościennych. Wykłady i prezentacje będą prowadzone w języku angielskim z tłumaczeniem symultanicznym na polski.

Drugiego dnia konferencji odbędą się warsztaty z kilku tematów powiązanych z SEM, być może część z nich będzie przeprowadzona przez naszych zagranicznych prelegentów. Więcej szczegółów wkrótce na Sprawnym Marketingu.

W okolicy miejsca konferencji znajdują się trzy wysokiej klasy hotele w tym jeden szczególnie wyjątkowy, pięcio gwiazdkowy ekskluzywny hotel klasy butique BlowUpHall 5050 w tym hotelu będą przez kilka dni mieszkali wszyscy prelegenci Search Marketing Day. Dla managerów i kadry zarządzającej przygotowaliśmy Pakiet Premium obejmujący:

  • transfer do Hotelu
  • udział w konferencji – z możliwością wyboru miejsc na sali
  • nocleg w BlowUp Hall,
  • integracje z prelegentami,
  • udział w obiadach i kolacjach,
  • open bar podczas after party,

Więcej szczegółów na stronie Search Marketing Day.

Wieczorem po konferencji 15 Czerwca planujemy imprezę integracyjną w klubie SQ, zlokalizowanym na terenie kompleksu. Ze Starego Browaru jest bardzo blisko na Stary Rynek gdzie tętni poznańskie życie nocne… zatem generalnie sugerujemy aby trzymać się blisko miejsca konferencji.

Wkrótce wystartujemy z pakietami promocyjnymi dla sponsorów, osoby zainteresowane prosimy o kontakt pod adresem: konferencja@maxroy.com. Do współpracy zapraszamy także inne agencje, blogi i portale branżowe im wcześniej wyrazisz chęć współpracy tym lepiesze warunki jesteśmy w stanie zaproponować.

Przypominamy że Search Marketing Day odbędzie się w Poznaniu, który ma sporo dogodnych połączeń, także lotniczych z resztą kraju. Wczesna rezerwacja zapewne pomoże obniżyć koszty podróży i noclegu. W dniach 15-16 Czerwca odbywają się w Poznaniu duże targi, prosimy zatem o szybką rejestrację i rezerwację miejsc w hotelach.

Nie może Cie zabraknąć! Zarezerwuj swoje miejsce na: -> SearchMarketingDay.com < –

PS W dniach 21-26 Listopada 2011 w Warszawie odbędzie się kolejna edycja Search Marketing Week czyli tygodnia szkoleń z marketingu internetowego. Dla osób szczególnie zainteresowanych tematyką SEO przygotowaliśmy specjalny pakiet zawierający:

  • 15 Czerwiec – 997 netto – Udział w konferencji Search Marketing Day
  • 16 Czerwiec – 1497 netto – Udział w warsztatach SEO
  • 24 Listopda – 2997 netto – Szkolenie SEO Proffesional podczas Search Marketing Week

Jeśli jesteś zainteresowany pakietem SEO na 2011 rok napisz do nas na: konferencje@maxroy.com

PPS Jutro razem z Tomkiem Frontczakiem wybieramy się do Londynu na Link Building Seminar organizowane przez SEOmoz i Distilled aby ustalić ostatnie szczegóły z prelegentami. Bartek Berliński właśnie wrócił z SMX w Palto Alto gdzie też szukał ciekawych prelegentów i wartościowych prezentacji.

PPPS Zwracam waszą uwagę na datę konferencji 15 Czerwiec – wielu z prelegentów będzie świeżo po SMX Advenced w Seatlle, czyli największej zachodniej konferencji na której co roku wycieka masa informacji zarówno od Google jaki i innych firm z branży (ostatnim razem Matt Cutts ogłosił że Nofollow już nie działa!) – Search Marketing Day będzie zatem dobrym momentem dla naszych prelegentów na podsumowania a także przedstawienie swoich przemyśleń po SMX.

Jeszcze raz zapraszamy na Search Marketing Day, będzie to największe wydarzenie polskiej branży SEM w 2011 roku i ostatni duży event w Europie przed wakacjami!

Artykuł Poznań, 15 Czerwca 2011 – Search Marketing Day – Międzynarodowa konferencja SEM! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Szkolenie z pozycjonowania SEO Professional, czyli skoncentrowana dawka wiedzy SEO!

Podczas drugiej edycji Search Marketing Week przeprowadzimy dwa szkolenia z SEO i pozycjonowania. Do wyboru: Szkolenie z pozycjonowaniaSzkolenie SEO Professional przygotowane od podstaw oparte o nowe, świeże Case Study prowadzone przez rozszerzone grono już pięciu specjalistów SEO. Zapraszam do obejrzenia filmu:

 

O czym powiemy:

Cezary Lech

  • 21 Nowych i świeżych metod na Link Building
  • Google Mayday, Czyli jak poradzić sobie z wychodzeniem z filtra nałożonego na witryny po update algorytmu.
  • Jak analizować konkurencje w Google i odkrywać, które czynniki powodują że konkurencja jest wyżej niż my?!

Cezary Glijer

  • Opowie o wpływie nowego algorytmu Google Instant na ruch, długość słów kluczowych i jakość wejść z Google. Prezentacja przygotowana na podstawie analizy statystyk dziesięciu dużych polskich portali internetowych.
  • Case Study przypadku zbanowania strony za złe proporcje ilości tekstu do ilości i długości anchorów linków na stronie, podczas prezentacji Cezary postara się określić dolne i górne limity: ilości znaków, słów, linków na stronie oraz odpowiednich proporcji. Temat szczególnie istotny w czasach szczególnej wrażliwości Google na brak unikalnej rozbudowanej treści stron.

Tomasz Frontczak

  • Case Study sklepu internetowego MaxROY.com: innowacje SEO w eCommerce, sposoby rozbudowy treści i zdobywania linków, jak tworzyć zaplecze dla sklepu internetowego?
  • Pozycjonowanie i optymalizacja wpisów w mapach Google Miejsca

Marcin Duraj

  • Case Study zaplecza SEO: Jak uniezależnić się od SWLi? Jak tworzyć zaplecze w praktyce, skąd czerpać treść? Jak dobrać optymalną strukturę zaplecza? Jak uniknąć bana w Google?
  • Sposoby szybkiej i masowej indeksacji
  • Omówienie najbardziej popularnych narzędzi Black Hat

Opis szkolenia SEO z bloga Marcina Duraja – mKane:

„Zdradzę jak konstruuje takie zaplecze by zmaksymalizować ilość fraz i wejść na serwis klienta. Co robię by z zaplecza, po jakimś czasie stworzyć witryny, żyjące własnym życiem.

Opowiem także o tworzeniu zaplecza tematycznego nie związanego z tematyką witryn nad jakimi pracuje.

Podzielę się z uczestnikami wiedzą, dlaczego wybrałem taką a nie inną tematykę tych witryn i jakie dzięki temu mam bonusy. Zaplecze o którym będę mówił składa się z kilkuset domen, jest więc o czym opowiadać.

Mówiąc o zapleczu, powiem jak je linkuje z zewnątrz, opowiem o moich testach związanych z narzędziami jakie używa się do linkowania metodami Black Hat.”

Bartosz Berliński

  • Analiza powdrożeniowa rel=canonical na kilku dużych serwisach eCommerce, założenia, czas i efekty wdrożenia
  • Zaplecze 5000 domen! Omówienie głównych założeń, celów oraz strategi realizacji projektu, kilka ciekawych spostrzeżeń odnośnie działania wyszukiwarki Google przy tej skali projektu

I na koniec jeszcze video z Jackiem Gadzinowskim, który prowadzi najpopularniejsze jak dotąd pod względem ilości rejestracji szkolenie z Social Media, podczas, którego także zwraca uwagę m.in. na znaczenie SEO w emarketingu zintegrowanym oraz o roli Facebook marketingu:

W komentarzach odpowiemy na wszelkie pytania:

Artykuł Szkolenie z pozycjonowania SEO Professional, czyli skoncentrowana dawka wiedzy SEO! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Test indeksacji tekstowych i graficznych linków nofollow

Ponad rok temu w okresie kiedy PageRank sculpting był głośnym tematem a ilość spekulacji o PR sculpting robiła się kłopotliwa nawet dla Google. My po cichu przeprowadziliśmy na Sprawnym Marketingu testy różnego rodzajów linków: graficznych, tekstowych oraz linków z atrybutem rel=nofollow. Wyniki testów zaprezentowaliśmy podczas pierwszego szkolenia seo (na najbliższym szkoleniu z pozycjonowania w wersji PRO też pokażemy kilka ciekawych i świeżych testów oraz związanych z tym Case Study), test nie był jednak nigdy upubliczniony i zaprezentowany czytelnikom SprawnyMarketing.pl. Przed publikacją wyników wstrzymywał nas trochę fakt braku potwierdzenia testu w innym wiarygodnym źródle, wczoraj sytuacja ta uległa zmianie.

Wyniki takich samych testów opublikował Tomek Wieliczko Xann w artykule: Test indeksacji różnych linków (zauważ Tomku że my Ciebie podlinkowaliśmy ;) ) opisał te same konfiguracje i zmienne linków, jak:

  • link graficzny z alt lub bez
  • link grafczny z nofollow, title
  • linki tekstowe z nofollow i bez
  • kolejność położenia linków w kodzie
  • itp.

Nasze testy możecie zobaczyć pod adresem www.sprawnymarketing.pl/testy/.W dzisiejszym artykule skupię się tylko na najciekawszych spostrzeżeniach. Test bowiem w kilku kwestiach potwierdza ogólnie znane prawdy a w innych miejscach wyniki są szokujące a co gorsze dzisiaj potwierdzone przez Xann’a w drugim identycznym teście.

Ważna uwaga: Wszystkie poniższe wyniki dotyczą linków wewnętrznych, mimo dużego prawdopodobieństwa iż podobne zasady działają w odniesieniu do linków zewnętrznych (między domenami) to proszę nie brać tego za pewnik i na podstawie wyników tego testu proszę nie wyciągać jednoznacznych wniosków w odniesieniu do linków zewnętrznych.

Googlebot nie indeksuje znacznika Title dla linków tekstowych i obrazkowych.

Oba testy pokazały wyraźnie że atrybut title dla linków i obrazków jest ignorowany. To spostrzeżenie to w pewnym sensie efekt uboczny testu.

Nofollow trzeba stosować bardzo rozważnie!

Nofollow może spowodować nawet brak indeksacji podstron jeśli zostanie użyte w złej kolejności. Wyraźnie pokazuje to test 2, 6 i 7. Mając 2-3 linki na stronie, użycie nofollow na pierwszym linku w kodzie spowoduje że GoogleBot zupełnie wykreśli linkowany URL z indeksacji!

Inteligencja Google Bota zaskakuje

Zaskakuje fakt że Google Bot mając dwa linki do tej samej podstrony, jeden tekstowy a drugi graficzny zaindeksuje link tekstowy nawet jeśli jest to dopiero 2 lub 3 link w kodzie! Okazuje się zatem że wiele pokrzykiwań SEOwców odnośnie kolejności linków w kodzie było zbędnych.

Warto jednak pamiętać że w wielu np. sklepach internetowych cały czas istnieje spore ryzyko że drugim linkiem zaraz po grafice będzie link typu: “więcej” zatem cały czas warto zwracać uwagę na kolejność tekstowych linków w kodzie przy czym można zapomnieć o wewnętrznych linkach graficznych w przypadku gdy mamy jeszcze linki tekstowe.

Generalnie test miał wykazać jak przez Google są traktowane linki nofollow. W mojej opinii testy potwierdzają słowa Matt’a Cutts’a na temat PageRank sculpting z tego video iż: “it’s not the first thing that I would work on.” Testy pokazały że przez nie umiejętne próby kierowania PageRankiem w obrębie naszych stron możemy zrobić sobie dużo krzywdy. Dla mnie najbardizje zaskakująca jest inteligencja robota w kwestii linków graficznych.

Reasumując: uważajcie na nofollow!

Artykuł Test indeksacji tekstowych i graficznych linków nofollow pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Ban za Keyword Stuffing – Upychanie słów kluczowych

Wczoraj kilka godzin po publikacji artykułu o SEO Copywritingu dotarła do nas wiadomość że zaprzyjaźniona strona została zbanowana. Okazuje się że jest możliwy ban za upychanie słów kluczowych! czyli Keyword Stuffing. Czytając wytyczne Google dla webmasterów chyba tylko poniższy zapis można podciągnąć pod przyczynę bana:

Unikaj sztuczek mających na celu poprawienie rankingu w wyszukiwarkach. Zastosuj praktyczną zasadę: zastanów się, czy możesz bez oporów opisać swoje działania wydawcom konkurencyjnej witryny. Inny przydatny test to zadanie sobie pytania:
,,Czy to przynosi korzyść moim użytkownikom? Czy warto byłoby to robić, gdyby nie istniały wyszukiwarki?”

Na poniższej stronie istniał duży boks tekstu, wykorzystujący sporo pogrubień i powtórzeń tych samych słów kluczowych w różnych odmianach. Cały boks tekstu został zacytowany przez członka Google Search Quality Team i przesłany na w Centrum Wiadomości w Google Webmaster Tools:

Ban Usunięcie witryny z indeksu Google

Mówiąc zupełnie szczerze pierwszy raz spotkałem się z tego typu przypadkiem, pilnie przejrzyjcie swoje strony pod tym kątem. Zacytowany teksty był naprawdę stosunkowo niewinny w porównaniu do niektórych “SEO copywriterskich arcydzieł sztuki”.

————————-
Grafika w nagłówku autorstwa użytkownika David Castillo Dominici z freedigitalphotos.net

Artykuł Ban za Keyword Stuffing – Upychanie słów kluczowych pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Linkowanie wewnętrzne, indeksowanie i przyjazna SEO paginacja

Kilka dni temu Maciek Gałecki z Bluerank opublikował w serwisie SEOmoz.org artykuł poruszający problem paginacji (artykuł dostępny także w wersji polskiej), gratulacje! Z artykułem zapoznałem się już jakiś czas temu, jednak dopiero publikacja na SEOmoz.org wywołała wymianę zdań w naszej firmie i zmotywowała mnie do dłuższej wypowiedzi na ten temat. W artykule odnoszę się bezpośrednio do audytowanej strony pokazując i opisując kroki polepszające indeksację witryny oraz rozwiązujące problem paginacji na znacznie wcześniejszym etapie.

Moim zdaniem artykuł podchodzi do problemu od nieco złej strony, analizuje bowiem dopiero finalny/krytyczny/ostateczny etap optymalizacji strony internetowej. Jednocześnie w mojej opinii przedstawione rozwiązanie ma zastosowanie w bardzo ograniczonej liczbie serwisów. Poniżej przedstawiam cztery kroki jakie powinniśmy podjąć przed zastosowaniem specyficznej paginacji opisanej we wspomnianym artykule.

Cztery kroki SEO poprawiające indeksację witryny:

1. Lepsza segregacja treści – rozbudowa struktury kategorii

Najprawdopodobniej twórca strony słabo przemyślał strukturę informacji witryny, czyli kategorie. W przypadku wspomnianej w artykule strony www.morusek.pl, największą kategorię koty (3600 ogłoszeń) można znacznie lepiej posegregować tematycznie, czyli utworzyć podkategorie takie jak np. rasy kotów, kolor sierści, miasta itp.
Wydłuża to długi ogon zapytań i co najważniejsze znacznie zmniejsza ilość ogłoszeń w jednej kategorii.

W tym przypadku dodanie 15 podkategorii w dziale koty spowoduje spadek średniej ilości ogłoszeń w kategorie do 240 .

2. Większy listing ofert – np. po 50 ofert na stronę

Z tego co widzę większość listingów na stronie morusek.pl ogranicza się do dziesięciu “ofert”. Wiemy wszyscy o teoretycznym limicie 100 linków na stronę, (w praktyce limit jest płynny np. dla mocnych stron jak strona główna). Na przeciętnej stronie tego serwisu znajduje się około 60-70 linków. Część z nich można śmiało ukryć przed oczyma Google np. przy pomocy tagu area, zostanie nam zatem liczba około 50-60 linków na stronę. Możemy zatem śmiało rozszerzyć listing/ilość ofert na stronie paginacji do 50 ofert.

Zatem, 240 / 50 =5 podstron paginacji na kategorię!.
W drugim kroku optymalizacji praktycznie rozwiązujemy problem!

3. Linkowanie do ofert i kategorii z tzw. mocnych punktów.

W trzecim kroku warto zadbać o linkowanie stron ofert i kategorii np. ze strony głównej. Istotą problemu indeksacji wszystkich podstron jest poprawne linkowanie wewnętrzne i zarządzanie przepływem Page Rank w obrębie witryny. W tym konkretnym przypadku kolejnym krokiem jest wspieranie (linkowanie) stron konkretnych ogłoszeń i podkategorii z mocnych punktów witryny czyli stron linkowanych np. site-wide lub mocno podlinkowanych przez strony zewnętrzne.

Na stronie “oferty” listę “podobnych ogłoszeń” można śmiało rozszerzyć do np. 5 podobnych ofert – doskonale polepsza tematyczność ogłoszenia – dodaje treść i tematyczne linki, dobre dla użytkowników, a także polepsza indeksację ogłoszeń na czym nam finalnie zależy.

4. Paginacja

Rozwiązanie przedstawione przez Maćka jest ciekawe ale dosyć zaawansowane i chyba mocno abstrakcyjne dla większości webmasterów, a co najważniejsze wydaje mi się że w tym konkretnym przypadku zbędne. Jeśli jednak powyższe trzy kroki nie przyniosą pożądanego rezultatu, wówczas odsyłam was jeszcze raz do posta na blogu Bluerank.

Jak stworzyć idealnie zaindeksowaną stronę?

forum maxroy com screen Na Forum.MaxROY.com przedstawiłem ciekawe Case Study poprawnie skonstruowanej strony, przypadek opiera się o teorię przepływu PageRank koncepcja szczególnie interesując dla małych, średnich stron. Kilka slajdów będących idealnym uzupełnieniem prezentacji z SEMcamp. Zarejestrowanych użytkowników zapraszam do wątku: – Jak zbudować idealnie zaindeksowaną stronę ?

Pomijam kwestie najbardziej banalnych elementów optymalizacji strony jak mapa .xml czy pozyskiwanie mocnych linków. Skupiłem się na elementach mniej oczywistych i często zaniedbywanych. Wydaje mi się że nieco podobny temat poruszyliśmy przeprowadzając Audyt SEO dla Gadzinowski.pl.

Reasumując, problem paginacji ma szanse zaistnieć dopiero na naprawdę dużych serwisach jak np. Allegro.pl lub inne rozbudowane serwisy ogłoszeniowe. W 99% przypadków polskich stron problem paginacji w ogóle nie powinien istnieć a rozwiązania problemu należy szukać na znacznie wcześniejszym etapie budowy i SEO optymalizacji witryny. W mojej opinii rozwiązanie zaproponowane przez Maćka ma bardzo ograniczone zastosowanie i w jego artykule zabrakło mi wyjaśnienia istoty problemu i rozwiązań znacznie bardziej kluczowych dla poprawnej optymalizacji strony.

P.S. Tak czy inaczej rozwiązanie ciekawe, warte przetestowania, (Bartek coś wspominał że chce przetestować na jakimś dużym polskim e-commerce ;)) fajnie że dzielimy się wiedzą.

P.S.S. Zobaczcie jaki fajny odzew na SEOmoz.org otrzymał post Maćka: Testing How Crawl Priority Works, zachwycony jest sam Rand Fishkin :)

Artykuł Linkowanie wewnętrzne, indeksowanie i przyjazna SEO paginacja pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Nowy sposób na PageRank Scultping

Zapewne większość z was pamięta ostatnie zmiany w algorytmie PageRank związane z atrybutem rel=nofollow oraz opisywany na łamach SprawnyMarketing.pl kilka dni później nowy sposób na PageRank Sculpting. Dzisiaj chcę się z wami podzielić nowym mechanizmem, który równie dobrze pozwala na kontrolowanie przepływu PageRank w obrębie naszych stron.

Na czym polega PageRank Sculpting?

PageRank Sculpting metoda SEO polegająca na ukrywania przed GoogleBote’m linków, które są wartościowe tylko dla użytkownika, mówimy zatem o linkach typu: “Zarejestruj się”, “Zaloguj się”, “Polityka Prywatności”, “Regulamin korzystania z serwisu” itp.…

Tego typu podstrony są najczęściej linkowane Site-Wide czyli posiadają linki z każdej podstrony serwisu a co za tym idzie gromadzą bardzo dużo PageRank’u który teoretycznie moglibyśmy skierować na zupełnie inne ważne z punktu widzenia serwisu strony.

Na czym polega nowa metoda PR Sculpting?

Test nowej metody ukrywania linków przeprowadziliśmy na jednym z opiniotwórczych polskich blogów.

Kilka screenów wyjaśni wszystko:
top bloga Jacka Gadzinowskiego

Top bloga Gadzinowski.pl zawierał kilka linków które z punktu widzenia SEO były zdecydowanie za mocno podlinkowane, linki Site-Wide, podstrony gromadziły bardzo dużo PageRank. Na tych linkach wdrożona została nowa metoda o której piszemy dalej… zaglądamy zatem w kopię tekstową danej witryny. Poniższy screen przedstawia zaindeksowany przez Google tekstowy odpowiednik screena numer 1:
top bloga widziany w Google cache

W Google Cache widzimy że linki które na pierwszy rzut oka wyglądają na zupełnie normalnie klikalne linki w plain html dla GoogleBot’a są zwykłym tekstem! Na 8 linków tylko 3 linki są widziane przez GoogleBota!

Jak to zrobiliśmy?

Rzut oka w kod wyjaśni wszystko:
kod topu bloga Jacka Gadzinowskiego

Powyższy kod odpowiada za ukrycie linków przed Google.

Znacznik Area w HTML

Na znacznik Area wpadłem zupełnie przypadkowo, przeprowadzając Audyt SEO dla Jacka Gadzinowskiego. Okazało się że spora część linków na pierwszy rzut oka w pełni SEO friendly okazała się nie zaindeksowana przez Google. Szybki rzut oka w kod strony i eureka… !

Widzimy wyraźnie, iż Google nie indeksuje tych linków, co więcej umieszczenie atrybutu alt=”” w obrębie tagu area powoduje że Google widzi linki jako obrazek mimo że z punktu widzenia użytkownika jest to zwykły klikalny link !

Metoda ma oczywiście kilka mankamentów:

  • Brak obsługi hover
  • Zdecydowanie mało “kulodporne” rozwiązanie
  • Komplikuje kod strony
  • Trudny do wdrożenia na linkach tekstowych

Zachęcam do zapoznania się z pełną specyfikacją atrybutów html/xhtml dla znacznika Area, tag obsługuje także funkcję “onclick”, możemy zatem mierzyć np. ilość kliknięć w tego typu linki w Google Analytics.

Polecam także artykuł Grzegorza Getki Kolejny sposób na Page Rank Sculpting

Artykuł Nowy sposób na PageRank Scultping pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Nowy mechanizm Page Rank Sculpting

Kilka dni temu na SEOmoz.org pojawił się ciekawy artykuł Link Consolidation: New Page Rank Sculpting, w którym Rand Fishkin opisuje nową technikę kierowania przepływem Page Rank w obrębie witryny. W dzisiejszym wpisie rozwijamy temat i wprowadzamy do zagadnienia polską branżę SEO.

Mówiąc szczerze ta sama technika chodziła mi po głowie w pierwszych dniach po ogłoszonych zmianach w algorytmie nofollow, o których było głośno kilka tygodni temu. Wówczas zabrakło testów aby potwierdzić hipotezę, uznałem też że kierując się zasadą First Link Count można rozwiązać większość problemów z kierowaniem Page Rank. Najważniejsze jednak że wszystko wskazuje na to że mamy sensowny substytut dla rel=nofollow…

Aby zrozumieć nowe zasady Page Rank Sculpting należy pojąć działanie dwóch mechanizmów wyszukiwarki Google:

Zasada First Link Count

Wytyczna sprowadza się do zrozumienia sposobu indeksowania linków przez wyszukiwarkę Google. W sytuacji gdy umieszczamy dwa linki do tego samego adresu URL, wówczas robot Google dostrzega i indeksuje tylko pierwszy link, który znajdzie w kodzie strony ! Jest to bardzo często popełniany błąd przez wielu pozycjonerów oraz przez wiele dużych firm i to zarówno w linkowaniu wewnętrznym jak i zewnętrznym.

O First Link Count pisał już dawno temu także Rand Fishkin. Mam nadzieje że wkrótce uda nam się umieścić Videocast, w którym rozszerzymy to pojęcie oraz omówimy wyniki naszych testów.

Jak widać na załączonym obrazku nawet firmy teoretycznie z branży nie pamiętają o zasadzie pierwszego linka:
Zasada pierwszego linka
i jak to wygląda w kodzie:
Linki Sote.pl First Link Count

Efekt ?

Pierwsza dziesiątka sote.pl na frazę “oprogramowanie
Trzecia dziesiątka sote.pl na frazę “sklepy internetowe

Przypomnijcie, czym się zajmuje ta firma… ? Oprogramowaniem ?

Indeksowanie # Hash

Druga kwestia to znak Hash czyli: # w adresie URL. Standardowo znacznik był stosowany jako tzw. kotwice html czyli służył do linkowania między poszczególnymi fragmentami tekstu jednej podstrony (często stosowany w plikach FAQ). Taka a nie inna funkcjonalność kotwicy spowodowała, iż GoogleBot nie indeksuje treści i adresów URL znajdujących się za znakiem # w adresie.

Mając zatem na uwadze First Link Count i sposób postrzegania # w adresie można bardzo sprawnie wykluczyć z indeksowania niektóre treści na naszej witrynie.

Czyli linkując np. logtypem do adresu domeny głównej, czyli do: http://www.stronaglowna.pl/
inne linki do stron typu:

http://www.stronaglowna.pl/#polityka-prywatnosci
http://www.stronaglowna.pl/#o-nas
http://www.stronaglowna.pl/#o-autorach
http://www.stronaglowna.pl/#kontakt

…będą wg. GoogleBota prowadzić do http://www.stronaglowna.pl/ !

Dodając do tego zasadę First Link Count, anchor lub alt zostanie pobrany z pierwszego linka, który GoogleBot odnalazł w kodzie strony !

Mechanizm bardzo przejżyście zobrazował autor wspomnianego wcześniej posta na SEOmoz.org:
Nowy Page Rank Sculpting

W ten oto sposób możemy sprawnie selekcjonować strony, które zasługują na wysokie pozycje w Google.

Uwaga:
Z Hashem wiążą się także pewne komplikacje – # jest często stosowany we wdrożeniach w technologi Ajax i Flash co powoduje niemożność zaindeksowania podstron witryn w tych technologiach tworzonych. Bardzo świeży przykład to: www.bigstar.pl i nieindeksowalne linki typu:
http://www.bigstar.pl/#/pl/accessories/shoes/.

 

 

W nurt Page Rank Sculpting dobrze wpisuje się ostatnie video łysego Matt Cutts ;)

 

 

Podsumowanie:

  • Menu stron umieszczaj wysoko w kodzie.
  • Wszystkie ważne linki tekstowe z poprawnym anchor text umieść wysoko w kodzie strony.
  • Jeden link do jednego URLa.
  • Jeśli jest więcej linków do jednego URLa, pamiętaj aby link tekstowy z anchor text był wyżej w kodzie.
  • Jeśli są linki, którym nie chcesz przekazywać żadnej mocy używaj # w URL tej podstrony.
  • Wniosek z Video Matt’a: usuwajmy nofollow z naszych linków wewnetrznych !

Osobom, które jeszcze nie widziały polecam moją prezentację z SEMcampu pt. Zrozumieć Page Rank. Dzisiejszy artykuł jest bowiem dobrym rozszerzeniem i odpowiedzią na część pytań wywołanych wystąpieniem.

Zachęcam także do śledzenia nas na Blipie:

Obserwuj mnie na Blipie

Obserwuj mnie na Blipie

Artykuł Nowy mechanizm Page Rank Sculpting pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Wyniki testu SEO. Rel=canonical

W dzisiejszym wpisie omówimy wyniki testów i pokażemy działanie tagu, który zaistniał w SEO w lutym 2009 roku. Do dnia dzisiejszego nie komentowaliśmy tego wydarzenia na Sprawnym Marketingu, wydaje się więc że czas najwyższy przedstawić nasz punkt widzenia…


Do dzisiejszego wpisu zmotywował mnie blip mendaxa i post Blueranków. W drugim przypadku dywagacje należałoby zacząć od sensu stosowania rel=canonical w sytuacji w której problem można rozwiązać na poziomie Google Analytics i wprowadzenie # (hash’a) w URL źródła GA – cały proces bardzo fajnie opisał Tomek. Bardzo fajna funkcja rzadko w Polsce używana, w MaxROY.com w ten sposób mierzyliśmy m.in. skuteczność kampanii AdTaily i Flaker – tym samym linki z tych systemów reklamowych były SEO Friendly.

Podobnie pozbawione sensu wydaje mi się testowanie rel=canocnial na wersjach strony “z www” i “bez www” – do tego celu są bowiem stworzone odpowiednie narzędzia w Google Webmaster Tools. Co więcej Google może traktować subdomeny jak inne domeny a o czym piszemy dalej rel=canonical działa tylko w obrębie jednej domeny.

Zanim przejdziemy dalej chciałbym wam pokazać zestawienie jakie przygotowałem na pierwsze szkolenie SEO. Zalety i wady przekierowania 301 i rel canonical:
Wady i zalety rel canonical i przekierowania 301

Zwracam uwagę przede wszystkim na ostatni punkt tabelki – rel=canonical to sugestia dla wyszukiwarki! Taka informacja widnieje w plikach pomocy Google nt. tagu rel=canonical:

Czy atrybut rel=”canonical” to sugestia, czy dyrektywa?

Ta nowa opcja pozwala właścicielowi witryny zasugerować wersję strony, którą Google ma traktować jako kanoniczną. Google weźmie to pod uwagę, łącznie z innymi sygnałami, podczas określania, który z zestawów adresów URL zawiera identyczne treści, i wyznaczy najbardziej odpowiednią stronę do wyświetlenia w wynikach wyszukiwania.

W dalszych krokach chciałem wam pokazać jak wg. naszych doświadczeń działa tag rel=canonical. Działanie canonical przetestowaliśmy m.in. na starym spisie certyfikatów Google. Pod adresem: https://sprawnymarketing.pl/certyfiakty-google/ został umieszczony tag

link rel canonical

Po trzech tygodniach od umieszczenia tego tagu widzimy iż strony nie ma już w indeksie:

wyindeksowana podstrona

A na zapytanie “site:sprawnymarketing.pl certyfikaty” zwracany jest canonicalny adres url:

poprawny adres canonicalny

Powyższy test potwierdza skuteczność tego tagu i wydaje się że w nasze ręce trafia kolejne ciekawe narzędzie SEO.


Zapraszamy do komentarzy, ciekawy jestem także wyników waszych testów w tym zakresie.

 

P.S. Zapraszamy także do śledzenia naszych mikroblogingowych aktywności:

Obserwuj mnie na Blipie

Obserwuj mnie na Blipie

Obserwuj mnie na Blipie

Tomek na Flakerze

Więcej o rel canonical Matt Cutts:


 Share

Artykuł Wyniki testu SEO. Rel=canonical pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Rel=Nofollow – koniec dotychczasowej funkcjonalności!

Przyznam szczerze, że w dniu wczorajszym wstrząsnęła mną informacja o zmianach jakie nastąpiły w algorytmie Page Rank, a tak naprawdę o zmianie sposobu indeksowania tagu rel=nofollow. Jest to moim zdaniem najpoważniejsza zmiana algorytmu Google w ciągu ostatnich kilku lat.

 

W dużym skrócie. W ostatnich dniach w Seatlle odbywała się konferencja SMX Advanced, podczas której Matt Cutts zapytany o Page Rank sculpting i przyczyny stosowania linków nofollow na stronie głównej YouTube.com, niespodziewanie mocno rozwinął swoją wypowiedź:

2) Pagerank sculpting

Why does Google not support this? What Matt / Maile tried to communicate earlier is that you can use the rel=”nofollow” attribute, but you can spend far better time working in other areas of your site. if you have 5 nofollowed links on a page with 10, the old theory that the 5 followed links get the value is less effective thesedays, but you won’t get a penalty. If you’re using nofollow, it’s almost like a band aid. Think about how to link within your site more effectively.

Why is it less effective now? (Danny). Youtube was mentioned because a lot of internal links in Youtube were / are nofollowed. We didn’t want videos featured on the homepage to receive the incredible levels of pagerank from the Youtube homepage and that was a deliberate choice by Google.

What was the change? Initially if you had the 5/10 links scenario, the spread of pagerank was easy to predict. That’s not the case now because of feedback from the “crawl / index” team.

5) Back to PR sculpting – where is the lost pagerank going?

Think of pagerank “evaporating” when you nofollow a link. Think about your architecture and use nofollow sparingly. If you’re a power user then do nofollow register links because the URL isn’t wanted in the Google index. The ways we determine our opinion of pagerank are definitely more sophisticated now compared to the past.


Rand Fishkin
w swoim artykule zwrócił uwagę iż wg. jego szacunków opartych na danych zebranych z 474,779,069,489 linków, rel=nofollow jest stosowany przy 2,7% linków, z czego 75% to linki wewnętrzne. Mówimy zatem o zmianie dotyczącej ponad 9 milionów linków.

O co chodzi ? – w dużym skrócie

News z zagranicy szybko na polski rynek przełożyli Bynajmniej.pl oraz Lexy.
Na poniższej grafice prezentujemy, jak aktualnie Google bot rozpatruje linki nofollow i jak aktualnie przepływa Page Rank:

Nowy algorytm PageRank/Nofollow

Zasady działania nowego algorytmu pagerank nofollow

Co dalej ?

Wydaje mi się, że wczorajszego newsa należy połączyć z innym aspektem algorytmu o którym pisał Mendax oraz była Googlerka Vanessa Fox. Czyli o wynikach testów indeksacji Flasha oraz JavaScript. Okazuje się, że linki zapisane w tego typu formatach indeksują się coraz lepiej, a co za tym i idzie także tego typu linki zaczęły przekazywać Page Rank, Anchor text i inne SEO atrybuty.

Jest to o tyle ważne bowiem do niedawna istniały 2-3 sposoby na sprawienie aby link przestał dla robota Google istnieć:

  • nadanie linkowi rel=nofollow
  • zapisanie linka w JavaScript
  • zapisanie linka we Flashu

Na dzień dzisiejszy wszystkie trzy opcje nie funkcjonują tak jak dotychczas, co generuje pytanie o inne White SEO możliwości ukrywania obecności linka w treści strony ?

Przyczyny wprowadzenia zmian w nofollow

W mojej opinii w całym zamieszaniu chodzi głównie o webmasterów, którzy wynaturzyli dotychczasową funkcjonalność tagu rel=nofollow. Wspomniany znacznik powstał głównie jako zabezpieczenie przed spamem i tu trzeba przyznać twórcom, że znakomicie spełnia on swoje zadanie, mając do pomocy szereg filtrów oraz wtyczek antyspamowych.

Problem z nofollow na szeroką skalę pojawił się w 2008 roku kiedy to webmasterzy podjęli próby testowania tagu rel=nofollow na wewnętrznych linkach swoich serwisów. Celem takiego działania było sterowanie przepływem mocy pomiędzy podstronami serwisu, kierowanie “real Page Rank” w miejsca słabo zaindeksowane, lub wybieranie z pomocą nofollow najlepszego anchora linka.

Drugi problem, który mojej opinii przelał czarę goryczy to nadmierne stosowanie tego rozwiązania przez nowo powstające serwisy.

Zauważcie że rel=nofollow używają największe serwisy społecznościowe na świecie takie jak np.:

  • Wikipedia – jest naczelnym przykładem serwisu, który rozpoczął stosowanie rel=nofollow na szeroką skalę, i to właśnie w ślad za Wikipedią poszła szeroka rzesza twórców stron. Wikipedia sporo skorzystała na takim podejściu do sprawy, co zaowocowało wysokimi pozycjami strony w SERPach.
  • Twitter.com – kolejny serwis który zdobywa olbrzymią popularność w sieci i co za tym idzie generuje masę coraz bardziej kłopotliwych dla Google wątpliwości i pytań ukazujących wady obecnego/starego algorytmu.
  • YouTube.com – to od pytania o powody stosowania nofollow na serwisie Google jakim jest YouTube zaczęła się cała afera ;).
  • WordPress, Blogspot.com – wszystkie komentarze z automatu otrzymują rel=nofollow.
  • Także polski wykop.pl jest przykładem serwisu, który niemal w naturalny sposób powinien linkować do wartościowych treści a tego nie robi używając znacznika nofollow.

Linki nofollow są przydzielane niemal z automatu przez wszystkie nowo powstające serwisy web 2.0, społecznościowe, blogi itp. Przeważają dwie motywacje:
– Bo robią tak wszyscy duzi
– Zachłanności na “Page Rank” i wiara w to że nielinkowanie na zewnątrz podniesie nasze własne pozycje np. wikipedia jest przykładem serwisu który dostawał masę linków zewnętrznych natomiast w ogóle nie linkował na zewnątrz.

Reasumując ostanie zmiany algorytmu wymierzone są przede wszystkim w duże strony oraz Page Rankowo skąpych webmasterów. Page Rank jest w internecie walutą, natomiast Google, Narodowym Funduszem Walutowym regulującym przepływ tej waluty. Duże serwisy coraz wyraźniej zakłócały model przepływu Page Rank (Link graph) w sieci i zmiana powinna mieć dla nas maluczkich pozytywny wpływ.
Ewolucja nofollow nie jest wymierzona w drobnych webmasterów a wręcz przeciwnie, Google broni naszych SERPowych interesów przed dominacją olbrzymów a także przywraca nadzieję na powrót bezinteresowności linkowania w sieci.

Na tą chwilę sugeruję spokój i rozwagę, Google musi przeindeksować całą sieć :) (być może już to zrobił w postaci majowego niespodziewanego upadte PR), poczekajmy także na post na blogu Matt’a Cutts’a oraz na pierwsze testy przeprowadzone po nowych zmianach.

P.S. Zalążkiem do artykułu był komentarz jaki zacząłem pisać w pod postem Lexy ;). Pozdrawiam.

 

Edycja – dodane: 08.06.2009

W związku z artykułem jaki pojawił się na Interaktywnie.com odpowiedziałem Grzegorzowi Miłkowskiemu na kilka pytań:

– jak ta zmiana wpłynie na pracę pozycjonerów, co będzie musiało się zmienić?

Na tą chwile jeszcze bardzo ciężko ustalić czy zmiana już została wdrożona. Jeśli tak, to z naszych symulacji wynika że wkrótce powinny spaść pozycje a także ruch z Google na duzych stronach powszechnie stosujących parametr nofollow takich jak np. Wikipedia lub polski Wykop.pl
Czas pokaże jak te zmiany przełożą się na pozycje w SERPach.

– jaka jest Pana zdaniem przyczyna takiego ruchu Google’a i decyzji o wprowadzeniu tych zmian?

Nadużywanie tego parametru przez serwisy będące swego rodaju papierekiem lakmusowym globalnego internetu (głównie serwisy typu User generated content) z popłochem tagowały każdy link wychodzący tagiem rel=nofollow. W tym znaczeniu Google stał się ofiarą swoich własnych wytycznych dla webmasterów a konkretnie zdania dotyczącego: Linkowania do treści pochodzącej z niezaufanego źródła.
Nadużycia w tym zakresie powodowały że Google z opóźnieniem indeksował lub algorytym niedoszacowywał wartościowych stron i treści.

– jaki będzie to miało wpływ na przeciętnego użytkownika / blogera?

Teoretycznie zgodnie z algorytmem Page Rank powinny ucierpieć strony które obficie linkowały na zewnatrz ale linki te tagowały znacznikiem rel=nofollow. Zwracam uwagę że na takiej zasadzie są linkowane kometarze na większości blogów w polsce.

– może branża SEO już „szepta” o jakichś kolejnych zmianach w algorytmie? Co następne może się zmienić? ;)

Myślę że zamiana jest na tyle poważna że potrzeba czasu na przełożenie się tej zmiany na wyniki wyszukiwań. Co więcej cały czas czekamy na bardziej i oficjalną i precyzyjną wypowiedz przedstawicieli Google.

Artykuł Rel=Nofollow – koniec dotychczasowej funkcjonalności! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Tworzenie SEO przyjaznych adresów URL – Videocast

Wreszcie ruszamy z długo oczekiwaną i odwlekaną serią videocastów. Pisanie artykułów wydaje się być coraz trudniejsze i bardziej angażujące, postaramy się więc w najbliższych tygodniach sporo materiałów publikować w formacie video.
Zapraszamy do pierwszego videocastu poruszającego kwestie poprawnego tworzenia przyjaznych linków dla wyszukiwarek:

 

Wspomniane w Videocascie video Matta Cutts’a: Podkreślenia czy myślniki w adresach URL ?

 

Warto także rzucić okiem na wykład Mariusza Gąsiewskiego m.in. o stosowaniu # (hash’a) w tagowanych linkach Google Analytics. I informacja testowaniu rozwiązania z # w URLu przez Google: New Type of Google Result URL.


 Share

Artykuł Tworzenie SEO przyjaznych adresów URL – Videocast pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Google to największy dom mediowy w Polsce! Sieć reklamowa Google

Wraz z każdym kolejnym szkoleniem z reklamy w Google AdWords staramy się rozbudowywać nasze prezentacje, uzupełniać je o aktualną wiedzę i dodawać nowe, świeże materiały. Przed ostatnim Łódzkim szkoleniem zastanawiałem się jak rozległa jest Sieć Partnerska Google (Google Content Network)? Szybko uzmysłowiłem sobie, że Google z systemami AdWords/AdSense może być największym domem mediowym i platformą reklamową w Polsce! Jak się okazało zdecydowanie trudniej jest ten fakt udowodnić.

Chcąc udowodnić stawianą tezę musieliśmy przede wszystkim zniżyć się do terminologii domów mediowych oraz znaleźć dane, których Google z wiadomych względów sam oficjalnie nie udostępnia. Pojawiło się więc kilka pytań odnośnie Sieci Partnerskiej Google:

  • Ile jest stron w systemie?
  • Jaki jest zasięg sieci?
  • Jaka jest ilość odsłon?
  • Jaka jest ilość unikalnych użytkowników?

Na pierwsze pytanie odpowiedzi udzielił nam właściciel AdsSpy.com – serwis monitoruje kilkaset tysięcy stron na całym świecie sprawdzając numery ID reklamodawcy AdSense… Dzięki temu narzędziu możecie się np. dowiedzieć że oprócz Sprawnego Marketingu Tomka AdSense ID jest umieszczone na jeszcze 11 innych stronach ;).

Z danych, które podesłał nam Gleb Suvorov wynika iż domen .pl z zainstalowanym AdSensem jest 34406. Oczywiście znaczna część z tych witryn to typowy długi ogon. Co ciekawe w grupie tych witryn są setki stron teoretycznie znajdujących się w portfolio innych domów mediowych.

Na trzy kolejne pytania odpowiedzi w bardzo dużym przybliżeniu udziela nam samo Google w postaci: Google AdPlanner. AdPlanner to narzędzie umożliwiające planowanie kampanii reklamowych i dobieranie stron na podstawie: tematyki, kategorii oraz słów kluczowych. Narzędzie w swym zamyśle ma przedstawiać wiarygodne informacje dotyczące wszystkich stron obecnych w internecie a nie tylko stron Google.

Jest to jednocześnie narzędzie umożliwiające pobranie całkiem dokładnych danych o ruchu na poszczególnych witrynach agregując informacje z Google Analytics, AdWords, wyszukiwarki Google itp.

Przy zaznaczeniu odpowiednich opcji filtra w AdPlannerze można łatwo i szybko wyselekcjonować interesujące nas witryny Sieci Partnerskiej Google:

Google Ad Planner

Poniżej zagregowane przez nas dane Gemiusa z uwzględnieniem Sieci Partnerskiej Google:

Zasięg Sieci Partnerskiej Google i domów mediowych
Źródło danych zaprezentowanych w tabeli – Adnet.pl.

Należy zwrócić uwagę na kilka faktów:
Ilość polskich stron z AdSense ID jest mocno niedoszacowana, po pierwsze narzędzie AdsSpy skupia się na rynku anglojęzycznym i wyniki z PL są indeksowane raczej z przypadku. Ponadto spora część polskich stron o innych rozszerzeniach TLD nie została uwzględniona w podesłanym raporcie.
Kolejna kwestia powodująca że dane Sieci Partnerskiej są zaniżone to fakt, iż prezentowane w zestawieniu informacje dotyczą zaledwie 250 witryn podczas gdy dwa największe domy mediowe skupiają w swoich sieciach:

  • Adnet.pl – 330 serwisów
  • Arbonetwork – około 600 serwisów

Należy też pamiętać że Google swoją potęgę buduje na długim ogonie i także w przypadku jego sieci reklamowej małe strony są zapewne najmocniejszym ogniwem. Możemy więc szacować że w rzeczywistości Google ma zasięg podobny lub większy od wszystkich domów mediowych razem wziętych !

Zauważcie że Google jest jedynym podmiotem, który jest cicho tolerowany przez domy mediowe – najlepszy przykład to Nasza-klasa.pl i komentarz Macieja Popowicza: “Bez Google AdSense by nas nie było”.

Okazuje się więc że Google po cichu wyrosło na lidera polskiej branży reklamowej. Zdaje się że polskie domy mediowe cały czas żyją w zupełnie innej rzeczywistości regularnie przechwalając się w notkach prasowych o kolejnych sukcesach. Posługują się przy tym terminologią typową dla starego displayowego marketingu internetowego: Zasięg, Unikalni użytkownicy, Ilości odsłon… Słowem nie wspominając o rekordowych CTR, CR lub ROI prowadzonych przez siebie kampanii. Mówiąc szczerze nigdy nie widziałem sensownego Case Study ukazującego twarde dane kampanii typu Display.

Można powiedzieć że na polskim rynku reklamy internetowej panuje swego rodzaju rozdwojenie jaźni…
Z jednej strony sieci reklamowe udają że nie dostrzegają potęgi Google, z drugiej strony nieustannie podążają w kierunku rozwiązań od lat wdrażanych przez reklamowego potentata.

[Adnet] “jest najobszerniejszym [?? :)] systemem kontekstowej reklamy w Polsce w modelu CPC

– całe to zdanie brzmi absurdalnie… pozbawione treści a przede wszystkim prawdy.

Podczas gdy domy mediowe regularnie chwalą się danymi o swoich wynikach, zasięgach, liczbach UU itp. nasz skromny gigant internetowy siedzi cichutko i stopniowo zdobywa rynek.

Sieć Partnerska ma kilka niewątpliwych przewag:

  • Olbrzymia ilość stron: zarówno dużych (nasza-klasa.pl, onet.pl) jak i małych, drobnych, long tailowych stron.
  • Różne formaty reklam (8 formatów)
  • Różne rodzaje reklam (Text, Grafika, Video, Gadżety)
  • Różne modele płatności (CPC, CPM)
  • Możliwość samodzielnego prowadzenia kampanii
  • Witryny z bardzo rozległej tematyki
  • Możliwość reklamy w setkach języków i lokalizacji
  • Pełna mierzalność efektów

Pozostaje pytanie dlaczego tak wielu klientów agencji reklamowych cały czas daje się nabierać na usługi planowania mediów, współczynniki zasięgu i ilości odsłon? Dlaczego klienci dużych domów mediowych decydują się płacić po kilkadziesiąt złotych za 1000 wyświetleń podczas gdy w sieci Google mogą mieć to samo za kilka złotych? Czy naprawdę funkcjonuje to na zasadzie jest budżet i trzeba go wydać? Czy okres kryzysu ekonomicznego jest odpowiednim momentem na zrewidowanie swoich budżetów reklamowych?

Zastanawiam się ostatnio nad bardzo szeroką, niemalże spamerską kampanią “Cudowny Medalik”, myślę że jest to pierwsza kampania prowadzona na tak szeroką skalę przy pomocy Sieci Partnerskiej Google (P.S. Jeśli twórca kampanii czytuje Sprawny Marketing to prosimy o komentarz). Zastanawia mnie także kiedy duże podmioty przeniosą swoje budżety na platformę reklamową Google AdWords ?

Google wyznaje w tym przypadku zasadę cichej koegzystencji jednocześnie stopniowo coraz mocniej podbierając i wypychając lub wykupując (Double Click) standardowe domy mediowe z rynku. Już wkrótce może się okazać że domy mediowe będziemy utożsamiać z agencjami SEMowymi.

Na koniec skojarzmy kilka faktów aby zobaczyć w jakim kierunku zmierza Google:

  • Przejęcie Double Click
  • Publikacja reklam równolegle z innymi domami mediowymi
  • AdManager – Narzędzie rotujące reklamy, różnych reklamodawców, testujące skuteczność umiejscowienia reklam na stronie.

Najpotężniejsze narzędzie reklamowe internetu jest w naszych rękach !

P.S. Pamiętajmy że w ostatnich dniach do Sieci Partnerskiej dołączył także Onet.pl – kolejne kilkanaście milionów odsłon, UU i % zasięgu!

Artykuł Google to największy dom mediowy w Polsce! Sieć reklamowa Google pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Zagraniczne książki o SEM: PPC, SEO, pozycjonowaniu

Polski rynek wydawniczy w zakresie książek z zakresu marketingu internetowego jest dosyć ospały. Dlatego naszym zdaniem warto sporadycznie zaglądać na rynek amerykański gdzie dzieje się zdecydowanie więcej.

W dzisiejszym artykule przybliżamy kilka najświeższych książkowych pozycji z tematyki pozycjonowania, optymalizacji i marketingu internetowego, które ukazały się na amerykańskim rynku.

 

Web Design for ROI

web design for roi “Web Design for ROI” (WD4ROI.com) – Rewelacyjna książka obrazująca jak bardzo zmienia się marketing w wyszukiwarkach i w jakim kierunku będzie w najbliższych latach zmierzał… W mojej opinii książka wskazuje dalszy kierunek rozwoju branży SEM, czyli przeniesienie uwagi z CTR i pozycji w SERP na zwrot z inwestycji ROI (red. czyli to co dzwiękonaśladowczo ma obrazować nazwa MaxROY.com). Książka o użyteczności, funkcjonalności i dostępności z punktu widzenia wpływu na ROI (Return on Investment).
Ciekawym akcentem jest umieszczenie pod koniec książki referencji i źródeł w postaci książek i witryn internetowych z których autorzy czerpią inspiracje do codziennej pracy…

Polska wersja językowa właśnie ukazała się nakładem OnePress.pl:
http://onepress.pl/ksiazki/ebizds.htm

 

SEO Bible

SEO Bible “SEO Bible” – Wbrew temu co sugeruje nazwa, książka nie sprowadza się tylko do promocji w wynikach organicznych… Wstępem do książki są mocne podstawy SEO, które w następnych częściach przeradzają się w kilka rozdziałów szeroko opisujących wszelkie zagadnienia Pay Per Click (PPC). W kolejnych rozdziałach autor ponownie wraca do pozycjonowania i optymalizacji zahaczając o takie tematy jak dobór słów kluczowych czy link building. Na koniec znajduje się kilkanaście wywiadów ze znanymi osobistościami z branży…
Konstatując książka raczej o podstawach, słowo “Bible” z tytułu zostało w tym przypadku zdecydowanie nadużyte.

Książka wkrótce ukaże się także w polskiej wersji językowej o czym ostatnio informowała Lexy.

 

Get to the top on Google

Get to the top on Google“Get to the top on Google” – Książka o bardzo mocnych podstawach z pozycjonowania i SEO jako całości… Jedyne ciekawe w mojej opinii rozdziały dotyczyły wartościowych katalogów na rynkach zagranicznych oraz sytuacji na kilku dużych rynkach wschodzących takich jak Rosja czy Chiny. Podsumowując podobną wiedzę można wyciągnąć z polskich publikacji.

 

 

 

 

 

Ultimate guide to Search Engine Optimization

Ultimate guide to search engine optimization“Ultimate guide to Search Engine Optimization” – Poprzednia książka z cyklu “Ultimate Guide to Google AdWords” została bardzo pozytywnie odebrana przez recenzentów i była chyba pierwszą publikacją tak szczegółowo opisującą działanie tego systemu. W tej chwili książka uległa już zdecydowanej dezaktualizacji, jednak rozdziały z zakresu copywritingu boksów reklamowych cały czas mogą stanowić doskonałą inspirację…
Książka z zakresu SEO wypadła nieco gorzej niż jej PPC poprzedniczka i jest to niestety kolejna książka o podstawach… Nie przeczytamy nic o nowych i bardziej zaawansowanych technikach optymalizacji jak choćby linkowanie wewnętrzne.

 

Search Engine Optimization an hour a day

Search Engine Optimization an hour a day“Search Engine optimization an hour a day” – Kolejna pozycja nawiązująca do znanej serii książek z cyklu “An Hour a Day” (np. Web Analytics an Hour a Day).
W mojej opinii jest to najlepsza pozycja ze wszystkich dotychczas czytanych przeze mnie książek o SEO. Książka tematyką zdecydowanie wykracza poza działania SEO, bardzo dużo na temat Paid Search – PPC, sporo o narzędziach.
Autorki prezentują podejście do Serach Engine Marketing z punktu widzenia dużej instytucji/korporacji, w swoich wytycznych biorą pod uwagę że za wdrażanie zmian SEO jest odpowiedzialnych szereg osób.

Zdecydowanie polecam, szczególnie osobom odpowiedzialnym za komórki SEM w dużych podmiotach… więcej o specyfice takiej pracy opowiadał ostatnio Bartek Berliński.

 

Advanced Search Engine Optimization: A Logical Approach

Advanced Search Engine Optimization a logical approach“Advanced Search Engine Optimization: A Logical Approach” – Książka wydmuszka… totalnie pozbawiona sensu publikacja tłumacząca po kolei pojęcia SEO, PPC i SEM… Bardziej słownik pojęć niż książka. Zdecydowanie odradzam.

 

 

 

 

 

 

Bardzo ciekawy spis książek, które zdaniem autora serwisu Conversation Marketing każdy marketer musi przeczytać.

Ze stanów lecą już do nas kolejne książki. W miarę możliwości i zasobów czasowych przeznaczonych na czytanie książek i pisanie artykułów będziemy starali się częściej publikować podobne zestawienia.
Warto także zwrócić uwagę na książkę Przemka Modrzewskiego która przeszła jakoś bez większego rozgłosu. Książka do zakupu tutaj: “Google AdWords w praktyce

Jakie są wasze ulubione książki z zakresu marketingu internetowego ?

————————-
Grafika w nagłówku autorstwa użytkownika jscreationzs z freedigitalphotos.net

Artykuł Zagraniczne książki o SEM: PPC, SEO, pozycjonowaniu pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Patenty Google o SEO i pozycjonowaniu…

W naszych artykułach o SEO i pozycjonowaniu zawsze staramy się czerpać z najlepszych źródeł… Z jednej strony podążamy za poszlakami poszukując odpowiedzi na domniemany wpływ ruchu na wyniki organiczne, staramy się rozszyfrować wpływ CTR na nasze pozycje w Google… Z drugiej strony zasięgamy informacji u źródła przeprowadzając wywiady z Guglarzem lub tłumacząc zachodnie webdinary z Googlersami

[zwykopu][/zwykopu]

W komentarzach pod artykułami czasami narzekacie że Guglarz nic ciekawego powiedzieć nie może lub że niektóre artykuły to bardziej fantastyka niż rzeczywistość… Przestaliśmy zatem pytać a zaczęliśmy szukać… Mamy nadzieję że dzisiejszy artykuł zadowoli naszych nawet najbardziej wybrednych czytelników.

Dotarliśmy do bardzo wiarygodnego źródła informacji jakim są naszym zdaniem patenty Google! Kładą one zupełnie nowe światło na naszą dotychczasową wiedzę… Żadna książka nie tłumaczy tak dobrze działania największej na świecie wyszukiwarki jak jej własne, opisane i opatentowane rozwiązania…

  • Jak Google określa datę powstania dokumentu ?
  • Jak aktualizacje treści wpływają na pozycję strony ?
  • Czy i jak Google mierzy szybkość przyrostu linków ?

Tych informacji nie znajdziecie w plikach pomocy Google… żaden forumowy Guru SEO nie odpowie wam na te pytania…

Odpowiedzi przedstawiamy w dzisiejszym artykule…

Będziemy wdzięczni jeśli w ramach docenienia naszej pracy wykopiesz ten artykuł:

[wykop][/wykop]

“Information retrieval based on historical data”

Taką nazwę nosi pierwszy patent, który chcemy dzisiaj omówić… Pod patentem podpisał się m.in. Matt Cutts, który co ważne jest z Google od początków istnienia tej firmy.

Myślę że warto osobiście zapoznać się z całą treścią patentu Google… Artykuł jest bardzo obszerny, w sumie około 20 stron tekstu A4 napisanego czcionką 12. Poniżej wersja pdf:

Ikona PDF Patent Google patent-google-o-seo-i-pozycjonowaniu.pdf

Data Powstania dokumentu

Ważne z punktu widzenia zrozumienia zasad określania np. Duplicate Content.

Dział: DESCRIPTION – EXEMPLARY HISTORY DATA
Akapity: [0034] – [0044]

“…there are several techniques that can be used to determine a document’s inception date…”

Jest kilka technik mierzenia daty powstania dokumentu…
Kilka najważniejszych wymienionych w dokumencie:
– Data pierwszego zaindeksowania
– Data odkrycia pierwszego linku prowadzącego do dokumentu (jak istnieje link to i strona musi już istnieć)
– W niektórych przypadkach za datę powstania dokumentu może zostać uznana data rejestracji domeny na której powstał dokument.
– Data powstania dokumentu zapisana przez serwer czyli np. nagłówek “HTTP If-Modified-Since” itp.

Do określenia daty powstania dokumentu Google może używać kombinacji kilku technik.

Search engine may use the inception date of a document for scoring of the document. For example, it may be assumed that a document with a fairly recent inception date will not have a significant number of links from other documents (i.e., back links). For existing link-based scoring techniques that score based on the number of links to/from a document, this recent document may be scored lower than an older document that has a larger number of links (e.g., back links). When the inception date of the documents are considered, however, the scores of the documents may be modified (either positively or negatively) based on the documents’ inception dates.

Do oceny dokumentu wyszukiwarka może wykorzystać datę jego powstania, na przykład, można śmiało założyć, iż dokument z dość niedawną datą powstania nie będzie miał znacznej liczby linków z innych dokumentów. Dla aktualnych algorytmów opartych na ocenie linków do i z dokumentów, młodszy dokument może więc zostać oceniony niżej od starszego, który liczbę takich linków ma znacznie większą. Gdy jednak data powstania dokumentów jest brana pod uwagę przy ustalaniu rankingu, wówczas wyniki wyszukiwania mogą być modyfikowane (pozytywnie lub negatywnie) na podstawie tychże dat.

Consider the example of a document with an inception date of yesterday that is referenced by 10 back links. This document may be scored higher by search engine than a document with an inception date of 10 years ago that is referenced by 100 back links because the rate of link growth for the former is relatively higher than the latter. While a spiky rate of growth in the number of back links may be a factor used by search engine 125 to score documents, it may also signal an attempt to spam search engine 125. Accordingly, in this situation, search engine 125 may actually lower the score of a document(s) to reduce the effect of spamming.

Rozważmy przykład dokumentu z wczorajszą datą powstania, który posiada 10 linków. Ten dokument może być oceniany wyżej niż dokument z datą powstania 10 lat temu, który jest wskazywany przez 100 linków ponieważ szybkość wzrostu linków nowego dokumentu jest wyższa. Podczas gdy szybki przyrost linków może być czynnikiem ocenionym na plus dokumentu, może być to jednak także sygnał o próbie SPAMu. W związku z tym zbyt szybki przyrost linków może skutkować obniżeniem oceny dokumentu.

…search engine may use the inception date of a document to determine a rate at which links to the document are created (e.g., as an average per unit time based on the number of links created since the inception date or some window in that period). This rate can then be used to score the document, for example, giving more weight to documents to which links are generated more often.

…wyszukiwarka może użyć daty powstania dokumentu do oceny szybkości przyrostu liczby linków (średnia ilość linków utworzona w określonym czasie od powstania dokumentu). Ten współczynnik może następnie być użyty do oceny dokumentu np. mocniej punktując dokumenty do których linki są tworzone częściej [lub bardziej regularnie].

Zależność można podsumować poniższym wzorem:

H=L/log(F+2),

H – historia przyrostu linków
L – ilość linków prowadzących do dokumentu
F – czas, który minął od utworzenia dokumentu

For some queries, older documents may be more favorable than newer ones. […]search engine 125 may determine the age of each of the documents in a result set (e.g., using their inception dates), determine the average age of the documents, and modify the scores of the documents (either positively or negatively) based on a difference between the documents’ age and the average age.

Dla niektórych zapytań, starsze dokumenty mogą być bardziej faworyzowane niż nowe. […] wyszukiwarka może określić wiek każdego z dokumentów, wyliczyć średni wiek wszystkich dokumentów z wyników wyszukiwań, a także modyfikować Score Rank dokumentów (znów pozytywnie lub negatywnie) w oparciu o różnicę między wiekiem poszczególnych dokumentów a średnim wiekiem wszystkich stron.

Kontent – Uaktualnienia i Zmiany

Dział: DESCRIPTION – Content Updates/Changes
Akapity: [0046] – [0056]

Ten punkt dobrze wyjaśnia dlaczego regularnie aktualizowane strony i blogi tak ładnie wchodzą w SERPy.

…information relating to a manner in which a document’s content changes over time may be used to generate (or alter) a score associated with that document. For example, a document whose content is edited often may be scored differently than a document whose content remains static over time. Also, a document having a relatively large amount of its content updated over time might be scored differently than a document having a relatively small amount of its content updated over time.

…informacje odnoszące się do sposobu, w jaki treści dokumentu ulega zmianie z biegiem czasu mogą zostać wykorzystane do generowania (lub zmiany) Score Rank owego dokumentu. Na przykład, dokument, którego treść jest często edytowana może być oceniany inaczej niż dokument, którego treść pozostaje niezmienna. Ponadto, dokument o stosunkowo dużej ilości aktualizowanej treści w miarę upływu czasu może być punktowany inaczej niż dokument o stosunkowo małej ilości aktualizowanej treści.

Wzór:

U=f(UF, UA)

f – suma lub suma ważona
UF – współczynnik częstotliwości zmian
UA – procentowa ilośc zmienianej treści w określonym czasie

UA may also be determined as a function of one or more factors, such as the number of “new” or unique pages associated with a document over a period of time. Another factor might include the ratio of the number of new or unique pages associated with a document over a period of time versus the total number of pages associated with that document. Yet another factor may include the amount that the document is updated over one or more periods of time (e.g., n % of a document’s visible content may change over a period t (e.g., last m months)), which might be an average value. A further factor might include the amount that the document (or page) has changed in one or more periods of time (e.g., within the last x days).

According to one exemplary implementation, UA may be determined as a function of differently weighted portions of document content. For instance, content deemed to be unimportant if updated/changed, such as Javascript, comments, advertisements, navigational elements, boilerplate material, or date/time tags, may be given relatively little weight or even ignored altogether when determining UA. On the other hand, content deemed to be important if updated/changed (e.g., more often, more recently, more extensively, etc.), such as the title or anchor text associated with the forward links, could be given more weight than changes to other content when determining UA.

UA może być również określana jako funkcja jednego lub więcej czynników, takich jak:

  • liczba “nowych” lub unikalnych stron związanych z dokumentem powstałych przez pewien okres czasu
  • stosunek liczby nowych lub unikalnych stron związanych z dokumentem w porównaniu do całkowitej liczby stron pozwiązanych [tematycznie] z tym dokumentem
  • wartość średnią stopnia aktualizacji dokumentu w ciągu jednego lub większej ilości okresów czasu (np. n % z widocznej treści dokumentu może ulec zmianie w okresie t (np. ostatnie m miesięcy))
  • liczba zmian treści danego dokumentu w jednym lub większej ilości okresów czasu (np. w ciągu ostatnich x dni).

Według jednego z zastosowań, UA może być określona jako funkcja inaczej ważonych części treści dokumentu. Na przykład, zmiana zawartości może przy ustalaniu UA zostać uznana za mało ważną (lub nawet zignorowana) jeżeli dotyczy takich kwestii jak:

  1. kod JavaScript,
  2. komentarze,
  3. reklamy,
  4. elementy nawigacyjne,
  5. formularze,
  6. znaczniki daty i czasu

Z drugiej strony, zawartość uznaje się za ważną, jeżeli aktualizacje i zmiany (np. częstsze, świeższe, obszerniejsze, itp.) dotyczą takich elementów jak tytuł tekstu lub anchor text linków wychodzących, te elementy mogą mieć większą wagę przy określaniu UA.

…wszystko to może mieć stosunkowo małą wagę lub być nawet całkowicie ignorowane przy określaniu UA. Z drugiej strony, zawartość uznaje się za ważną, jeżeli aktualizacje i zmiany (np. częstsze, świeższe, obszerniejsze, itp.) dotyczą takich elementów jak tytuł tekstu lub anchor text linków wychodzących, te elementy mogą mieć większą wagę przy określaniu UA.

UF and UA may be used in other ways to influence the score assigned to a document. For example, the rate of change in a current time period can be compared to the rate of change in another (e.g., previous) time period to determine whether there is an acceleration or deceleration trend. Documents for which there is an increase in the rate of change might be scored higher than those documents for which there is a steady rate of change, even if that rate of change is relatively high. The amount of change may also be a factor in this scoring.

UF i UA mogą być wykorzystywane również do wywierania innego rodzaju wpływu na wynik przypisany do dokumentu. Na przykład, wskaźnik zmian w bieżącym okresie czasu można porównać do tempa zmian w innym (np. poprzednim), aby ustalić, czy istnieje przyspieszenie czy spowolnienie trendu. Dokumenty, dla których istnieje wzrost wskaźnika zmian mogą być wyżej niż te, które mają stałe tempo zmian, nawet jeżeli wskaźnik zmian jest stosunkowo wysoki. Wielkości zmian mogą również być czynnikiem w tej punktacji.

In some situations, data storage resources may be insufficient to store the documents when monitoring the documents for content changes. In this case, search engine may store representations of the documents and monitor these representations for changes. For example, search engine may store “signatures” of documents instead of the (entire) documents themselves to detect changes to document content. In this case, search engine may store a term vector for a document (or page) and monitor it for relatively large changes. According to another implementation, search engine may store and monitor a relatively small portion (e.g., a few terms) of the documents that are determined to be important or the most frequently occurring (excluding “stop words”).

W niektórych sytuacjach, zasoby przechowywania danych mogą być niewystarczające do przechowywania dokumentów w celu kontroli zmian treści. W takim przypadku wyszukiwarka może przechowywać reprezentacje dokumentów i oświadczenia do monitorowania tych zmian, na przykład, “cechy charakterystyczne” [sumy kontrolne ?] danych dokumentów. W takich warunkach wyszukiwarka może przechowywać wektor słów kluczowych dokumentu (lub strony) i monitorować go w momentach stosunkowo dużych zmian [supplemental index ?]. Zgodnie z innym zastosowaniem, wyszukiwarka może przechowywać i monitorować stosunkowo niewielką część (np. kilka słów kluczowych) z dokumentów, które są uznane za ważne lub najczęściej występujące (z wyłączeniem “stop words”).

Ostatnie fragmenty powyższego akapitu nawiązują do jednego z pytań zadanych Guglarzowi podczas naszego wywiadu:

Cezary Lech: – Czy Google indeksuje tylko część treści na stronach znajdujących sie w supplementalu? Podobno Google indeksuje tylko tzw. “ważne” słowa stron znajdujących się w Supplemental Index?

Kaspar Szymanski: W przeszłości Supplemental index był używany do nietypowych dokumentów, które pojawiały się na raczej niecodzienne zapytania. Z perspektywy webmastera, niższa frekwencja pobierania była główną różnicą pomiędzy Supplemental indeksem a naszym głównym indeksem. Inżynierowie z Google pracowali intensywnie nad rozwiązaniem tego problemu i zniwelowaniem różnic między indeksami, odnosząc sukces we wrześniu 2007. W chwili obecnej różnice są minimalne. Każdemu, kto by chciał wiedzieć więcej o tym, jak Google indeksuje i rankuje strony, polecam ten link :-)

Wracając do dalszych zapisów patentu…

For some queries, documents with content that has not recently changed may be more favorable than documents with content that has recently changed. […] In other words, search engine may determine a date when the content of each of the documents in a result set last changed, determine the average date of change for the documents, and modify the scores of the documents (either positively or negatively) based on a difference between the documents’ date-of-change and the average date-of-change.

Dla niektórych zapytań, dokumenty, których treść ostatnio się nie zmieniła mogą mieć bardziej korzystne pozycje niż dokumenty, których treść uległa zmianie. […] Innymi słowy, wyszukiwarka może określić ostatnią datę zmian w zawartości każdego z dokumentów w wynikach wyszukiwania, ustalić średnią datę zmiann w dokumentach i zmodyfikować ocenę dokumentu (pozytywnie lub negatywnie) bazując na różnicy pomiędzy datą ostatniej zmiany a średnią datą ostatniej zmiany dla wszystkich dokumentów.

Reasumując:
Dla niektórych zapytań treść stron z niezmieniającą się zawartością może być bardziej wartościowa niż treść często aktualizowana.

Analiza zapytań

Dział: DESCRIPTION – Query Analysis
Akapity: [0058] – [0065]

Zgodnie z założeniami patentu, istnieje nawet kilka algorytmów odpowiadających za dostosowanie wyników wyszukiwania do zapytania użytkownika np.:

…one query-based factor may relate to the extent to which a document is selected over time when the document is included in a set of search results. In this case, search engine might score documents selected relatively more often/increasingly by users higher than other documents.

– Google może podwyższać pozycje dokumentów które są częściej wybierane przez użytkwników.

…terms relating to a “hot” topic that is gaining/has gained popularity or a breaking news event would conceivably appear frequently over a period of time. In this case, search engine may score documents associated with these search terms (or queries) higher than documents not associated with these terms.

…further query-based factor may relate to a change over time in the number of search results generated by similar queries. A significant increase in the number of search results generated by similar queries, for example, might indicate a hot topic or breaking news and cause search engine to increase the scores of documents related to such queries.

– ten fragment może być wskazówką do niedawnych testów Jeża… który starał się wprowadzić nazwę firmy w miejsce sugerowanych i powiązanych z zapytaniem fraz.

…factor may relate to queries that remain relatively constant over time but lead to results that change over time. For example, a query relating to “world series champion” leads to search results that change over time (e.g., documents relating to a particular team dominate search results in a given year or time of year). This change can be monitored and used to score documents accordingly.

Streszczając: Wyniki jakie należy prezentować użytkownikowi na zapytania typu “world series champion” muszą się zmieniać w czasie wraz ze zmianą stanu faktycznego czyli np. zwycięscy rozgrywek sportowych w danym roku.

Kilka fragmentów w których Google przyznaję że ruch i CTR może mieć wpływ na wyniki wyszukiwań…

…another query-based factor might relate to the “staleness” of documents returned as search results. The staleness of a document may be based on factors, such as document creation date, anchor growth, traffic, content change, forward/back link growth, etc.

Wyraźnie wymieniony, szeroko pojęty ruch obok tak oczywistych czynników jak: wiek, anchor linków czy aktualizacja treści…

For some queries, recent documents are very important (e.g., if searching for Frequently Asked Questions (FAQ) files, the most recent version would be highly desirable). […] More specifically, search engine may consider how often users favor a more recent document that is ranked lower than an older document in the search results.

Dla części zapytań aktualność dokumentów może być szczególnie ważna (np. szukając działu FAQ “Najczęściej zadawanych pytań” aktualność będzie bardzo istotna). Wyszukiwarka może zwracać uwagę na to jak często bardziej aktualne dokumenty znajdujące się niżej w wynikach są częściej wybierane niż starsze dokumenty.

In some situations, a stale document may be considered more favorable than more recent documents. […] For example, if for a given query, users over time tend to select a lower ranked, relatively stale, document over a higher ranked, relatively recent document, this may be used by search engine as an indication to adjust a score of the stale document.

W niektórych sytuacjach starszy dokument może być bardziej faworyzowany niż ten aktualny. Na przykład, jeśli dla danego zapytania użytkownicy zdają się częściej wybierać stronę starszą i niżej notowaną niż aktualną stronę z czołówki, to może to zostać użyte przez wyszukiwarkę i może mieć wpływ na pozycje (Score Rank) dokumentu.

Tym samym Google potwierdza w tym patencie możliwy wpływ wyborów dokonywanych przez użytkowników na pozycje stron w wynikach wyszukiwań.

W dalszych częściach patentu Google znajdujemy jeszcze bardziej precyzyjne informacje… wybaczcie ale przestanę cytować gdyż artykuł rozrósł się już do monstrualnych rozmiarów… Dalej czyste sparafrazowane tłumaczenie:

Czynniki związane z linkowaniem

Dział: DESCRIPTION – Link-Based Criteria
Akapity: [0067] – [0080]

Google jest w stanie mierzyć wiele czynników wpływających na ocenę dokumentu i związanych z linkami, są to m.in.:

  • Daty pojawiania sie nowych linków do witryny/podstrony
  • Daty, w których linki do witryny/podstrony zniknęły
  • Zmieniające się w czasie zachowanie linków do danej strony oraz wszelkie powstałe w ten sposób trendy i “tendencje” np. czy strona w ogólnym rozrachunku ma więcej nowo powstałych linków, czy wręcz przeciwnie. Tendencja wskazująca na spadek ilości nowych linków może wskazywać, iż dany dokument jest „nieaktualny”, natomiast tendencja wzrostowa może wskazywać na jego potencjalną „świeżość”.
  • Google może sprawdzić ilość nowych linków do dokumentu powstałych w określonym czasie i porównać ją do ilości linków, które dokument otrzymał od daty swojego powstania. Może również ustalić wiek najstarszego z y% ostatnio stworzonych linków i porównać go do wieku pierwszego stworzonego linku”.
  • Google w patencie podaje przykład dwóch stron stworzonych 100 dni wcześniej:
  • Strona 1 – 10% linków powstało w ciągu ostatnich 10 dni
  • Strona 2 – 0% linków powstało w ciągu ostatnich 10 dni
  • Te dane mogą również zostać użyte żeby „przewidzieć czy dana strona przynależy do konkretnego typu (np. stron, które nie są już aktualizowane, stron z rosnącą lub malejącą popularnością, lub do stron zastąpionych itp.)”

Ocena świeżości samego linku może również zostać użyta przy ustalaniu pozycji stron/podstron. Kilka czynników może wpłynąć na „świeżość” linku:

  • Data pojawienia się
  • Data zmiany anchor tekstu
  • Data zmiany na stronie, na której znajduje się link
  • Data pojawienia się strony, na której znajduje się link
  • Google informuje, iż według nich link, który pozostaje niezmienny kiedy strona jest (w znaczącym stopniu) aktualizowana jest linkiem „dobrym i istotnym”

Inne czynniki oceniające link to:

  • Zaufanie do linku (Google w szczególności wspomina dokumenty rządowe jako te z przypisanym zwiększonym zaufaniem (np. domeny .gov))
  • Jaki autorytet i wiarygodność (Trust Rank) posiadają strony linkujące
  • Świeżość strony/podstrony – wspominają stronę domową Yahoo! jako tą gdzie linki często znikają i pojawiają się.
  • „Suma mocy (wagi) linków” kierujących do strony/podstrony może zostać użyta do zmiany pozycji. Google zmierzy świeżość strony na podstawie świeżości prowadzących do niej linków oraz świeżości stron, z których te linki pochodzą.
  • Rozkład linków w czasie również zostanie zmierzony, przeglądarka oceni łączną ilość powstałych linków do strony/podstrony w określonym czasie oraz to, kiedy one powstawały.

Google może użyć daty pojawienia się linku do „wykrywania spamu”, „gdy właściciele dokumentów lub ich koledzy tworzą linki do swoich własnych stron w celu uzyskania lepszych pozycji w wyszukiwarce”. Google twierdzi, iż na prawidłowych stronach/podstronach „linki zwrotne powstają stosunkowo wolno” i że „nagły wzrost liczby backlinków” może oznaczać albo „gorący temat” albo „próbę spamu”.

Google podaje stronę CDC po wybuchu paniki wokół SARS jako przykład „gorącego tematu”

Google wspomina 3 przykłady spamerskiego pozyskiwania linków – „wymianę linków”, „kupowanie linków” oraz „pozyskiwanie linków od dokumentów które nie posiadają jasno określonej ‘polityki linkowania’ „(na przykład księgi gości, referrery i „strony pozwalające dobrowolnie dodawać linki do dokumentu”)

Spadek liczby linków, które posiada dokument w określonym czasie może zostać użyty aby wskazać jego nieistotność i Google zaznacza, że w takim przypadku wyszukiwarka będzie przypisywać mniejszą wartość linkom wychodzącym z takich stron lub nawet je ignorować.

Dynamika (rotacyjność) zmian linków również jest mierzona i oceniana na podstawie tego jak konsekwentnie i systematycznie przypisywane są linki do danej strony. Google podaje przykład „wyróżnionych linków dnia” i zaznacza, linki takie także będą liczone i dokument będzie otrzymywać Score Rank wyznaczony na podstawie wszystkich linków zwrotnych (także tych rotujących). – “Google Page Rank jest obliczany w czasie rzeczywistym.”

Anchor Text

Google może użyć danych dotyczących anchor tekstu, żeby wyliczyć Score Rank dokumentu:

  • Zmiany w anchor tekście mogą wskazywać na „uaktualnienie lub zmianę tematyki” strony/podstrony.
  • Anchor text, który przestał być tematycznie związany ze stroną, do której się odnosi może zostać zlokalizowany i zignorowany w razie konieczności. Duże objętościowo zmiany w dokumencie spowodują sprawdzenie przez wyszukiwarkę powiązanych anchor tekstów i ocenę ich spójności z dokumentem.
  • Świeżość anchor tekstu może być wyliczona za pomocą:
  • Daty pojawienia się/zmiany anchor tekstu
  • Daty pojawienia się/zmiany strony, do której anchor tekst prowadzi
  • Daty pojawienia się/zmiany strony, na której znajduje się link
  • Google podkreśla, że data pojawienia się/zmiany strony, na której znajduje się link czyni anchor tekst „bardziej odpowiednim i lepszym”

Traffic – Ruch

Google może również ocenić ruch na stronie/podstronie i uwzględnić uzyskane dane przy wyliczaniu Score Rank dokumentu.

  • „Duży spadek ruchu na stronie może świadczyć o tym, iż przestała ona być aktualna”
  • Google może porównać średni ruch na stronie/podstronie przez ostatnie „j dni” (na przykład j=30) do średniego ruchu na stronie/podstronie przez ostatni rok, żeby sprawdzić czy strona w dalszym ciągu jest odpowiednia dla danego zapytania.
  • Google może również użyć sezonowości, żeby ocenić czy konkretna strona/podstrona jest bardziej/mniej odpowiednia dla zapytania podczas określonych okresów w ciągu roku.
  • Google może także zmierzyć tzw. “advertising traffic”:
  • „zakres oraz szybkość z jaką reklamy są prezentowane lub aktualizowane w danym dokumencie w określonym czasie”
  • „Jakość reklamodawców”. Google zaznacza, że reklamy takich firm jak Amazon.com będą obdarzane większym zaufaniem i oceniane wyżej niż reklamy np. „stron pornograficznych”.
  • „The click-through rate” (współczynnik klikalności) uzyskany z ruchu powstałego ze stron na których są reklamy.

User Behavior – Zachowania użytkowników

Google może mierzyć „sumarczyne zachowania użytkowników”. Można tu zaliczyć:

  • „Ilość razy jaką dokument jest wybrany spośród wyników wyszukiwania” (CTR w wynikach)
  • „Ilość czasu jaką jeden lub więcej użytkowników spędza na danej stronie/podstronie”
  • Względną „ilość czasu” poświęcaną na daną stronę/podstronę w prównaniu do średniej ilości czasu.
  • Google podaje przykład podstrony z rozkładem godzinowym pływalni, na której użytkownicy zazwyczaj spędzali 30 sekund, a ostatnio nie poświęcają tej podstronie więcej niż „parę sekund”.
  • Google twierdzi, że może o twskazywać, że podstrona „zawiera nieaktualny rozkład godzinowy pływalni” i Score Rank takiej strony zostanie obnizony.

Informacje powiązane z domeną

Informacje powiązane z domeną również moga zostać wykorzystane przez Google przy ocenie dokumentu. Wspomina się o kilku specyficznych rodzajach „informacji związanych z tym w jaki sposób dany dokument jest hostowany w sieci (Internecie, intranecie, itd.)” wliczając w to:

W patnecie Google zauważa że wartościowe domeny, są „często opłacane są na kilka lat z góry”, natomiast tzw. ’throwaway domains’ rzadko kiedy używane są dłużej niż przez rok”.

Rejestr z DNS może również zostać sprawdzony w celu ustalenia:

  • Kto zarejestrował domenę
  • Adresy i kontakt do admina oraz obsługi technicznej
  • Dane name serwerów
  • Stabilność hostowania danych (i firmy hostingowej) vs. duża ilość zmian

Google twierdzi, że może zostać użyta „lista znanych ‘złych’ informacji kontaktowych, name serwerów i/lub adresów IP”, żeby wykryć domeny spamerskie.
Google twierdzi że może wykorzystać również w podobny sposób informacje dotyczące konkretnych name serwerów:
„Dobry name serwer może zawierać mix różnych domen, różnych rejestratorów i posiadać historię hostowania tych domen, natomiast ‘zły’ name serwer będzie hostował głównie pornografie, doorway pages, Made for Adsense lub dużą ilość domen od jednego rejestrującego, może to być też zupełnie nowy name serwer.

Historia rankingu, pozycji strony

Google może zwracać uwagę na historię rankingu (pozycji) danej strony oraz dane z tym związane.
Między innymi:

  • Strona której „pozycja skacze przy wielu zapytaniach może oznaczać tematyczny dokument lub próbę spamu”
  • „Ilość lub tempo zmiany pozycji dokumentu w rankingu może wpłynąć na przyszłą ocenę tego dokumentu”
  • Strony mogą zostać ocenione w zależności od ich pozycji w wynikach wyszukiwania. Najwyższa pozycja zostaje w takim wypadku oceniona najlepiej, natomiast niższe pozycje odpoweidnio gorzej.
    Google używa równania:[((N+1)-SLOT)/N]Gdzie N=ilość wyszukiwań a SLOT to pozycja w rankingu ocenianej strony
    W tym równaniu 1-szy wynik ocenia się na 1.0 natomiast ostatni wynik otrzymuje ocenę bliską 0.
  • Google może sprawdzać w szczególności wyniki na „komercyjne zapytania” i dokumenty, które zyskają x% w rankingu mogą zostać oznaczone, lub uzyskany procent w rankingu może zostać użyty do określenia prawdopodobieństwa ryzyka spamu.
    Google może też monitorować:

  • „Ilość wejść z wyników wyszukiwania na daną stronę/podstronę w określonym czasie”
  • Sezonowość – wahania zachodzące w określonym czasie w roku/miesiącu
  • Nagłe zwiększanie się lub zmniejszanie liczby kliknięć
  • Inne dane oferowane przez CTR

Wskaźnik zmian w ocenach (score rank) dokumentów w określonym czasie może być mierzony, żeby określić czy szukany termin staje się bardziej konkurencyjny i czy potrzebna jest dodatkowa uwaga.
Google „może monitorować Score Rank dokumentów, żeby wykryć nagłe wzrosty w rankingu”. Takie wydarzenie, według patentu, może oznaczać „albo jakieś aktualne zjawisko np. ‘gorący temat’ albo próbę spamu”

Google może przeciwdziałać próbom spamu w następujący sposób:

    „Wykorzystując histerezę (opóźnienie w reakcji na czynnik zewnętrzny) umożliwić nagły wzrost lub spadek Score Rank do określonego (niezbyt dużego) tempa” – histereza w tym wypadku może oznaczać ‘podciąganie’ wyniku przy nagłym obniżeniu wskaźnika wzrostu.

  • Ograniczając „maksymalną wartość progową wzrostu w określonym czasie” dla danej strony/podstrony.
  • Google „weźmie również pod uwagę wzmianki i linki do strony umieszczane w notkach prasowych, artykułach, na forach i grupach dyskusyjnych itp. zakładając wysoką wiarygodność takich miejsc”

Pewne typy stron (Google w wspomina o „dokumentach rządowych, katalogach stron (np. Yahoo) oraz stronach z relatywnie stabilnym i wysokim Trust Rankiem”) mogą być zwolnione z dodatkowych obserwacji lub nakładanych kar w wypadku nagłych skoków w rankingu.
Google może „również odbierać ewentualne spadki w rankingu jako wskazówka, iż dane dokumenty przestały być popularne lub są nieaktualne”

User Generated Data

Google może również mierzyć różnego rodzaju dane gromadzone w komputerach użytkowników a dotyczące np. ulubionych i często odwiedzanych stron, w tym:

    • Lista bookmarków i ulubionych stron w przeglądarce
    • Google może pobierać te dane za pomocą takich „asystentów przeglądania” jak Toolbar’y i Desktop Search.
    • Dane mogą także pochodzić także bezpośrednio z przeglądarki – Google Chrome ?
    • Google może wykorzystać te dane do określenia w jakie strony są wartościowe dla użytkowników

Google chce również dokumentować to, które strony zostają dodane a które usunięte z bookmarków/ulubionych i wykorzystać to przy ocenie strony.
Google może również mierzyć jak często użytkownik wyświetla daną stronę/podstronę i oceniać czy wciąż jest odpowiednia dla danego użytkownika czy jest jedynie pozostałością przeszłych wyświetleń (teraz strona juz przestała być popularna lub jest nieaktualna)
„Pliki temp oraz cache powiązane z użytkownikami również mogą być monitorowane” przez Google tak aby zidentyfikować pewne zależności w odwiedzanych stronach i ocenić czy zainteresowanie daną stroną wzrasta czy maleje.

Unique Word, Bigrams, Phrases in Anchor Text

Google buduje równiez profil tego w jaki sposób pojawia sie anchor tekst do danej strony/podstrony, żeby wykryć spam. Zaznaczają, że „web graph” (wykres, wektor strony, wektor Page Rank ?) rozwijający się naturalnie zazwyczaj jest wypadkową indywidualnych decyzji, natomiast wektor strony generowany syntetycznie (często związany z próbami spamu) opieraja się na skoordynowanych działaniach. Różnice w obu schematach rozwoju mogą zostać zmierzone i użyte aby blokować spam.

Google zaznacza, że duże przyrosty „anchor words/bigrams/phrases” są głównym celem pomiarów. Według nich spam w tym kontekście to „dodawanie dużej liczby identycznych anchorów z wielu dokumentów”.

Linkage of Independent Peers

Google może użyć również danych dotyczących linków od „niezależnych peerów (np. dokumentów nie powiązanych” w celu sprawdzenia spamu. Twierdzą, iż „nagły wzrost peerów niezależnych… z dużą ilością linków… może wskazywać potencjalnie syntetyczny web graph, który jest wskazaniem próby spamu”. Google twierdzi, że „podejrzenie spamu może zostać wzmocnione jeśli wzrost powiązany jest z anchor tekstem, który jest nadzwyczajnie zgodny lub niezgodny” i mogą obniżyc znaczenie takich linków za pomocą ‘stałej ilości’ (fixed amount) lub ‘czynnika mnożącego’ (multiplicative factor) – co może być dodatkową karą za samo posiadanie takich linków.

Tematyka dokumentu

Określenie tematyki danej strony może zostać przeprowadzone przy użyciu:

  • Kategoryzacji
  • Analizy URL
  • Analizy zawartości
  • Clusteringu
  • Podsumowania
  • Zestawu unikalnych, rzadko spotykanych słów

Celem jest „monitorowanie tematu/-ów danego dokumentu w określonym czasie i użycie zebranych danych przy ocenie”.

Google zaznacza, że „nagły wzrost w ilości tematów może wskazywać spam” oraz, że znaczące zmiany w temacie moga wiązać się ze „zmianą właściciela strony i poprzednie cechy dokumentu, takie jak Score Rank, anchor tekst itp. nie są już wiarygodne.” Google podkreśla, że „jeśli wykryją jedną lub więcej takich sytuacji, zredukowany zostanie Score Rank takich dokumentów a wartość linków, anchor tekstu oraz innych danych zostanie obniżona”.

Jeśli w plikach pomocy Google czytamy że za pozycję w Google odpowiadać może nawet 200 czynników… to analizując powyższy patent już możemy doszukać się co najmniej 50-60 tego typu zmiennych decydujących o Score Rank naszej strony…

Chciałbym także zwrócić uwagę na nowy termin, który stotsujemy w tym artykule – Score Rank – czyli innymi słowy Real Page Rank… Myślę że używanie w tym kontekście słowa “Page Rank” za mocno piętnuje i kojarzy się z zielonym paskiem Google. Tymczasem Score Rank odnosi się do oceny dokumentu i w efekcie do pozycji w wynikach organicznych i naszym zdaniem Score Rank doskonale opisuje ideę dbania o dobre pozycje. Suma 200 czynników algorytmu Google (czyli m.in. także Page Rank) daje nam efekt w postaci Score Rank danego dokumentu na daną frazę.

Druga połowa tekstu jest głównie tłumaczeniem z SEOmoz.org… zachęcam także do zapozania się z oryginalną wersją patentu Google !
W tłumaczeniu pomagał nam Jacek Kubiak, dzięki.

Rozwinęła się ciekawa dyskusja na forum.optymalizacja.com, warto zajrzeć.

Na koniec, jeszcze raz prosimy o kopanie artykułu:
[wykop][/wykop]

Artykuł Patenty Google o SEO i pozycjonowaniu… pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Jak podnieść klikalność (SERP CTR) wyników organicznych?

Jakiś czas temu opublikowaliśmy na Sprawnym Marketingu artykuł o klikalności linków a także o ruchu i jego domniemanym wpływie na pozycje stron w wynikach organicznych. W dzisiejszym wpisie rozszerzamy temat dzieląc się swoimi przemyśleniami w tym zakresie…

Wpływ tytułu strony na klikalność wyników wyszukiwań…

 

Do napisania tego artykułu zmotywowały mnie m.in. dwa poniższe wpisy umieszczone na zachodnich blogach:
Does Google Use Click-Thru Rate (CTR) in their Organic Listings too? – Sphinn…
Does your CTR influence your Google rankings ?

Pytanie stawiane w artykułach brzmi:

Czy CTR w wynikach organicznych ma wpływ na pozycję w Google ?

Obydwa teksty logicznie konstatują, iż:

Jeśli jeden, konkretny wynik wyszukiwań ma klikalność znacznie wyróżniającą się na tle innych linków (odchylenie od średniej klikalności na tej pozycji) to wydaje się logiczne, iż algorytm powinien przesunąć dany wynik na wyższą pozycję – “To co dobre dla użytkowników jest dobre także dla Google”.

Warto pamiętać że podobnie działa algorytm AdRank w przypadku reklam Google AdWords
Poniższe dwa obrazki dobrze wizualizują ideę zagadnienia:

 

Tak wygląda normalny rozkład kliknięć w Google:
Normalny rozkład kliknięć w Google

Tak natomiast może wyglądać odchylenie od standardowego rozkład kliknięć:
Zakłócony rozkład kliknięć w Google
Pozycja numer 6 notuje zdecydowane odchylenie.

Czy w związku z tym Google przesunie taką stronę na wyższą pozycję ?

Test…

Bazując na tych przypuszczeniach kilka miesięcy temu mocno zmodyfikowaliśmy znacznik “Title” i “Description” strony www.GoldPosition.pl znajdującej się w tym okresie w pierwszej dziesiątce pod słowem kluczowym “Pozycjonowanie“.

Title i opis zaindeksowany i wyświetlany przez większość Data Center od 25 Maja 2008 to:
Opis i tytuł GoldPosition.pl po 25 maja 2008
W tytule celowo umieszczono “call to action” – w formie “Kliknij Tutaj”. W opisie oraz w tytule umieszczono także małe formy graficzne których zadaniem było ściągnięcie wzroku użytkownika i sprowokowanie do kliknięcia.

Celem było między innymi zweryfikowanie możliwego wpływu wzmożonej ilości kliknięć na wzrost pozycji… Niestety sposób działania wyszukiwarki Google znacznie utrudnił wyciąganiecie jakichkolwiek sensownych wniosków… należy pamiętać że:

  • strony codziennie zmieniają pozycje
  • pozycje są różne w zależności od data center
  • w wynikach ukazują się różne ilości reklam (także wyróżnione reklamy AdWords)
  • użytkownicy przeglądają wyniki w różnych rozdzielczościach w związku z tym linia przełamania ciągle się przesuwa
  • mała próbka danych – niska dzienna ilość kliknięć np. z frazy: “pozycjonowanie”

Czy mimo braków dowodów warto skupiać się na CTR wyników organicznych ?

 

Naszym zdaniem zdecydowanie tak… poszlaki są bardzo mocne… w tym miejscu pojawia się kolejny, mocno na zachodzie lasowany temat ewentualnego wpływu czynnika “Bounce Rate” na wyniki wyszukiwań… Zachęcam do lektury poniższych tekstów:
How the bounce rate of your website can affect your Google ranking
Is Google REALLY using bounce rates as a ranking signal?

Tworząc Title i Description dla witryny warto pamiętać o tych samych elementach które wykorzystujemy w kampanii Google AdWords… Zauważcie jednak że w wynikach organicznych mamy znacznie więcej możliwości…

Jak wpływać na CTR wyników organicznych ?

 

Screeny pochodzą z artykułu: “Google Window Dressing” – Max Capener.

  • Wtyczka Skype zamieniająca ciąg cyfr numeru telefonu w graficzny klikalny link:

Wtyczka Skype w GoogleTechnika stosowana m.in. przez pierwszemiejsce.pl np. na frazę: “pozycjonowanie”

  • Stosuj małe formy graficzne… tzw. encje html, zarówno w title jak i description:

Encje html w title description

  • Pamiętaj że maksymalna długość opisu strony to 155 znaków…

Dlugosc opisu strony

  • Ograniczaj długość opisu do jednej linii jeśli chcesz sprawić wrażenie przestrzeni lub wyróżnić się poprzez bardzo krótki opis strony…

opis strony

  • Site Links – rozszerzone linki w oczywisty sposób radykalnie wpływają na CTR (Site links można otrzymać także na trudne komercyjne fraz jak np. “NLP”)

Site Links linki wyroznione

  • Stosouj konkrety w opsie (cena, obietnica, promocja) lub wezwanie do akcji…

call to actrion w opisie strony

W tym miejscu warto zapoznać się ze wpisem na oficjalnym blogu Google poruszający tematykę polepszania tytułu i opisu strony –
Improve snippets with a meta description makeover.

Inne linki i zbliżone tematy…

Warto także odnieść się do tekstu na który zwrócił uwagę Bluerank na temat klikalności wyników wyszukiwań. Dane prezentowane w artykule pochodzą z wyszukiwarki AOL i zostały sporządzone na podstawie 36,389,567 wyszukiwań i 19,434,540 kliknięć. Jest to także kolejny dowód potwierdzający “Google Golden Triangle“:

Odsyłam was także do postu opisującego jakiego typu dane Google zbiera o nas i naszych stronach: Google user data collection. Pod powyższym linkiem można także zobaczyć pełne zestawienie źródeł z których Google pobiera dane o swoich użytkownikach. Na oficjalnych stronach Google możemy się natomiast dowiedzieć więcej na temat architektury serwerowej na której Google przetrzymuje wspomniane petabajty danych… Big Table.

Aktualizacja: Klikalność (CTR) wpływa na pozycje w Bing

Podczas konferencji SMX Bing potwierdził, że bierze CTR (click through rate) pod uwagę ustalając ranking wyników. Według Steve’a Tullis’a jest to jeden z wielu czynników wpływających na pozycjonowanie w Bing, który może zadecydować o obniżeniu pozycji wyników o wyjątkowo małej klikalności.

Barry Schwartz z SearchEngineLand.com pisze:

I then submitted a follow up question:

Q) Do you use CTR as a factor? A) Google said it might be used for user behavior testing, but implied not in the ranking algo.

Bing said if things in the search results that do not get clicked on they will likely lower the ranking. So yes, Bing uses CTR in ranking algo.

Przypomnijmy, że znaczny wpływ na klikalność wyników wyszukiwania ma opis strony, który w przypadku wyszukiwarki Bing pobierany jest z jednego z 3 źródeł:

  • z metatagu “description”;
  • z treści strony (im wyżej początku kodu znajdzie się najważniejsza treść, tym lepiej);
  • z wpisu w katalogu dmoz.org.

Więcej informacji: Bing Uses Click Through Rate In Ranking Algorithm

 

Jakie są wasze doświadczenia ze zwiększaniem CTR w wynikach ?

Artykuł Jak podnieść klikalność (SERP CTR) wyników organicznych? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Złoty Trójkąt Google, czyli psychologia wyszukiwania. Wyniki badania eye-tracking

Ostatnio przeglądając zagraniczne blogi i serwisy poświęcone marketingowi internetowemu trafiłem na oficjalną stronę Google: “Full Value of Search” pod nieco dziwnym jak na Google adresem: www.full-value-of-search.de. Strona jest w języku niemieckim co nieco utrudnia przyswojenie wszystkich informacji. Z prezentacji prezentowanych na tej witrynie najbardziej zainteresowały mnie slajdy dotyczące sposobu percepcji wyników wyszukiwań przez ludzkie oko. Temat Google Golden Triangle (Złoty Trójkąt Google) i badań Eye Trackingowych jak dotąd nigdy nie był poruszany na Sprawnym Marketingu… a temat wydaje się bardzo ciekawy…

 

Tak prezentuje się wzorcowy i znany od dawna model tzw. Google Golden Triangle:
Google Golden Triangle - Złoty Trójkąt Google

Zapytanie pierwsze i drugie

Bardzo interesujące wydają się być slajdy ukazujące różnicę w postrzeganiu wyników wyszukiwań między pierwszym wyszukiwaniem a drugim wyszukiwaniem wykonanym po niesatysfakcjonujących wynikach pierwszego zapytania:

Pierwsze zapytanie skierowane do wyszukiwarki…
Pierwsze wyszukiwanie wyniki Eye Tracking

…i drugie zapytanie po wcześniejszych niesatysfakcjonujących wynikach:
Drugie wyszukiwanie wyniki badania Eye Tracking

Jak widać wyniki na drugie zapytanie są zdecydowanie bardziej szczegółowo przeglądane podczas gdy pierwsze wyniki były bardzo zbliżone do wzorcowego modelu.

Top 10 czy Top 3 ?

Eye tracking dla zapytania informacyjnego:
Zapytanie informacyjne - Google Golden Triangle

Wyniki badania eye tracking dla zapytania zakupowego/transakcyjnego:
Zapytanie zakupowe - Eye tracking Google

Analizy przedstawione przez Google powinny mieć wpływ także na wasze prognozy, biznes plany i wszelkie założenia w których uwzględniacie ruch z Google na waszych witrynach… Okazuje się, iż profil waszej witryny powinien determinować także działania w zakresie pozycjonowania i SEO. I tak jak serwisy produktowe typu Allegro.pl czy Marketeo.com mogą sobie pozwolić na obecność na dalszych miejscach pierwszej dziesiątki wyników wyszukiwań o tyle wszelkie serwisy informacyjne powinny już walczyć o Top 3 lub nawet Top 1!

Kolejne pytanie pozostawione bez odpowiedzi to: Na ile fakt, iż zapytania informacyjne (np. “jaką prędkość może rozwinąć rekin”) koncentrują wzrok głównie na pierwszej pozycji wynika z dominacji Wikipedii na tego typu zapytania inforamcyjne… ? Czy podświadomie oczekujemy, iż: jak to kiedyś Tomek powiedział w wywiadzie dla TV Biznes użytkownik …chce znaleźć rozwiązanie swojego problemu szybko! Natychmiast !.

Ilość słów w zapytaniu

W dalszych slajdach można znaleźć informacje mniej więcej zbieżne z tym o czym pisał jakiś czas temu Mariusz Gąsiewski odnośnie ilości słów z jakich składają się zapytania:

Ilość słów z jakich składają się zapytania kierowane do Google

Takie dane w tym zakresie publikuje Google:
Ilość słów w zapytaniach kierowanych do Google

Warto też zwrócić uwagę na komentarz Mariusza:

Trzeba mieć również na uwadze, że długi ogon, a długi ogon słów sprzedażowych to dwie różne sprawy.

Ciekawe badanie: rozszerzenia wyników przyciągają wzrok Internautów i podnoszą CTR

Choć intuicyjnie to oczywiste, dobrze jest uzyskać naukowe potwierdzenie przeczuć: rozszerzenia wyników (rich snippets) mocno przyciągają wzrok internautów, a zatem prawdopodobnie podnoszą CTR wyniku. Jak dowodzą hiszpańscy naukowcy, którzy przebadali 58 osób (!!!) techniką eyetrackingową, rozszerzenia wyników przyciągają znacznie więcej uwagi internautów niż tytuł, opis i URL.

Dla przypomnienia, rozszerzenia wyników widoczne są w wynikach wyszukiwania, na poziomie każdego wyniku, zwykle pod [title], np.:
rich-snippet-recenzje

Rozszerzenia mogą rozwijać wyniki dotyczące:

  • przepisów kulinarnych (jak widać na powyższym zrzucie),
  • ludzi,
  • wydarzeń,
  • recenzji,
  • filmów wideo.

Prezentowaliśmy już na Sprawnym pełną galerię rozszerzeń wyników.

Hiszpanie sprawdzili ruchy gałek ocznych 58 osób (obu płci, w różnym wieku). Poproszono je najpierw o wykonanie zapytania (zapytania dotyczyły informacji, multimediów, zakupów i adresów stron), a następnie przy użyciu aparatury eyetrackingowej sprawdzono na jakich elementach strony wyników najdłużej zatrzymywał się ich wzrok. Zapytania kierowane były do Google i Yahoo! (zarówno do wyszukiwarki “standardowej”, jak i wyszukiwarki obrazków), a każdy z 58 badanych wykonał 22 zapytania.

Wyniki przedstawiono w tabeli:
eyetracking rich snippets

Jak widać, dla zapytań o informacje opis (snippet) przykuwał wzrok internautów na ponad połowę czasu (!), podczas gdy [title] na ok. 1/3 czasu, a URL – tylko na 13%. Jeszcze większą uwagę snippet przykuwa dla zapytań transakcyjnych (56%), a najmniejsze znaczenie ma dla zapytań o multimedia.

Tak wygląda heatmapa i kierunki podążania gałek ocznych dla poszczególnych rodzajów zapytań:
serps eyetracking

Badanie zostało przeprowadzone przez dwójkę Hiszpanów, Mari-Carmen Marcos i Cristinę González-Caro z barcelońskiego uniwersytetu Pompeu Fabra. Tutaj pełny tekst raportu(PDF) dla osób znających hiszpański, a tutaj szersze omówienie badania w języku angielskim.

Krótkie wprowadzenie w techniczną stronę wzbogacania swoich wyników o rich snippets znajdziesz w naszym kwietniowym artykule Nowe rich snippets już w Google.pl. Jak z nich skorzystać?

Na wspomnianej witrynie Google, znajdują się także informacje na takie tematy jak:

  • Różnica między zapytaniami nawigacyjnymi a produktowymi ?
  • Czego szukamy ? Czyli jakie są tematy zapytań kierowanych do Google ?
  • Bounce Rate, Page Impressions dla źródła ruchu jakim jest Google.

I wiele wiele innych…

Aktualizacja: Rich Snippets podnoszą CTR

Choć intuicyjnie to oczywiste, dobrze jest uzyskać naukowe potwierdzenie przeczuć: rozszerzenia wyników (rich snippets) mocno przyciągają wzrok internautów, a zatem prawdopodobnie podnoszą CTR wyniku. Jak dowodzą hiszpańscy naukowcy, którzy przebadali 58 osób (!!!) techniką eyetrackingową, rozszerzenia wyników przyciągają znacznie więcej uwagi internautów niż tytuł, opis i URL.

Dla przypomnienia, rozszerzenia wyników widoczne są w wynikach wyszukiwania, na poziomie każdego wyniku, zwykle pod [title], np.:
rich-snippet-recenzje

Rozszerzenia mogą rozwijać wyniki dotyczące:

  • przepisów kulinarnych (jak widać na powyższym zrzucie),
  • ludzi,
  • wydarzeń,
  • recenzji,
  • filmów wideo.

W kwietniu prezentowaliśmy już pełną galerię rozszerzeń wyników.

Hiszpanie sprawdzili ruchy gałek ocznych 58 osób (obu płci, w różnym wieku). Poproszono je najpierw o wykonanie zapytania (zapytania dotyczyły informacji, multimediów, zakupów i adresów stron), a następnie przy użyciu aparatury eyetrackingowej sprawdzono na jakich elementach strony wyników najdłużej zatrzymywał się ich wzrok. Zapytania kierowane były do Google i Yahoo! (zarówno do wyszukiwarki “standardowej”, jak i wyszukiwarki obrazków), a każdy z 58 badanych wykonał 22 zapytania.

Wyniki przedstawiono w tabeli:
eyetracking rich snippets

Jak widać, dla zapytań o informacje opis (snippet) przykuwał wzrok internautów na ponad połowę czasu (!), podczas gdy [title] na ok. 1/3 czasu, a URL – tylko na 13%. Jeszcze większą uwagę snippet przykuwa dla zapytań transakcyjnych (56%), a najmniejsze znaczenie ma dla zapytań o multimedia.

Tak wygląda heatmapa i kierunki podążania gałek ocznych dla poszczególnych rodzajów zapytań:
serps eyetracking

Badanie zostało przeprowadzone przez dwójkę Hiszpanów, Mari-Carmen Marcos i Cristinę González-Caro z barcelońskiego uniwersytetu Pompeu Fabra. Tutaj pełny tekst raportu(PDF) dla osób znających hiszpański, a tutaj szersze omówienie badania w języku angielskim.

Krótkie wprowadzenie w techniczną stronę wzbogacania swoich wyników o rich snippets znajdziesz w naszym kwietniowym artykule Nowe rich snippets już w Google.pl. Jak z nich skorzystać?

 

Aktualizacja 2: internauci nie zauważają wyników real-time

wyniki eyetrackingu na okoliczność postrzegania wynikow realtime
Zajmująca się marketingiem internetowym firma OneUpWeb przeprowadziła badanie w celu sprawdzenia wpływu wyświetlanych przez Google wyników real-time na postrzeganie SERP-ów. Badanie przeprowadzono na 44 osobach, które podzielono na dwie grupy: “konsumentów” i “poszukiwaczy informacji”. Każda z grup dostała do wykonania inne zadanie:

“Konsumenci” dostali zadanie znalezienia produktu, który mogliby chcieć kupić. “Poszukiwaczom informacji”, jak nazwa wskazuje, powiedziano by po prostu poszukali informacji o produkcie.


Przeprowadzone w lutym badanie przynosi odpowiedzi na pytania:

  • czy przeciętny internauta rozpoznaje i rozumie ideę wyników real-time?
  • czy konsumenci znajdują i klikają w wyniki real-time?
  • co konsumenci ogólnie myślą o wynikach real-time?

Wyniki:

  • 73% badanych nie słyszało wcześniej o wynikach real-time,
  • tylko co czwarty “konsument” zwrócił uwagę na wyniki real-time. Wśród “poszukiwaczy informacji” odsetek ten wyniósł 47%,
  • większość badanych deklarowała obojętny stosunek do wyników real-time.

W jakim wieku byli badani?

wykres: jaki jest rozkład wieku pytanych o wyniki real-time

Poniżej zrzuty ekranowe pokazujące na co patrzyły obie grupy. Zwróć uwagę, że jedyną różnicą między grupami było zlecone im zadanie. Wyniki real-time znajdują się u dołu obu screenów i zostały wzięte w ramkę:

wyniki badania eyetrackingowego: jak poszczególne grupy widzą real-time
wyniki badania: co zrobiłeś po zobaczeniu wyników realtime

Cytowane badanie było w rzeczywistości bardziej złożone, niż przedstawiłem to w tym krótkim podsumowaniu. Badanie zdaje się wskazywać, że wyniki real-time mają ograniczony wpływ na internautów. Chociaż branża huczy na temat real-time’u, zwykli internauci nie rozumieją go lub nie zauważają.

 

Aktualizacja 3: potwiedzamy przewagę wyników organicznych

Z badań opublikowanych przez User Centric (wygrzebał je niedawno Mirek Połyniak), wynika, że wzrok szukających zawsze pada na wyniki organiczne, ale na boczne reklamy – już zdecydowanie rzadziej. Lepiej jest z linkami sponsorowanymi umieszczanymi powyżej organika – te są zwykle dostrzegane, ale koncentracja na nich trwa krótko. Oto szczegóły badania.
Badanie wykazało, że na wynikach organicznych spoczął wzrok 100% badanych. Pozostałe elementy strony wyników wyszukiwania nie były już dostrzegane przez wszystkich, np. linki sponsorowane umieszczone nad wynikami organicznymi dostrzegło 91% badanych, natomiast linki sponsorowane po prawej stronie – tylko 28% badanych! Na umieszczone po lewej stronie menu z wyszukiwarkami wertykalnymi i opcjami zawężania wyników spoczął wzrok zaledwie 17% badanych.

Jak widać na powyższym wykresie, znamienny jest też rozkład czasu, przez który badani patrzyli na poszczególne elementy SERP-ów. Najwięcej czasu poświęcali oczywiście wynikom organicznym – średnio 14,7 sekundy. Linki sponsorowane nad wynikami organicznymi, choć dostrzegane przez zdecydowaną większość (patrz wyżej), to jednak tylko przelotnie – badani poświęcali im średnio mniej niż sekundę (0,9s)! Linki sponsorowane po prawej stronie organika przyciągały wzrok badanych średnio na 1/6 sekundy (0,16s). Nieliczni użytkownicy, którzy dostrzegli menu po lewej stronie, oglądali je relatywnie długo – aż 1,2 sekundy.

Wniosek: SEO ma olbrzymią przewagę nad PPC w zakresie budowania świadomości marki, “opatrzenia” klientów z reklamowanym brandem. Dalej idące wnioski (np. w zakresie skuteczności w pozyskiwaniu konwersji) można wyciągać wyłącznie w oparciu o wyniki konkretnych kampanii.

image-Bing v Google 2011

Przy okazji dowiedzieliśmy się, że tylko 2/3 wyszukań dokonywanych w Google’u kończy się kliknięciem w którykolwiek z wyników. Mogłoby to oznaczać, że wyniki dla ok. 1/3 zapytań nie spełniają oczekiwań szukających tak dalece, że potrafią oni to stwierdzić jeszcze na poziomie SERP-ów. Bing i Yahoo chwalą się wyraźnie wyższymi “Success rate”, na poziomie ok. 81%. Czy to znaczy, że Yahoo! i Bing dostarczają bardziej satysfakcjonujących wyników? Niekoniecznie; Google jest dla wielu wyszukiwarką domyślną, używaną dużo częściej niż konkurencja, wyszukiwarką, do której standardowo wprowadza się wiele nie do końca przemyślanych, codziennych zapytań.

[Wykres wzięliśmy z eMarketer.com]

 Artykuł napisany we współpracy z Maciejem Janasem.

Artykuł Złoty Trójkąt Google, czyli psychologia wyszukiwania. Wyniki badania eye-tracking pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Ekskluzywny wywiad z polskim pracownikiem Google o pozycjonowaniu

Ponad rok temu niektórzy blogerzy (pozycjonerzy) w akcie irytacji na kolejne bany i tzw. koniec katalogów stron, intensywnie go szpiegowali. Na forum Google dla webmasterów też regularnie powtarzają się pytania o jego osobę – Kim jest Guglarz? Kim jest tajemniczy pracownik Google?

Redakcji Sprawnego Marketingu udało się przeprowadzić ekskluzywny wywiad z najbardziej znanym polskim członkiem zespołu Google Search Quality Team z Dublina. Wywiad był dodatkowo autoryzowany przez Matt’a Cutts’a oraz innych wysokich rangą przedstawicieli Google. Prezentujemy więc pierwszy polski wywiad z pracownikiem Google odpowiedzialnym za jakość wyników wyszukiwań. Będzie dużo o pozycjonowaniu często bardzo szczegółowo…
Zapraszamy do lektury…


[wykop][/wykop] Będziemy wdzięczni jeśli w ramach docenienia naszej pracy wykopiesz ten artykuł.

 

Sylwetka Guglarza

Googler (Guglarz) Kaspar Szymanski
Guglarz (Googler) – Kaspar Szymanski

Guglarz jest autorem kilku wpisów na oficjalnych blogach Google. Odpowiada m.in. za koniec katalogów stron, przedstawiał nam także wytyczne na temat linkowania lub sposobów zgłaszania SPAMu.

W powszechnej świadomości pozycjonerów Guglarz odpowiada za większość “katastrof” w polskich SERP’ach. Poniżej odpowiedzi Guglarza na szereg trudnych pytań.

 

Wywiad z Guglarzem

 

Cezary Lech: Występujesz jako Guglarz, możesz się nam przedstawić z imienia i nazwiska?


Guglarz: Myślałem, że to pytanie padnie :-) Nazywam się Kaspar Szymanski. Polską Grupę Dyskusyjną Google dla Webmasterów monitoruję jako Guglarz. Na blogach Google regularnie staram się pomagać webmasterom pod pełnym imieniem i nazwiskiem.

Cezary Lech: Za co odpowiadasz w Google?

Kaspar Szymanski: Pracuję w Google w zespole Search Quality. Przede wszystkim staram się zapobiegać pojawianiu się spamu w wynikach, aby nasi użytkownicy nie byli na niego narażeni. Takie jest moje główne zadanie. Komunikacja z webmasterami, w szczególności z europejskimi, jest również ważnym elementem mojej pracy. Dla zainteresowanych Udi Mamber niedawno napisał więcej na ten temat. Jeżeli chodzi o komunikację z webmasterami, chciałbym się podzielić kilkoma szczegółami dotyczącymi naszych wysiłków.

Od około dwóch lat zespół Search Quality w Dublinie ma udział w staraniach Google w nawiązaniu dialogu z webmasterami w ich rodzimych językach. W chwili obecnej, ja i mój zespół wspieramy kilka kanałów komunikacyjnych w szesnastu językach. Wspomniałem już o grupach dyskusyjnych, które monitorujemy. Odpowiadamy za Google Blog dla Webmasterów w języku niemieckim oraz mamy wkład w polski, angielski, francuski, hiszpański, włoski, rosyjski oraz turecki blog.

Od niedawna publikujemy również edukacyjne klipy video dla webmasterów. Moi koledzy Rebecca i Alvar zainicjonowali je w języku hiszpańskim. Dotychczasowy odzew ze strony społeczności webmasterów był bardzo pozytywny :-)

Z największym entuzjazmem podchodzę do bezpośredniej komunikacji z webmasterami – na konferencjach oraz Dniach Google. Podczas imprez takich jak SMX czy SES mamy okazje dowiedzieć się, z czym aktualnie borykają się użytkownicy oraz w jakim zakresie musimy poprawić komunikację z webmasterami. Ta forma bezpośredniej komunikacji sprawia mi największą przyjemność. Niestety, dotychczas nie mieliśmy okazji wziąć udziału w żadnej konferencji w Polsce. Sądzę jednak, że do końca roku znajdzie się taka możliwość.

CL: Jak dostałeś się do pracy w Google i w którym biurze Google pracujesz?

KS: Dwa i pół roku temu, po dłuższym pobycie poza Europą, gdzie pracowałem dla firmy komunikacyjnej, szukałem innego miejsca i nowego wyzwania zawodowego. Przypadkowo znalazłem nieco tajemniczo opisaną, jednak ciekawie brzmiącą ofertę pracy. Po złożeniu aplikacji wszystko potoczyło się szybko, przeszedłem proces rekrutacyjny i jakiś miesiąc po nawiązaniu pierwszego kontaktu Google sprawiło mi najlepszy prezent gwiazdkowy: ofertę pracy w Dublinie w europejskiej centrali tej wyjątkowej organizacji :-)

CL: Jak się czujesz w roli pogromcy polskich katalogów i jednocześnie twórcy pierwszego wpisu w języku polskim na oficjalnym blogu Google Webmaster Tools?

KS: Odnośnie Twojego pierwszego pytania, muszę przyznać, że nie byłem świadom, że mam tak groźną reputację! :-) Sądzę, że masz na myśli jeden z moich postów z zeszłego roku. Doszliśmy wtedy do wniosku, że musimy się jasno dla polskich webmasterów wypowiedzieć odnośnie skopiowanych treści. Kopiowanie treści, na przykład z katalogów i dodawanie ich do tematycznie niepowiązanych, ubogich w oryginalną treść stron nie jest postrzegane przez Google jako metoda white hat. Z perspektywy czasu stwierdzam, że było to właściwe posunięcie, ponieważ otrzymywaliśmy coraz więcej skarg dotyczących tej właśnie metody. Nie zrozum mnie źle proszę: uważam, że tematyczne, moderowane katalogi mogą być świetną metodą podwyższania wartości strony dla użytkowników. Niestety, niektórzy nadużywali dobre katalogi, jak na przykład DMOZ, aby sztucznie zwiększać ilość treści na własnych lub na stronach ich klientów. W konsekwencji niewielkie strony z unikalną treścią nagle rosły o kilkaset lub nawet kilka tysięcy tematycznie niepowiązanych dokumentów. Nasi użytkownicy nie byli zachwyceni widząc te strony w wynikach. Nie byli również zachwyceni właściciele stron po tym, jak te zostały tymczasowo usunięte z wyników Google w konsekwencji korzystania ze spamerskich metod. W końcu Matt Cutts i zespół Search Quality zdecydowali, że musimy uświadomić webmasterów, z czym może się używanie skopiowanych treści wiązać. Były to więc kroki podjęte wspólnie, a nie inicjatywa jednej osoby, więc nie widzę siebie w roli pogromcy katalogów.

Co do Twojego drugiego pytania, to nie wiedziałem również, że jako pierwszy pisałem po polsku na Blogu Google dla Webmasterów : -) Dziękuje za tę informację! Bardzo mi milo z tego powodu. Sądzę, że dialog z webmasterami w ich rodzimych językach jest bardzo ważny dla obu stron, ponieważ zarówno Google jak i osoby tworzące serwisy internetowe mogą na nim tylko skorzystać.

CL: – Czy ostatnie wzmożone działania Google, mające na celu usunięcie stron o wątpliwej jakości z indeksu wyników wyszukiwań są także formą walki z systemami automatycznej wymiany linków?

KS: Zawsze zwalczaliśmy metody black hat SEO, niezależnie od tego, które masz na myśli. Jak zapewne pamiętasz, na forum grupy oraz na Blogu Google dla Webmasterów przedstawialiśmy perspektywę Google na systemy linkowania. Ponieważ dla Google linki przedstawiają rodzaj rekomendacji treści strony, systemy linkowania oraz sprzedaż i zakup linków, które przekazują PageRank, wychodzą poza nasze Porady dla Webmasterów. Oczywiście każdy webmaster może budować strony tak, jak mu się podoba i linkować w taki sposób, jaki mu opowiada. Pamiętaj jednak proszę, że Google również ma prawo do ochrony użytkowników, jak i utrzymywania jakości swojego indeksu. Webmasterzy, którzy chcą, aby ich strony rozwijały się w indeksie Google, mają możliwość oceny swoich strategii linkowania z perspektywy Porad Google dla Webmasterów. A kto nie jest w 100% pewien, może dołączyć do Grupy Pomocy dla Webmasterów. Jest tam wiele pomocnych i mądrych osób, oraz Guglarz, monitorujący grupę i dorzucający czasami swoje 3 grosze ;-)

CL: – Czy Google zamierza ukrywać prawdziwą ilość zaindeksowanych podstron, tak jak ma to miejsce w przypadku wyników na komendę “link:”? Jeśli tak, to czy w Google Webmaster Tools macie zamiar dodać taką funkcjonalność?

KS: Wspólnie z moją koleżanką Juliane opublikowałem w maju post na polskim Blogu Google opisujący operatory “site:” i “link:”. Zasadniczo, wpisując operator “link:” przed nazwą strony otrzymuje się przykład linków prowadzących do tej witryny. Jeśli sprawdzimy prowadzące linki do zweryfikowanej strony w Narzędziach Google dla Webmasterów, to zobaczymy ich znacznie więcej, jednak nadal nie wszystkie. Powodem, dla którego wyświetlone rezultaty przy użyciu “site:” mogą się zmieniać jest asynchroniczna sekwencja aktualizowania Google Data Centrum. W zależności od ruchu i lokalizacji Google Data Centrum zwraca rezultaty generowane na różnych pozycjach w różnym czasie.

CL: – Ostatnio team pod kierownictwem Matt’a Cutts’a wprowadził zmiany do wytycznych dla webmasterów. Mimo wyjaśnienia wielu kwestii część webmasterów cały czas spiera się między innymi o parametr nofollow… Czy możesz nam wyjaśnić, czy używanie nofollow na wewnętrznych linkach sprzyja poprawie linkowania wewnętrznego i kierowaniu przepływem PageRank?

KS: Spotkałem się z webmasterami niemal obsesyjnie usiłującymi aktywnie kierować przepływem PageRank na ich stronach. Pozwól, że rozwinę temat: jest kika sposobów, którymi webmasterzy mogą kierować przepływem PageRank na ich stronach. Można zaopatrywać linki w <rel =”nofollow”> lub używać <meta content=”nofollow”> lub robots.txt w odniesieniu do całej strony. Webmasterzy mogą w ten sposób promować konkretne działy swoich stron, należy jednak pamiętać, że linki zaopatrzone w nofollow nie są uwzględniane przez Google, więc trzeba je wybierać z rozwagą.

Z jednej strony sądzę, że przykładowo “nofollowanie” linka do strony administracyjnej bloga ma sens, ponieważ Googlebot nie będzie się logował. Z drugiej, taki krok może zwiększyć poziom bezpieczeństwa serwisu. Natomiast “nofollowanie” przykładowo strony “O nas”, wychodząc z założenia, że użytkownicy nie są zainteresowani tą informacją lub dlatego, że są bardziej pożądani w sekcji z produktami jest krokiem, który bym głęboko rozważył. Podkreślam, że aktywne kierowanie przepływem PageRank używając <nofollow> jest dozwolone, ale zapewne nie jest to najlepsze wykorzystanie czasu dla SEO.

 CL: – Czy faktem jest, że w momencie gdy mamy dwa linki prowadzące do dokładnie tego samego adresu i w kodzie strony pierwszy z nich będzie oznaczony atrybutem nofollow, a drugi będzie bez tego atrybutu, to Google nie podąży za żadnym z tych linków? 

KS: Jak wiesz algorytmy Google są bez przerwy aktualizowane i wykorzystują dużą ilość sygnałów w celu określenia powiązań między stronami. Ponieważ jedyną stałą jest ewolucja, nie skupiałbym się za bardzo na detalach, które mogą się z biegiem czasu zmienić. Nasza intencja wyszukiwania i indeksowania oryginalnej treści natomiast się nie zmieni. Oczywiście webmasterzy mogą przeprowadzać eksperymenty w celu sprawdzenia aktualnej sytuacji pod tym kątem.

(red. Test już przeprowadziliśmy – wyniki wkrótce ;))

CL: – Czy pozycjonowanie to SPAM?

KS: Nie, white hat SEO to nie jest spam. W Centrum Pomocy dla Webmasterów niedawno dodaliśmy artykuł, w którym jest opisana perspektywa Google dotycząca SEO oraz kilka porad dla właścicieli stron jak znaleźć white hat pozycjonera.

CL: – Jak definiujesz SEO, pozycjonowanie?

KS: Mieliśmy kiedyś dyskusję na ten temat na forum Grupy Pomocy dla webmasterów. Sądzę, że każdy ma indywidualną perspektywę. Z tego, co obserwuję w Europie, ale nie tylko, SEO i SEM stają się coraz częściej elementami portfolio doradców. Podstawową różnicą, którą należy mieć na uwadze, są wyniki naturalnego wyszukiwania w przypadku SEO, kontra płatnym w przypadku SEM. Osobiście nie mam żadnej wyrafinowanej definicji SEO, ale myślę, że jeżeli ktoś ulepsza dostępność witryny dla botów oraz zwiększa jej widoczność dla wyszukiwarek to taka osoba zajmuje się SEO. Oczywiście dobry SEO potrafi zrobić więcej w celu podniesienia rankingu strony np. w zakresie dostępności oraz technicznych ulepszeń.

CL: – Czy Polscy Quality Raters czytają także Spam reporty?

KS: Niestety, nigdy nie miałem okazji porozmawiać z żadnym polskim Quality Rater, więc nie mogę ani potwierdzić, ani zaprzeczyć temu stwierdzeniu. Domyślam się, jakim zainteresowaniem musi się cieszyć zespół od zwalczania spamu w Google w świecie SEO. Pozwól, że wykorzystam okazję i wyjaśnię, że zespół Quality Rater oraz zespół Search Quality to dwie odrębne grupy. Jeżeli chcesz wiedzieć, czy ja lub koledzy z mojego zespołu czytają raporty spamu to odpowiedź jest tak, robimy to.

CL: – Czy blokując dostęp robotowi Google do swojej strony blokuje dostęp wszystkim rodzajom robotów Google? Także robotom AdSense i robotom wyliczajacym Quality Score dla reklam AdWords?

KS: Korzystając z robots.txt można blokować roboty indywidualnie. Jeżeli ktoś chce brać udział w programie AdSense jako wydawca, jednak bez udostępniania swojej witryny innym botom, wystarczy dodanie następujących dwóch linijek kodu do pliku robots.txt:

User-agent: Mediapartners-Google
Disallow:

Należy jednak mieć na uwadze, że żadne zmiany wprowadzone w pliku robots.txt nie będą uwzględnione w naszym indeksie, dopóki bot ponownie nie odwiedzi serwisu.

To samo odnosi się do AdsBota AdWords, naszego automatycznego systemu przeglądania stron docelowych. Należy pamiętać, że w celu uniknięcia podwyższenia CPC dla reklamodawców, którzy nie zamierzają ograniczać AdWords na swoich stronach, system ignoruje ogólne wykluczenia (User-agent: *) w pliku robots.txt.

Ponieważ ja mam bardziej do czynienia z naturalnymi wynikami, a nie reklamami, podejrzewam, że w Centrum Google dla Webmasterów znajdziesz więcej przydatnych informacji.

CL: – Czy stosując tag <noarchive> Google wyłącza podstronę z indeksacji lecz dalej podąża za linkami i przekazuje dalej PageRank linkom obecnym na tej podstronie?

KS: Mówiąc ogólnie, Googlebot przemierza stronę zaopatrzoną atrybutem <meta content=”noarchive”> w ten sam sposób jak stronę bez tego atrybutu. Różnica polega na tym, że takie strony są wyświetlane w wynikach Google bez linku do jej kopii.

CL: – Jak aktualnie działa przekierowanie 301? Zauważyłem swego czasu błąd w panelu Google Webmaster Tools wskazujący na fakt, że przekierowuję całą domenę wraz z podstronami na stronę główną nowej witryny… Czy taka sytuacja wpływa negatywnie na pozycję nowej strony?

KS: Jak wiesz przekierowanie 301 oznacza dosłownie “przeniesienie permanentne”. Nie wiedząc więcej na temat witryny, o której wspominasz, trudno mi jest zidentyfikować problem. Aczkolwiek, w najgorszym przypadku nie oczekiwałbym żadnych negatywnych konsekwencji dla nowej domeny. Funkcjonujące przekierowanie 301 natomiast może być korzystne, o ile pierwsza strona pozyskała zaufanie oraz grono użytkowników regularnie ją odwiedzających. Warto wspomnieć, że przekierowanie powinno być zrobione na poziomie URL-i.

CL: – Czy przekierowując 301 domenę na nowy adres w myśl zasady, definicji pozycja strony powinna być taka sama?

KS: Z tym pytaniem często się spotykam. Przekierowanie 301 jest świetnym rozwiązaniem, jeżeli chcemy oznajmić Google, że projekt został przeniesiony na nową domenę. Nie naraża ono serwisu na żadne negatywne konsekwencje, jednak nikt nie powinien oczekiwać identycznych pozycji w wynikach dzięki niemu. Konkurujące strony mogą równocześnie rozwijać się i zbierać linki dzięki świetnym treściom albo mogą powstawać nowe witryny na ten sam temat . Z tego powodu nie mogę obiecać identycznych pozycji, ale gorąco polecam używanie przekierowania 301 w ten sposób, jak opisałem powyżej. Nie polecałbym go, gdybym sam z niego sporadycznie nie korzystał.

Dla webmasterów obawiających się przenieść cały projekt, przeniesienie najpierw jednego podkatalogu w ramach eksperymentu może być dobrym rozwiązaniem. Jeżeli wszystko pójdzie dobrze i nie będą widoczne żadne dramatyczne zmiany w pozycjach, wówczas prawdopodobnie nic nie stoi na przeszkodzie, żeby przenieść całą witrynę.

CL: – Czy Google indeksuje tylko część treści na stronach znajdujących sie w supplementalu? Podobno Google indeksuje tylko tzw. “ważne” słowa stron znajdujących się w Supplemental Index?

KS: W przeszłości Supplemental index był używany do nietypowych dokumentów, które pojawiały się na raczej niecodzienne zapytania. Z perspektywy webmastera, niższa frekwencja pobierania była główną różnicą pomiędzy Supplemental indeksem a naszym głównym indeksem. Inżynierowie z Google pracowali intensywnie nad rozwiązaniem tego problemu i zniwelowaniem różnic między indeksami, odnosząc sukces we wrześniu 2007. W chwili obecnej różnice są minimalne. Każdemu, kto by chciał wiedzieć więcej o tym, jak Google indeksuje i rankuje strony, polecam ten link :-)

CL: – Czy indeksacja podstron tylko za pośrednictwem mapy strony i dodania jej do Google Webmaster Tools może powodować, że taka podstrona automatycznie wpada w Supplemental Index? Czy mapa może być podstawowym, a nawet jedynym elementem procesu indeksacji witryny?

KS: Dodanie mapy strony nie ma wpływu na to, czy podstrona znajdzie się w Supplemental indeks. Również samo dodanie adresu do mapy strony, nie oznacza, że Google go pobierze. Jeden scenariusz, w którym dodanie mapy strony może okazać się przydatne, jest wtedy, kiedy Google rozpozna identyczne dokumenty w jednym serwisie. Wtedy jest bardziej prawdopodobne, że dokument zgłoszony w mapie strony będzie preferowany.

CL: – Czy prawdą jest, że linki ze stron z Supplemental Index nie przekazują wartości anchor text? Jak oceniasz wartość linków z takich stron?

KS: Ja bym sugerował webmasterom, żeby nie koncentrowali się za bardzo na Supplemental indeksie. Google stara się adekwatnie oceniać wszystkie linki napotkane w procesie pobierania zasobów sieci. Uważam, że te linki są równowarte z innymi.

CL: – Dlaczego strony zbanowane cały czas notują odwiedziny robotów Google?

KS: To naprawdę zależy od indywidualnego przypadku. Powiedzmy, że webmaster odpowiedzialny za stronę z oryginalną treścią, która może zainteresować użytkowników, ukrywał słowa kluczowe na niej, w celu zwiększenia ich gęstości, co jest wykroczeniem poza Porady Google dla Webmasterów. Jeżeli on/ona korzysta z bezpłatnych Narzędzi dla Webmasterów, jest szansa, że Google go/ją powiadomi o usunięciu strony z widocznych dla użytkowników wyników na określony okres czasu. Googlebot jednak nadal będzie pobierał tę witrynę po to, żeby w momencie, kiedy problem zostanie usunięty i podanie o ponowne rozpatrzenie wysłane, jej najświeższa kopia była dostępna.

CL: – Czy linki wzajemne typu A< ->B, B< ->A są naruszeniem wytycznych Google?

KS: Jeżeli mówimy o linkowaniu naturalnym, polegającym na tematycznym związku to nie widzę pogwałcenia żadnych Porad Google dla Webmasterów. Pamiętam przypadek strony weterynarza i strony hurtowni karmy dla zwierząt położonej niedaleko, linkujące do siebie nawzajem. Ponieważ odwiedzający jedną z tych stron potencjalnie mogą być zainteresowani treścią/ofertą drugiej, ta sytuacja wydaje się mieć sens. Inny przykład to forum graczy linkujące do sklepu z sukniami ślubnymi w Warszawie oraz do sieci hoteli all-inclusive w południowej Azji – w tym przypadku jest raczej mało prawdopodobne, że linki zostały nadane z myślą o użytkownikach. Ewidentnie drugi przykład stanowi pogwałcenie Porad Google dla Webmasterów. Chciałbym dodać, że algorytm do oceny tematycznego powiązania między linkami, nad którym pracowaliśmy, funkcjonuje dosyć dokładnie.

CL: – W momencie gdy do tego samego adresu URL prowadzą dwa linki o innych anchor text, położone w innych częściach witryny… który link przekaże PageRank?

KS: PageRank jest niezależny od anchor tekstów. Kilka linków do tego samego dokumentu może mieć minimalny wpływ na przepływ PageRank, ale nie traktowałbym tego priorytetowo podczas budowania strony. Witryny powinny być budowane z myślą o użytkownikach, nie o wyszukiwarkach. Dlatego najlepiej jest dodawać linki tam, gdzie to ma sens i nie zwracać uwagi na obliczenie PageRank. Więcej informacji na ten temat można znaleźć w oryginalnym dokumencie http://dbpubs.stanford.edu:8090/pub/1999-66. A wszystkim tym, którzy nadal się zastanawiają nad tą kwestią, radzę zrobić eksperyment w celu zbadania sytuacji w danej chwili.

(red. Ten test też już przeprowadziliśmy)

CL: – Co Google myśli o stosowaniu SEO Friendly programów partnerskich?

KS: Jak już wspominałem linki powinny być nadawane wyłącznie ze względu na zawartość ston, jeżeli mają być zgodne ze wskazówkami Gooogle dla Webmasterów. Czerpanie korzyści ze stron z dobrą treścią jest uzasadnione, jednak webmasterzy, którym zależy na pozycji ich stron w Google powinni korzystać z technicznych możliwości, jakie dają atrybut <nofollow> czy plik robots.txt, aby zapobiec przypadkowemu przepływowi PageRank.

CL: – Jaka jest polityka Google wobec idei Pay Per Post? Czy polski odpowiednik serwisów tego typu (krytycy.pl) powinien wprowadzić w swoich wytycznych obowiązek nadawania linkom w artykułach sponsorowanych atrybutu nofollow?

KS: Cytując Matta: “Płatne linki, które przekazują PageRank, obojętnie czy chodzi o linki tekstowe czy płatne recenzje, mogą spowodować utratę zaufania Google”. Nie mówiąc o żadnym konkretnym serwisie, webmasterzy, którym zależy na budowaniu reputacji i zaufaniu Google powinni zadbać o to, żeby linki na ich stronach nie wyglądały podejrzanie. Dodam, że zespół Search Quality zrobił znaczne postępy w rozpoznawaniu płatnych linków w ciągu ostatnich lat i nie przestajemy nad tym pracować.

CL: – Co myślisz o otagowaniu wszystkich linków wychodzących z wykop.pl tagiem nofollow? Teoretycznie jest to zbiór ciekawych, organicznych i użytecznych linków, które warto by zaindeksować… Często wykop.pl jest początkiem podobno akceptowalnego przez Google organicznego Link Bait… Co z tzw. SEO 2.0, skoro linki z największego polskiego serwisu WEB 2.0 mają atrybut nofollow?

KS: Jako Guglarz nie komentuję żadnych serwisów, jednak chciałbym podkreślić, że wygląda na to, że używanie atrybutu <nofollow> na stronach, na których użytkownicy mogą dodawać swoją treść staje się coraz bardziej branżowym standardem, szczególnie od czasu kiedy ogólnie uznane serwisy jak Wikipedia podjęły ten krok. Uważam, że jest również dobrą metodą do zniechęcenia spamerów do nadużywania takich serwisów do zdobywania podejrzanych linków.

Myślę jednak, że ręczne lub zautomatyzowane usuwanie <nofollow> na podstawie ustalonych kryteriów, na przykład gdy konkretny użytkownik zawsze dodawał dobrej jakości oraz tematycznie istotne linki, jest dobrym podejściem, które Google by doceniło.

CL: – Czy różne wersje językowe stron (umieszczone w podkatalogach, subdomenach) powinny linkować do siebie nawzajem w sposób czytelny dla Google?

KS: To pytanie pada regularnie, często w odniesieniu do wielojęzycznych stron o tematyce turystycznej. Wzajemne linkowanie dokumentów w różnych językach w podkatalogach lub poddomenach dla Googlebota w widoczny sposób nie spowoduje żadnych negatywnych konsekwencji dla pozycji strony.

Jeżeli już mówimy o różnych wersjach językowych: Jest metoda pokazania Google dokładniej, dla użytkowników którego kraju konkretna sekcja strony jest przeznaczona, korzystając z opcji “Ustaw docelową lokalizację geograficzną” w Narzędziach Google dla Webmasterów. Moja koleżanka Susan opisuje dokładnie jak to narzędzie funkcjonuje w video klipie opublikowanym kilka miesięcy temu. Dokładnie rzecz biorąc “Ustaw docelową lokalizację geograficzną” jest idealnym rozwiązaniem, jeżeli chcemy dotrzeć do użytkowników z danego regionu, aniżeli użytkowników mówiących w konkretnym języku. Nie chcę się powtarzać i roztrząsać szczegóły ponownie, jednak gorąco polecam to narzędzie wszystkim miejscowym przedsiębiorstwom oraz lokalnym społecznościom.

CL: – API Google Webmaster Tools, jakie kolejne elementy będą dostępne za pośrednictwem API?


KS: Google zawsze stara się udostępniać użytkownikom interesujące rozwiązania oraz polepszać istniejące produkty, więc nie zdziwiłbym się, gdyby zespół odpowiedzialny za Google API miał takie plany, jednak nic nie wiem o zbliżających się nowościach.

CL: Jaką widzisz przyszłość dla Grup dyskusyjnych Google Webmaster Tools? Czy chcesz przebić popularnością forum.optymalzacja.com ? ;) Czy widzisz jakieś zagrożenie w nowym serwisie otwartym na polskim rynku – Pomoc Google? Jest tam także dział “Wyszukiwarki”…

KS: Interesujące pytanie :-) Nie zamierzam konkurować z forum.optymalizacja.com. Jak wiesz kilka osób jest w znacznym stopniu aktywnych na obydwóch forach. Myślę jednak, że cele grupy oraz grona zainteresowanych różnią się nieco. Na forum Grupy Google dla Webmastwerów można spotkać raczej mniej zaawansowanych webmasterów szukających pierwszej pomocy oraz zgłaszających problemy, z którymi się spotkali, używając narzędzi Google. Pomoc Google to nowy, bardzo interesujący serwis. Miałem okazję obserwować jego rozwój przez kilka miesięcy i sądzę, że ostateczny rezultat jest bardzo obiecujący. Nie mówiąc o samym fakcie, że globalny Beta test jest przeprowadzany właśnie w języku polskim! Przyszłości Pomocy Google i Grupy Pomocy dla Webmasterów nie widzę w kategoriach konkurencji, a raczej koegzystencji, a może nawet połączenia obu platform jednego dnia. Każdemu zainteresowanemu tematem polecam uważnie śledzić wiadomości branżowe.

CL: – W którym kierunku według Ciebie będzie podążać SEO, co czeka nas za rok?

KS: Nie próbuję domyślać się, jakie kreatywne pomysły SEO mogą mieć. Jest to bardzo prężnie rozwijająca się branża i ciekawe rzeczy dzieją się codziennie. Jedyne czego jestem pewien to, że będzie interesująco

CL: – Jak oceniasz rozwój branży SEO w Polsce i świadomość polskich firm w tym zakresie, szczególnie dużych podmiotów e-commerce?

KS: Cieszę się, że o to pytasz. Podobnie jak u europejskich sąsiadów, na przykład w Niemczech czy w Czechach, w Polsce również powoli budzi się świadomość o SEO w dużych korporacjach. Na SMX w Monachium to wrażenie potwierdzali pracownicy agencji internetowych. Jeszcze nie jesteśmy na tym etapie, na którym chcielibyśmy być, ale rozwój jest pozytywny.

Jeżeli chodzi o rozwój SEO – Polska jest rozwijającym się rynkiem, bardzo szybko zmniejszającym dystans do sąsiadów.

CL: – Czy może dojść do takiej sytuacji, że wszystkie większe ecommercy będą miały optymalizację pod kątem SEO na zbliżonym poziomie i konkurencja sprowadzi się do technik na pograniczu spamu lub link-baitingu?

KS: Jest to spekulacja i nie odważę się prognozować, jaka będzie sytuacja. Z tego co widziałem na różnych rynkach przez ostatnie parę lat, wnioskuję, że nie należy oczekiwać zastoju w tej branży. Jest wiele bardzo inteligentnych, kreatywnych ludzi, którzy bez przerwy ulepszają swoje strony i wątpię, że kiedykolwiek przestaną to robić. Moim zdaniem ani żadne podejrzane metody, ani link-baiting nie będą końcem ewolucji, której będziemy świadkami.

Podczas dodatkowej rozmowy telefonicznej Guglarz udzielił nam jeszcze kilku innych informacji:

Guglarz prosił aby polscy webmasterzy zrozumieli że linki prowadzące do witryny a linki zliczane przez Google przekazujące Page Rank i mające wpływ na pozycje to dwie diametralnie różne sprawy.

Delikatnie podpytaliśmy także Kacpra o ostatnie filtry, i w jego opinii nie ma mowy o żadnym celowym, świadomym działaniu Google.

Na koniec pochwalę się przesyłką z kolejnym prezentem od Google, który dotarł jakieś 2 miesiące temu:

Paczka od Google Przesylka pocztowa od Google Pendrive prezent od Google Pozdrowienia od Guglarza

Tym razem Guglarz podesłał bluzę oraz pendrive. Dzięki.

Artykuł Ekskluzywny wywiad z polskim pracownikiem Google o pozycjonowaniu pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Pracownicy Google o pozycjonowaniu – wywiad w pigułce

Dwa dni temu Mariusz Gąsiewski umieścił na swoim blogu link do czatu przeprowadzonego przez zespół Google Webmaster Help. Poruszone tematy dotyczyły wyszukiwania, pozycjonowania i SEO oraz komunikacji z Google za pośrednictwem Grup Dyskusyjnych dla Webmasterów.

Na pytania odpowiadali znani i uznani pracownicy Google, tacy jak:

  • Matt Cutts
  • Adam Lasnik
  • Michael Wyszkomierski – cały czas się zastanawiam czy Michael ma jakieś polskie korzenie… ;)
  • Susan Moskwa
  • Matt Dougherty, Maile Ohye, John Mueller, Reid Yokoyama, Bergy Berghausen, Pedro Dias, Mariya Moeva

Przeanalizowaliśmy dla was ponad setkę pytań, przebrnęliśmy przez 6746 słów, łącznie kilkanaście stron A4 i wyciągnęliśmy z tego esencję. Wszystkie pytania warte uwagi przedstawiamy w poniższym wpisie dla leniwych pozycjonerów.

Wpływ ruchu na rankingi i SEO

Question: Suppose you rank #1 for inanchor: intitle: and intext: But for just the keyword phrase you’re on second page. Any tips on what to do to get up for just the phrase as well?
A (Matt Dougherty): Hi Peter, echoing what John just talked about, I’d say making sure your content is useful to users is the best approach.

Załóżmy że jesteś pierwszy na zapytania inanchor: intitle: intext: lecz pod zapytanie na samo słowo kluczowe (bez parametru) jesteś drugi. Jakieś wskazówki co zrobić żeby dostać się na szczyt ?
Upewnij się że zawartość Twojej strony jest użyteczna dla użytkowników.

Czy czynnikiem decydującym o doświadczeniach użytkowników jest badanie ruchu userów ?

Q: Does Google’s knowledge of a site’s web visitor activity (via Google Analytics) affect SERPs?
A (Susan Moskwa): No it doesn’t.

Google utrzymuje że nie… odpowiadając przecząco na pytanie:
Czy wiedza Google na temat ruchu użytkowników (Google Analytics) wpływa na wyniki wyszukiwań ?

Indeksowanie plików CSS a roboty Google

Z mojego punktu widzenia bardzo ciekawa informacja…

Q: if the site is designed with css, does the crawler throw out the .css and look only at the HTML?
A (Matt Cutts): Typically we wouldn’t crawl CSS, Kien, but in a few limited circumstances we can (e.g. if we’re checking for hidden text).

W momencie gdy strona jest stworzona w CSS, czy robot omija plik .css i patrzy tylko na źródło HTML?
Zazwyczaj Google nie indeksuje CSS, lecz w kilku ograniczonych przypadkach jest to możliwe (np. gdy Google sprawdza ukryty tekst).

Automaty zasysające wyniki Google, spersonalizowane wyniki, sprawdzanie duplicate content

Szczere pytanie nieświadomego user’a ;) :

Q: Hi, I am not sure is it good question at this moment, but am i allowed to crowl Google result?
A (Susan Moskwa): Making automated queries to our web search results is against Google’s Terms of Service.

Czy mogę indeksować i pobierać wyniki wyszukiwania Google ?
I standardowa odpowiedź Google:
Kierowanie automatycznych zapytań do Google jest sprzeczne z warunkami korzystania.

Ja natomiast sprawdziłem czy Google samo wypełnia woje własne wytyczne… i okazuje się że tak, oto plik robots.txt Google.com (warto zajrzeć ;) ).

Q: Does &pws=0 still turn off personalized results?
A (John Mueller): Yes, as far as I know.

Czy paramter &pws=0 [umieszczony w adresie URL zapytania skierowanego do Google] wyłącza spersonalizowane wyniki wyszukiwań ?
Tak

 Q: Does page load time have any effect in organic rankings?
A (Maile Ohye): Hi Michael, page load time is important for user satisfaction (they may leave the site if it’s too slow). For Google at this time, it’s not considered a signal for ranking. We’re always looking to improve the user experience, however, so if you keep
A (Maile Ohye): your page load time down, users and search engines will continuously be happy!

Czy czas ładowania strony ma jakiś wpływ na wyniki organiczne ?
Generalnie jest to ważny czynnik z punktu widzenia użytkownika tak więc dla Google też może mieć znaczenie.

Ze swojej strony tylko dodam, że ostatnio czas ładowania witryny stał się kolejnym czynnikiem mającym wpływ na Quality Score reklam AdWords.

Q: What’s the best way to check to see if your content is duplicated (accidentally or by someone else). Is there a tool you can input a URL and check for duplicate content?
A (Susan Moskwa): Try taking a fairly long string of text from your website, and searching for it in quotes on Google. The longer the sentence is, the more likely it is to be unique to your site (so it’s an easy way to see what other sites have that same content).

Jak najlepiej sprawdzić czy kontent jest powielony ? Czy jest jakieś narzędzie gdzie można podać adres URL i sprawdzić czy treść jest powielona ?
Weź dłuższy fragment tekstu ze swojej strony
[o ile dobrze pamiętam maksymalna długość zapytania w Google to 8 słów bez tzw. Stop Words] wyszukaj w Google, im dłuższe zdanie tym bardziej unikalny kawałek treści. Zdanie warto wpisać w cudzysłowiu: “”.

Przekierowania 301

Q: Is there any limit on the number of redirections 301, a Web site?. In a large site, if you change the URL structure, is the optimum time to do it with 301? or is best done gradually
A (Matt Cutts): There’s no per-page limit on the number of 301s you can do, so you could move 100K pages to 100K new location. However, if we see a really long chain of redirects, eventually we will decide to stop following the chain.

Czy jest jakiś limit ilości przekierowań 301 na jedną stronę ?
Nie ma limitu przekierowań 301 na stronę , więc możesz przekierować 100 000 stron na 100 000 nowych lokalizacji. Jednak gdy Google widzi długi łańcuch przekierowań może zaprzestać podążania za przekierowaniami.

Q: If you have a domain that has a PR of 4 and I 301’d it to my new site, why hasn’t any of the “link juice” passed off or the PR? It’s been a few months now.
A (John Mueller): This can take more than a few months.

Z tego co zrozumiałem pełna moc przekierowania zostaje przeniesiona co najmniej po kilku miesiącach…

Q: do you care how many 301’s there are? Can we take thousands of pages and 301 them?
A (Susan Moskwa): It’s okay to have multiple pages that redirect; but you should try to avoid multiple redirects one one URL (e.g. A -> B -> C -> D)

Czy ma znacznie jak dużo przekierowań 301 skierujemy na stronę ? Czy możemy przekierować poprzez 301 tysiące stron ?
Można przekierować wiele stron lecz należy unikać [wspomnianych wcześniej] łańcuchów przekierowań typu A ->B -> C -> D.

Analiza gęstości słów kluczowych – keyword density

Kolejny ciekawy fragment na temat wagi gęstości słów na naszych stornach. Moim zdaniem jest to kolejny mit powszechny wśród polskich webmasterów:

Q: Hi Matt, Are there any guidelines available on keyword density we have pages that are about 1 single subject and the keyword density is quite high
A (Matt Cutts): Antony, you may not believe this, but we tend not to think much about KW density here at Google, b/c our algorithms handle it pretty well. My advice is to pull in an innocent/non-search friend and have them read the text. If they raise their eyebrow, …

Czy są dostępne jakieś wytyczne na temat gęstości słów kluczowych ?
Google stara się nie zwracać szczególnej uwagi na gęstość słów kluczowych, algorytmy radzą sobie z tym całkiem dobrze…

Red.: Piszmy dla ludzi nie dla wyszukiwarek ;).

Stosowanie znacznika rel=”nofollow”

Q: With the increasing amount of sites using nofollow tags. Is Google looking at those links and taking anything away, like anchor text?
A (John Mueller): We ignore links that have the rel=nofollow microformat.


W świetle rosnącej ilości stron używających tagu nofollow, czy Google patrząc na te linki bierze z nich cokolwiek pod uwagę ?
Google ignoruje linki rel=”nofollow”.

Ciągnąc dalej praktycznie to samo pytanie…

Q: Does googlebot ignore links that use the nofollow tags or does googlebot follow the links and not assign any value to the link?
A (John Mueller): We ignore links with rel=nofollow

Czy Google ignoruje linki używajce nofollow ? Czy Googlebot podąża tym linkiem lecz nie przypisuje mu żadnej wartości ?
Google ignoruje linki rel=”nofollow”.

Domeny, adresy URL, końcówki adresów

Q: Does GoogleBot tend to have a preference for long or short filenames/directory names?
A (Pedro Dias): Hi Quentin. No Googlebot doesn’t have preference on short or long filenames/directory names, usualy short names are preferred by users for usability purposes.

Czy Googlebot ma jakieś wytyczne odnośnie długich lub krótkich nazw plików i katalogów ?
Nie GoogleBot nie zwraca na to uwagi, względy użytecznościowe sugerują jednak aby stosować krótsze nazwy…

 Q: Why does the url name matter? Why would say wordword.html be ranked any different than word-word.html? or does it?
A (John Mueller): I think both would be mostly equivalent.

Dlaczego nazwa adresu URL ma znaczenie ? Dlaczego są różnice pomiędzy adresem slowoslowo.html a slowo-slowo.html ?
Zdaniem Google pozycje obydwu URLi powinny być zbliżona.

 Q: Does Google favor .html over say .php or do you treat all URL’s the same
A (Bergy Berghausen): A URL is a URL. As long as it’s serving content we can read, Googlebot doesn’t care what the file extension is.

Czy Google preferuje strony .html ponad .php ?
URL to URL, tak długo jak jest tam treść dla Google nie ma znaczenia końcówka adresu URL.

Q: for urls, i have spaces in my URLs
A (John Mueller): I would recommend not using spaces in URLs.

Mam spacje w URL’ach…
Google zaleca usunąć spacje w adresach URL.

 Q: I know that generally .edu and .gov sites rank better than if they were .com or .org; but is there a similar ranking boost that is given to nonprofits?
A (Matt Cutts): Eric, there’s no “.edu boost” that looks at the .edu alone and just boosts for that.

Wiemy że strony .edu i .gov otrzymują lepsze rankingi niż strony .com lub .org. Czy jest to podobny bonus dla stron nonprofit ?
Nie ma żadnego tzw. “.edu boost” wynikającego z samego faktu TLD domeny.

Q: Does the location of your site hosting affect the local results your site shows up for?
A (Susan Moskwa): Yes, it may. We look at server location and ccTLD among other factors

Czy lokalizacja serwera ma wpływ na lokalne wyniki wyszukiwań ?
Tak jest taka możliwość. Google zwraca uwagę na lokalizację serwera a także na rozszerzenie TLD domeny.

Q: Hi Googlers, does your algorithm give more importance to a link from a .com as compared to .info?
A (John Mueller): Links are links :)

Czy algorytm Google daje większa moc linkom .com niż linkom .info ?
Link to link… :)

Linkowanie

Q: Is the incoming links list in Google Webmaster Tools an accurate estimator of all the incoming links that Google thinks as a backlink?
A (Susan Moskwa): It’s a sampling of your incoming links that we know about, not always 100%.

Czy linki prowadzące do witryny wyświetlane w Google Webmaster Tools jest odpowiednikiem wszystkich linków które widzi Google ?
Są to przykładowe linki o których wie Google, nie zawsze jest to 100%.

Meta Tagi

Q: If a site had a noindex meta tag and was removed from the index, how long before it could come back into the index? Would that removal carry over to another domain if that site was 301’d to a new site?
A (Maile Ohye): Hi Brian, the site (or just one URL) can return to the index once it’s recrawled with the noindex tag removed. Also, you can’t really noindex a separate domain, even if you 301 (so no mean webmasters can easily exclude your domain from being indexed).

Jeśli strona posiada meta tag noindex i została usunięta z indeksu jak szybko może wrócić do indexu ? Czy usunięcie z indeksu utrzyma się nawet wówczas gdy domena zostanie przekierowanie na inną stronę ?
Strona lub adres URL może wrócić do indexu jak tylko Google zauważy usunięcie tagu noindex.

Q: Does GEO meta data impact geo targeting?
A (John Mueller): No, we don’t read that meta tag at the moment.

Czy GEO meta tag ma wpływ na wyniki wyszukiwań ?
Nie Google nie zwraca uwagi na ten meta tag.

Q: did i hear matt correctly to ignore focusing on keyword metatags?
A (Susan Moskwa): Yes

Czy należy ignorować keyword meta tag ?
Tak.

Katalogi – dodawanie stron do katalogów

Q: is directory submission still a good way to build links? or its not recommended?
A (Pedro Dias): Hi Ernest, I’d be very selective choosing directories. I’d rather recommend building links naturally and by merit.

Czy dodawanie do katalogów jest cały czas dobrą drogą budowania linków ? Czy jest zalecaną metodą ?
Zdaniem Googlersów trzeb być bardzo rozważnym przy doborze katalogów. Google rekomenduje naturalne formy pozyskiwania linków.

Q: Pedro you mentioned that you would selective in choosing directories could you advise on few selected ones you would go with?
A (Pedro Dias): Hi Ernest. I’d probably look at Dmoz and Yahoo Directory… High quality directories.

Zdaniem Googlersów katalogi warte polecenia to DMOZ, Yahoo oraz inne wysokiej jakości katalogi.

W odniesieniu do wpisu: Pozycjonowanie to nie SPAM :)

Q: So “Officially”, Google sees SEO as having a future?
A (Matt Cutts): Certainly, as long as the SEO is whitehat.

Czy pozycjonowanie ma przyszłość ?
Generalnie tak długo jak SEO jest white hat.

Q: is Google using ip to trigger localized search results
A (John Mueller): Yes.

Czy Google używa lokalizacji IP do prezentowania lokalnych wyników wyszukiwań?
Tak.

Q: hi we think our competitor has been sending lots of false links to our site “google bowling” can this effect us and how can we check on this?
A (John Mueller): I would not worry about these links.

Podejrzewamy że nasz konkurent dodaje do naszej strony linki z tzw. ciemnych stron internetu stosując tzw. technikę “google bowling”, czy można coś zrobić ?
Zdaniem Googlersów nie ma się czym przejmować.

Czyli dodawanie linków do konkurencji z np. stron porno nie powinno negatywnie wpłynąć na pozycję.

I na koniec… sympatyczny żart ;P…

Q: WHAT ARE THE 3 MOST INPORTANT THINGS TO DO TO EARN A GOOD PAGERANK?
A (Mariya Moeva): Content, content and content (:

Ufff… mam nadzieję że się podobało.
W razie pytań piszcie w komentarzach…

Artykuł Pracownicy Google o pozycjonowaniu – wywiad w pigułce pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

“Wykorzystanie technik SEO do budowania świadomości marki” – prezentacja z konferencji

W dniach 18 i 19 Czerwca w Hotelu Jawor koło Bielska-Białej odbyła się dwunasta konferencja marketingowa polskich firm energetycznych pod nazwą:

“Komunikacja, Marketing i Obsługa Klienta w Nowej Strukturze Energetyki”

Na konferencję zjechali się dyrektorzy i pracownicy działów Marketingu i Public Relations z firm energetycznych, takich jak: Energa, ENEA, PGE, Vattenfall, Tauron, Enion, EnergiaPro i Gigawat… zrzeszonych w: PTPiREE.

W pierwszym dniu konferencji przedstawiane tematy były ściśle powiązane z branżą Energetyczną. Wśród zaproszonych gości była m.in.:

  • Posłanka Mirosława Nykiel z parlamentarnego zespołu ds. Energetyki
  • Prof. Krzystof Żmijewski z Politechniki Warszawskiej
  • Halina Borowik-Trymucha z Urzędu Regulacji Energetyki

Dzień pierwszy został podzielony na 3 bloki tematyczne. Świetny wykład o roli marketingu, public relations, obsługi klienta dał Prof. Henryk Mruk z Akademii Ekonomicznej w Poznaniu:

Profesor Henryk Mruk.png Profesor Henryk Mruk

W drugim dniu wspomnianej konferencji miałem przyjemność przedstawić wykład na temat:

„Wykorzystanie technik SEO do budowania świadomości marki na otwartym rynku usług
energetycznych”

Moja prezentacja obejmowała takie tematy jak:

  • Brand Reputation Managment (Zarządzanie Marką)
  • Pozycjonowanie Video (SEO Video)
  • Branding w wyszukiwarkach
  • SEO plików graficznych
  • PR Kryzysowy z wykorzystaniem narzędzi SEM
  • Formy monitorowania sieci www

Kilka zdjęć:

Cezary Lech prezentacja na konferencji energetycznej

czarek-lech-wyklad.png

Cezary Lech.png

Widownia i sala konferencji energetycznej PTPiREE

W drugim dniu konferencji oprócz mnie występowali także:
Maciej Kossowski z Onet.pl
Piotr Karwatka z Divante.pl
Agnieszka Micał z Vattenfall
Szymon Wesołowski z agencji eFresh.com.pl

Konferencję zorganizowała i poprowadziła Olga Fasiecka z Polskiego Towarzystwa Przesyłu i Rozdziału Energii Elektrycznej – PTPiREE, której chciałem bardzo podziękować za zaproszenie.
Podziękowania są tym bardziej zasadne, bowiem jak się później okazało byłem najmłodszym prelegentem w 12-letniej historii konferencji organizowanych przez PTPiREE ;).

Obszerniejsza relacja zostanie opublikowana w najnowszym wydaniu miesięcznika: “Energia Elektryczna”.

Zdjęcia: Małgorzata Smoliga

Artykuł “Wykorzystanie technik SEO do budowania świadomości marki” – prezentacja z konferencji pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

“Pozycjonowanie to nie SPAM!” (mówi Matt Cutts)

 

Search engine optimization isn’t spam
You can find whitehat SEOs to help you

  • Ask for references and check them
  • Make sure they’ll tell you exactly what they’re doing
  • Make sure the SEO abides by search engine guidelines
  • Big sites: Tweaking internal linkage, keywords on page
  • Smaller sites: Creative ideas for linkbuilding and marketing

 

Powyższy cytat pochodzi z prezentacji Matt’a Cutts’a przedstawionej na targach Web2Expo. Zapraszam do oglądnięcia całej prezentacji pod tytułem: “What Google Knows About Spam“.

 

 

Zwróćcie uwagę jak dużo treści niesie w sobie poniższy fragment cytowanego slajdu:

 

  1. Big sites: Tweaking internal linkage, keywords on page

 

 

SEO dużych stron to wyciskanie maksimum z linkowania wewnętrznego oraz przemyślane tworzenie treści!

 

Cytat dnia:

 

  1. Search engine optimization isn’t spam

 

 

 

Domain RoundTable 2008:

Kolejne ciekawe cytaty pochodzą z konferencji Domain RoundTable 2008 i jej zapisu w formie live blogging – Matt Cutts at Domain RoundTable.

 

  1. “We have a deal with GoDaddy that if you sign on with GoDaddy you’re automaticlaly registered with Webmaster Tools”

 

  • “Google does give keywords in the URL a certain amount of weight, but you don’t need it in order to rank.”

 

  • ”We try to detect parked domains, and once they leave their parked status, we let them in relatively quickly”

 

 

Z powyższych cytatów dowiadujemy się, iż:

  1. Google ma układ z GoDaddy i wszystkie rejestrowane domeny są automatycznie dodawane do Google Webmaster Tools
  2. Google daje pewną wagę dla słowa kluczowego w URLu, natomiast nie jest to konieczne do osiągnięcia dobrych pozycji (dla mnie osobiście tak kwestia długo pozostawała pewną niewiadomą).
  3. Google stara się wykrywać domeny parkowane w sieciach reklamowych typu NameDrive itp., usuwa je z indeksu, i szybko przywraca w momencie zdjęcia zaparkowania.

 

Pod artykułem rozwinęła sie dyskusja… jeden z czytelników ciekawie skomentował słowa Matt’a:

 

  1. “if a domain changes hands, Google resets the links vale to zero/near zero”-> so if Microsoft buys Yahoo – after that deal yahoo.com will have pagerank 0?

 

 

Najprawdopodobniej Google zeruje linki w momencie gdy strona zmienia właściciela a także zawartość i tematykę.

 

Polecam także większy artykuł na temat kupowania stron i nowej polityki Google w tym zakresie: Buying Sites? Use Trusts To Avoid Google Domain Demolitions


 Share

Artykuł “Pozycjonowanie to nie SPAM!” (mówi Matt Cutts) pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Dlaczego opłaca się zlecać optymalizację kampanii Google AdWords

Logo Google AdWords Mam wrażenie, iż ostatnimi czasy bardzo popularne stało się stwierdzenie, iż prowadzenie Kampanii PPC (Pay Per Click) w Google AdWords jest banalne. Równie często pojawiają się pytania ze strony klientów w stylu: Za co ja właściwie płace ? Na czym polega wasza praca ? Często trudno to klientowi wytłumaczyć… Dzisiejszym wpisem częściowo odpowiadamy na pytanie: Za co agencja SEM pobiera swoje wynagrodzenie oraz jak należy prowadzić i optymalizować kampanie PPC…?

Zazwyczaj każdy klient rozumie konieczność opłaty za stworzenie i konfigurację kampanii Google AdWords. Ten element firmy bardzo chętnie outsoruce’ują. Zdecydowanie trudniej jest natomiast sprzedać i wytłumaczyć konieczność ciągłego nadzoru, optymalizacji i prowadzenia kampanii pod okiem certyfikowanego specjalisty GAP.

Z punktu widzenia użytkownika system Google AdWords w wersji podstawowej jest faktycznie prosty i przyjazny. Jest to także jeden z głównych czynników decydujących o sukcesie tego narzędzia promocji:

 

Garść naprędce dobranych słów + opis linka sponsorowanego i nasza firma ma kampanie AdWords.

 

Wszystko się jednak komplikuje wraz ze wzrostem budżetu pochłanianego przez Google AdWords… Najczęściej dopiero wtedy klient zaczyna myśleć jak ograniczyć wydatki. W tym momencie najczęściej niezbędna okazuje się pomoc i stała opieka Agencji SEM.

Na blogu ShimonSandler.com znalazłem ciekawa notkę streszczającą w kilku punktach jak wygląda i co należy do obowiązków agencji SEM w trakcie prowadzenia i nadzorowania Kampanii PPC:

 

  • Dzienne zarządzanie stawkami za kliknięcie oraz budżetami AdGroup
  • Testy A/B stron docelowych oraz linków sponsorowanych
  • Optymalizowanie i tworzenie nowych linków reklamowych
  • Tworzenie rozwój różnych wersji Landing Page
  • Dodawanie nowych słów kluczowych, tworzenie coraz precyzyjniejszych AdGroup
  • Odpowiednia alokacja środków pomiędzy różnymi platformami reklamowymi ( w polskim przypadku wybór jest coraz mniejszy ;) )
  • Poszukiwanie nowych słów kluczowych – wydłużanie Dlugiego ogona
  • Tworzenie nowych i mierzenie starych konwersji
  • Wyciąganie wniosków ze statystyk odwiedzin
  • Analiza i raportowanie zjawiska Click Fraud – Fałszywych kliknięć.
  • Mierzenie, testowanie, raportowanie… i tak w kółko… !

 

Swoją drogą polecam świetny case na temat:
Google AdWords Case Study – Improving Landing Page Quality:

Autor zastanawia się czy wpływ na Quality Score kampanii mają takie czynniki jak:
Obecność Polityki prywatności
Trafna i oryginalna treść
Przejrzystość
Łatwa nawigacja

Sprawdź co Google pisze na ten temat na oficjalnych stronach pomocy.

 

Aktualizacja: Wiele samodzielnie prowadzonych kampanii Adwords zawiera usterki

Jak wynika z raportu AdSeo, polscy reklamodawcy słabo radzą sobie z samodzielną obsługą kampanii AdWords. Aż 67% przebadanych przez firmę kont nie zawierało podziału na grupy reklam, 89% słów kluczowych pozostawiono w dopasowaniu przybliżonym, nikt nie zastosował choćby jednego słowa wykluczającego. Badanie przeprowadzono na próbie 50 kont AdWords, których właściciele zgłosili je do akcji bezpłatnych audytów robionych przez AdSeo.

Najważniejszy element oceny jakości prowadzonych kampanii to kwestia podziału kampanii na grupy reklam. W przebadanych przez AdSeo kontach wskaźnik ten wypadł bardzo słabo:

Aż na 45% z przebadanych kont, domyślne kierowanie reklam nie zostało zmienione; reklamy kierowane były więc na wszystkie sieci. 11% reklamodawców kierowało reklamy wyłącznie na wyszukiwarkę, a 44% na wyszukiwarkę i sieć wyszukiwania (a więc bez sieci partnerskiej).
badanie AdSeo - kierowanie reklam

Czy reklamodawcy wpadli w inną typową pułapkę czyhającą na początkujących użytkowniców AdWords – czyli nadmierne stosowanie słów kluczowych w dopasowaniu przybliżonym? Wydaje się, że tak. Z raportu wynika, że 89% słów kluczowych dopasowana była właśnie “w broadzie”.
AdSeo dopasowanie słów kluczowych

Oczywiście, sam fakt używania słów w dopasowaniu przybliżonym nie jest niczym błędnym. Wiemy jednak, że dopasowania tego używać trzeba świadomie, a liczba przypadków, kiedy jest to uzasadnione wydaje się mniejsza, niż wskazywane w raporcie 89%. Powszechne wśród specjalistów od AdWords przekonanie, że początkujący rzadko miewają świadomość znaczenia dopasowania słów kluczowych potwierdza także fakt, że żaden reklamodawca nie zastosował choćby jednego słowa wykluczającego (a tylko stosowanie słów wykluczających mogłoby uzasadniać powszechne stosowanie słów “w broadzie”).

Jak wygląda sprawa z Quality Score? Aż 32% słów miało QS zawierający się w przedziale 1-4. To bardzo niski QS, którego obecność wyraźnie podnosi koszty kampanii. 63% słów miało QS na przywoitym poziomie między 5 a 7. Tylko dla 5% słów QS wynosił 8 lub więcej.
badanie AdSeo - jakość słów kluczowych

Kolejne zmierzone wskaźniki to odpowiedniość stawek za słowa kluczowe. 56% słów miało niskie stawki (udział w wyświetleniach poniżej 70%):
badanie AdSeo - stawki słów kluczowych

Jak reklamodawcy ustalali budżet dzienny?
badanie AdSeo - budżet dzienny

Ostatnim badanym elementem była jakość copywritingu w publikowanych reklamach. Sprawdzano, czy w treści reklamy znajduje się użyte przez internautę słowo kluczowe, informacje o produkcie, czy słowo kluczowe znajduje się w nagłówku i czy reklama kieruje do podstrony związanej z produktem, którego reklama dotyczy. Z opublikowanego w raporcie wykresu wynika, że wszystkie wymogi spełniało 45% reklam, natomiast w omówieniu wykresu AdSeo znaleźliśmy informację, że reklamodawcy poprawnie konstruujący reklamy stanowili 61% wszystkich. Jakie warunki trzeba było spełnić, by zostać zakwalifikowanym do grupy reklamodawców, którzy “zadbali” o wszystkie elementy? Czy wystarczyło mieć na swoim koncie jedną dobrze zbudowaną reklamę? Połowę? Raport tego nie precyzuje.
AdSeo - budowa reklam

Przy okazji warto powiedzieć kilka słów na temat jakości samego raportu.

Nigdzie w raporcie nie znalazła się informacja, na jakiej próbie przeprowadzano badanie. Słowem, czy podawane w nim procenty obliczano na podstawie 10 czy 50 przebadanych kont. Odpowiedź firmy AdSeo, reprezentowanej przez Paulinę Niżankowską, poznaliśmy dopiero mailowo:

Próba wynosiła 50 kont. Tyle udało nam się uzyskać danych do kont z nadesłanych zgłoszeń.

Wiemy zatem, że przebadano 50 kont. Czy to znaczy, że wszystkie te konta zostały wzięte pod uwagę w obliczaniu kolejnych wskaźników? Mam nadzieję, że tak, ale niepewność zasiewa zdanie umieszczone w omówieniu pierwszego wykresu, dotyczącego obecności lub nieobecności podziału kampanii na grupy reklam:

Pozostałe 33% osób, którym udało się w odpowiedni sposób podzielić reklamy na grupy, poległy w dalszych etapach tworzenia kampanii i konfigurowania jej ustawień, co pokazują poniżej przedstawione dane raportu.

Zdanie to mogłoby sugerować, że próbą dla kolejnych wskaźników są tylko te konta, na których obecny był podział na grupy reklam – czyli 16 firm.

Do chwili publikacji tego tekstu, nie dostaliśmy z AdSeo odpowiedzi na zadane w tej kwestii pytanie. [aktualizacja: mamy już uspokajającą odpowiedź z AdSeo: wszystkie kolejne wskaźniki liczono z próby 50 kont].

Ciekawe rzeczy dzieją się też w sekcji Geolokalizacja. Znajdujący się w tej sekcji wykres dotyczy jednak nie geolokalizowania reklam, ale ich kierowania na sieci. Z faktu, że “45% reklam kierowanych jest na wszystkie lokalizacje”, wyciąga się wniosek, że reklamodawcy nie używali geotargetowania (?).

Razi momentami pochopność wyciąganych z danych wniosków. Przykładowo, fakt, że 89% przebadanych słów kluczowych była “w broadzie” nie oznacza wcale, że

89% reklamodawców nie miało pojęcia czym jest dopasowanie słów kluczowych

Dopasowanie przybliżone jest w wielu sytuacjach niezastąpione i z pewnością nie wszyscy używający go dla niektórych słów kluczowych reklamodawcy to ludzie nieświadomi.

Cały raport można pobrać stąd.

Naucz się optymalizować swoje kampanie AdWords!

Przyjdź na Szkolenie AdWords odbywające się podczas SearchMarketingWeek.

—————————

Aktualizacja na podstawie tekstu Macieja Janasa.

Artykuł Dlaczego opłaca się zlecać optymalizację kampanii Google AdWords pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Domeny internetowe promowane offline. Ciekawe przykłady

www-bazanciarnia-pl
W dzisiejszym wpisie publikujemy kilka ciekawych przykładów off-line’nowego wsparcia działań w internecie. Poniższe zdjęcia prezentują jak niewielkim kosztem, zgrabnie i sprawnie można podnieść rozpoznawalność swojego brandu internetowego.

www-EuroBook-pl

nowystyl-o2-pl
W tym przypadku ktoś się nie popisał, właściciel tego Mercedesa jeszcze nie zainwestował domenę www ;).

www-tuba-fm

Tymczasem Kuba Filipowski z Yashke.com przedstawia rozwiązanie jakie już funkcjonuje w Japonii:
wyszukiwarka zamiast adresów www
Czy tak będzie wyglądać off linowa promocja adresów www w przyszłości ?

 

Warto także zapoznać się z blogiem Good URL Bad URL. Autor ukazuje nam setki błędów popełnianych przy komponowaniu i reklamowaniu adresów www. Często obnaża błędy w bardzo dużych kampaniach prowadzonych na terenie Stanów Zjednoczonych.

Chciałbym także zwrócić uwagę na opracowanie EnquiroResearch.com pod nazwą Brand Lift od Search. Tekst mówi m.in. o wzajemnym wpływie reklamy AdWords i wyników organicznych.
Co ciekawe tekst poddaje w wątpliwość kwestie kanibalizacji SEO i SEM (Tfffuu… !) PPC a także zwraca uwagę na wzrost świadomości oraz na brandingowy efekt postrzegania wyników wyszukiwań przez użytkowników.

Wzrost świadomości brandu zależny od SEO PPC AdWords
Grafika przedstawia wzrost świadomości marki, proporcjonalny do wzrostu obecności i aktywności promocji w wynikach wyszukiwań na słowo kluczowe brandu.

Artykuł Domeny internetowe promowane offline. Ciekawe przykłady pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Praca w Google Search Quality Team. Jak Google wykrywa SPAM?

Zapewne wielu z was pamięta jeden z moich pierwszych artykułów na Sprawny Marketing: Paragraf 31. Ręczna manipulacja wynikami w Google ?. Dzisiaj, nieco ponad półtora roku później mamy potwierdzenie informacji przekazanych wam w tamtym tekście. Ręczna manipulacja wynikami staje się faktem! Także w Polsce!

Dnia wczorajszego otrzymałem od znajomego pozycjonera Jankiela z Tenso.pl bardzo ciekawy link z ofertą pracy umieszczoną w serwisie pracuj.pl – Ekspert firmy Lionbridge ds. Internetu (Internet Assessor).

Oferta pracy pracuj.pl - Lionbridge

W tekście oferty możemy znaleźć następujący fragment:

Głównym celem pracy jest poprawienie jakości wyników wyszukiwania, uzyskiwanych przez użytkowników na całym świecie. Do zadań osoby zatrudnionej na tym stanowisku będzie należeć ocena zgodności wyników z frazami wyszukiwanymi w Internecie oraz przedstawienie opinii na ich temat.

Po zapoznaniu się z pełnym tekstem można stwierdzić, iż jest oferta pracy, możliwe że chodzi właśnie o Google. Ale jednak nie ma nigdzie konkretnie wymienionej nazwy wielkiego G. Kluczem do zagadki okazuje się firma Lionbridge.

Lionbridge

Lionbridge logo

Rozwiązanie zagadki podsuwa nam jeden z angielskich użytkowników który postanowił podzielić się swoją opinią na temat pracy jako Google Website Rater. We wspomnianym tekście możemy znaleźć informację, która bardzo dużo wyjaśnia:

Ok for the past 6-7 months I have been a website reviewer for Google (Although I am officially employed by Lionbridge Technologies based in the US) I get paid on an hourly basis and this is pretty much how many of my days are.

…i to chyba ostatecznie rozwiewa wątpliwości, iż oferta zamieszczona na pracuj.pl jest ofertą pracy na stanowisku Google Quality Rater.

Wszystkich zainteresowanych zachęcamy do składania CV ;). Koniecznie przeczytajcie całą opinię wspomnianego użytkownika – opisuje on bowiem swój dzień pracy i inne ciekawe aspekty Quality Rater’a ;).

Linki:

Wątek na forum PiO.
Oferta pracy Quality Rater na stronach Google Jobs.
Zainteresowanych pracą może zainteresować także test dla pracowników Google.

P.S. Jeszcze raz dziękuję Jankielowi za jego spostrzegawczość i fakt że rozesłał dalej znalezione linki ;).

P.S.S. Dzisiaj dotarłem do ciekawych informacji zamieszczonych przez Mendax’a na FabrykaSpamu.pl. W poście pod tytułem Site Link Mednax umieszcza dokument Google zawierający wytyczne dla Google Quality Raters – plik do pobrania: Wytyczne Spamowe (pdf).

Artykuł Praca w Google Search Quality Team. Jak Google wykrywa SPAM? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Pozycjonowanie i optymalizacjia obrazków w Google Images

Ostatnio bardzo często poruszamy tematy zawiązane z długim ogonem i trendami w wyszukiwarkach. Tymczasem istnieje jeszcze jedno ciekawe i często zaniedbywane a w naszej opinii bardzo wartościowe źródło ruchu – Google Images. W dzisiejszym wpisie przybliżamy metody pozycjonowania i optymalizacji w wyszukiwarce grafiki – images.google.pl.

O pozycjonowaniu obrazków pisał jakiś czas temu Mariusz Gąsiewski w artykule: Pozycjonowanie szerokie obrazków. W naszym wpisie rozszerzamy to pojęcie o kolejne bardziej szczegółowe czynniki.

Czynniki o domniemanym wpływie na pozycje grafiki w Google Images:

Czynnik

Rozwinięcie

Alt Tag obrazka Opisuje wyszukiwarce o czym jest obrazek, dobrze gdy opis jest możliwie unikalny i precyzyjny, 4-6 słów.
Podlinkowanie obrazka Świadczy o jego większym znaczeniu lub o roli nawigacyjnej w obrębie witryny.
Title obrazka Tytuł wyświetlający się po najechaniu i przytrzymaniu myszki nad obrazkiem. W tytule należy rozszerzyć opis z tagu Alt.
Text otaczający obrazek a także standardowe elementy wartościowania treści takie jak: pogrubienia, tagi hx, itp…
Nazwa pliku graficznego Czyli np.:
/pozycjonowanie-obrazkow.jpg
Tytuł strony Znacznik Title strony na której znajduje się obrazek
Folder w którym znajduje się obrazek domena.pl/poznan/pozycjonowanie.jpg
domena.pl/zdjecia/pozycjonowanie.jpg
Świeżość obrazków Na SearchEngineWatch.com można znaleźć sugestię, iż świeżość uploadu obrazka może mieć wpływ na pozycje obrazków – mam jednak pewne wątpliwości co do słuszności tej tezy.
Wielkość obrazka Dobre jakościowo obrazki mają większą szansę na dobrą pozycję.
Ilość obrazów na stronie Im mniej obrazków tym ranga i powiązanie tematyczne poszczególnych grafik odpowiednio wzrasta.

Uwagi:

Aby zwiększyć prawdopodobieństwo zaindeksowania zdjęć obecnych na naszej stronie warto włączyć w Google Webmaster Tools opcję rozszerzonego wyszukiwania obrazków. Zakładka: Tools >> Enhanced image search.
Rozszerzone wyszukiwanie grafiki Google Webmaster Tools

Zaznaczenie powyższej opcji sprawia, że stnieje duża szansa, iż nasze obrazki pojawią się w grze Google: Image Labeler. Gra polega na jak najszybszym tagowaniu obrazków (Tagi należy wpisywać w języku angielskim) wygrywa ten użytkownik który to zrobi szybciej i dokładniej.

Jeśli zależy nam na wysokim stopniu indeksacji zdjęć w Yahoo to warto pomyśleć o Flickr.com – dla zainteresowanych polecam ten artykuł – Using Flickr to optimize for Yahoo image search

Pamiętajcie że indeksowanie obrazków trwa znacznie dłużej i na efekty optymalizacji czasami trzeba czekać nawet kilka miesięcy.

Polecam także zapoznać się z ciekawym rozwiązaniem utrudniającym hotlinkowanie naszych obrazków – lub inaczej mówiąc – Link za Hotlink ;) – How to use hotlinkers and Google Images to build natural links to your site. Wersja dla leniwych – kliknij prawym przyciskiem na obrazek znajdujący się pod tym linkiem – http://www.blogstorm.co.uk/images-demo.html.

Materiały źródłowe:
SEO top tip: Get results from image optimization for SEO
How To Optimize Images For Search Engines, Social Media and People.

Artykuł Pozycjonowanie i optymalizacjia obrazków w Google Images pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Wtyczki pozycjonerskie WordPress. Narzędzia SEO dla twojego bloga

Spis pluginów SEO do WordPress’a czyli najważniejsze wtyczki pomocne w dostosowaniu WP do wymagań wyszukiwarek, polepszające pozycjonowanie. WordPress, mimo iż jest genialnym CMS’em, to jednak ma kilka mankamentów. Ale… WordPress ma praktycznie nieograniczone możliwości rozwoju i każdy użytkownik może dostosować tego CMS’a do swoich potrzeb i zrobić z nim wiele modyfikacji. Albo wykorzystać to co zrobili inni, poprzez instalację pluginów.

Część poniższych wtyczek została omówiona lub wspomniana w artykule o Spis Presell Pages. Kilka z poniżej wymienionych funkcjonuje także na naszym blogu SprawnyMarketing.pl

Spis pluginów SEO do WordPressa

 

Wyłączenie z indeksacji części podstron WordPress’a

robots.txt seo wordpress pluginWtyczka, poprzez stworzenie pliku robots.txt oraz dodanie odpowiednich meta tagów umożliwia wyłączenie z indeksacji niektórych podstron WordPress’a, takich jak np.:

  • Kanały RSS
  • Podstrony administracyjne
  • Formularz logowania
  • Dodaje meta taginoodp i noydir meta robots

Link do pluginu: Meta robots wordpress plugin

 

Przekierowania 301 w WordPressie

Wtyczka umożliwiające zarządzanie przekierowaniami 301 w obrębie WordPress’a. Można przekierowywać każdy oddzielny adres naszego bloga, wtyczka ma także funkcjonalność umożliwiającą mierzenie ilości ruchu poprzez przekierowanie – SEOportal.pl. Szeroki opis wtyczki znajduje się na stronie autora: http://urbangiraffe.com/plugins/redirection/

Zarządzanie Nofollow w WordPress…

Nofollow SEO Master umożliwia nadanie rel=”nofollow” linkom w dowolnym miejscu bloga jak np.: strona główna, archiwum, komentarze, blogroll, stopka itp.

Więcej w temacie na PiO – WordPress – dopisanie nofollow do linków zewnętrznych

SEO Related Entries – Powiązane wpisy

Wtyczka znacznie poprawia linkowanie wewnętrzne w obrębie bloga, a także na dłużej zatrzymuje użytkownika w serwisie podsuwając mu artykuły o zbliżonej tematyce – opis wtyczki. Wtyczka jest zainstalowana między innymi na SprawnyMarketing.pl

SEO Title Tag Plugin – optymalizacja tytułów

Wtyczka umożliwia łatwe edytowanie Tytułów wszystkich podstron naszego bloga… tytułów postów, kategorii, tagów, głębokich podstron… Poprawna optymalizacja Title podstron w obrębie całego bloga może znacząco podwyższyć ilość odwiedzin oraz pozycje podstron, dobre narzędzie do wzmacniania pozycji Long Tail (długiego ogona) w wynikach wyszukiwań. Link do wtyczki: SEO Title Plugin.

Google Maps Generator

Plugin automatycznie tworzy i aktualizuje mapę strony dla naszego bloga, taką mapę można następnie zgłosić do Google Webmaster Tools – Google XML Sitemaps Generator.

All in one SEO pack

Wtyczka zawierająca w sobie kilka wtyczek jak np. optymalizator Title Tag, Meta tag itp… ma jednak mniej opcji niż oddzielne wtyczki do tworzenia np. Title tag. Tak wiec wtyczka polecana użytkownikom którzy nie chcą się specjalnie przemęczać – SEO pack. Można także pobrać polskie tłumaczenie powyższej wtyczki.

Simple Tags – Tagi

Dzięki temu rozszerzeniu WordPress’a możemy tworzyć i porządkować artykuły według tagów opisujących zawartość artykułu –
Simple Tags.

BreadCrumb – nawigacja

Na blogu Mariusza Gąsiewskiego znalazłem ciekawy post o wtyczkach SEO i usability jedna z ciekawszych nosi nazwę Breadcrumb Navigation. Wtyczka zapowiada się bardzo ciekawie, dodaje tzw. Breadcrumb czyli wskazuje gdzie (na jakiej podstronie) aktualnie znajduje się użytkownik i jednocześnie poprawia linkowanie wewnętrzne.

Znacie jeszcze jakieś wtyczki optymalizujące WordPress’a i wspomagające pozycjonowanie ?

Artykuł Wtyczki pozycjonerskie WordPress. Narzędzia SEO dla twojego bloga pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Nowości ze świata SEO. Linkowanie na zapleczu, noindex, universal search

Jako, że zbliżamy się wielkimi krokami do końca 2007 roku, postanowiłem przygotować małe zestawienie informacji, które w Polsce przeszły często bez echa a na zachodzie wywołały spore dyskusje. Część poniższych SEO newsów wychwyciłem z wywiadów, artykułów oraz oficjalnych wypowiedzi i publikacji pochodzących z Google. Specjalnie dla Ciebie — podsumowanie w pigułce. Dla praktyków zajmujących się pozycjonowaniem.

Linkowanie wzajemne

Obserwując polskie i zagraniczne blogi oraz dyskusje na wszelakich forach stwierdzam, iż wielu webmasterów zastanawia się nad linkowaniem wzajemnym. Czy ma pozytywny wpływ, czy wręcz negatywny? Część obawia się spamu lub bana za umieszczanie tego typu linków. Odpowiedź na to pytanie została umieszczona na angielskim blogu Google dla webmasterów: Server location cross linking and web.

I have many different sites. Can I cross-link between them?
Before you begin cross-linking sites, consider the user’s perspective and whether the crosslinks provide value. If the sites are related in business — e.g., an auto manual site linking to an auto parts retail site, then it could make sense — the links are organic and useful. Cross-linking between dozens or hundreds of sites, however, probably doesn’t provide value, and I would not recommend it.

Reasumując: Jeśli wzajemne linkowanie jest użyteczne dla użytkowników (czytaj: zbieżne tematycznie) to Google nie ma nic przeciwko.

Osobiście wykorzystuje tą technikę od jakiegoś czasu na swojej stronie firmowej i w mojej opinii wpływ na pozycję jest pozytywny z uwagi na wspomnianą w powyższym cytacie zbieżność tematyczną.

Nofollow, Noindex a Page Rank oraz Link Juice

Czyli informacje wyrwane z różnych wywiadów Matt’a…

Nofollow

Kolejna ważna kwestia to linki nofollow, noarchive, noindex. Podczas wywiadu Matt Cutts (inżynier Google ds. Jakości wyników wyszukiwań) powiedział:

Does Google recommend the use of nofollow internally as a positive method for controlling the flow of internal link love?
* A) Yes – webmasters can feel free to use nofollow internally to help tell Googlebot which pages they want to receive link juice from other pages
(Matt’s precise words were: The nofollow attribute is just a mechanism that gives webmasters the ability to modify PageRank flow at link-level granularity. Plenty of other mechanisms would also work (e.g. a link through a page that is robot.txt’ed out), but nofollow on individual links is simpler for some folks to use. There’s no stigma to using nofollow, even on your own internal links; for Google, nofollow’ed links are dropped out of our link graph; we don’t even use such links for discovery. By the way, the nofollow meta tag does that same thing, but at a page level.)

Na pytanie: Czy Google zaleca wewnętrzne stosowanie parametru nofollow jako dobrą metodę kontroli przepływu wewnętrznej mocy witryny?
Parafrazując, Matt powiedział: Tak, webmasterzy mogą swobodnie używać tego parametru do kontroli nad pracą Googlebot’a i przepływem wewnętrznego Page Rank.

Poniżej filmik przygotowany przez SEOMoz, wyjasniający dość dobrze pojęcie link juice.

Noindex a Page Rank

Podczas kolejnego wywiadu z Matt’em dostrzec można kolejne ciekawe wypowiedzi:

Eric Enge: Can a NoIndex page accumulate PageRank?
Matt Cutts: A NoIndex page can accumulate PageRank, because the links are still followed outwards from a NoIndex page.

Eric Enge: So, it can accumulate and pass PageRank.

Matt Cutts: Right, and it will still accumulate PageRank, but it won’t be showing in our Index. So, I wouldn’t make a NoIndex page that itself is a dead end. You can make a NoIndex page that has links to lots of other pages.

Wstawienie tagu Noindex na stronie nie powoduje przerwania procesu obliczania Page Rank a jedynie wstrzymuje indeksacje i publikacje danej podstrony w SERP’ach (Search Engine Resault Page) Google. Tym samym Page Rank i linki utrzymują swoje właściwości.

Dangling page’s

“Dangling links are simply links that point to any page with no outgoing links. They affect the model because it is not clear where their weight should be distributed, and there are a large number of them. Often these dangling links are simply pages that we have not downloaded yet……….Because dangling links do not affect the ranking of any other page directly, we simply remove them from the system until all the PageRanks are calculated. After all the PageRanks are calculated they can be added back in without affecting things significantly.” – extract from the original PageRank paper by Google’s founders, Sergey Brin and Lawrence Page.

Mówiąc w skrócie Dangling page’s to strony, które nie linkują dalej w głąb serwisu lub do innych serwisów. Podstrony tego typu są wyłączone z bieżących wyliczeń real Page Rank. Więcej…

Google Universal Search i pozorna semantyka

Kilka tygodni temu na stronach IDG News został opublikowany wywiad z Marissa Mayer, który z punktu widzenia marketera internetowego zawierał ogrom interesujących informacji. Poniżej krótkie streszczenie najciekawszych fragmentów dyskusji.

Rozpoznawanie mowy z plików video. Po co?

Podczas wywiadu padło pytanie o sposób indeksacji plików wideo:

Firma Blinkx twierdzi, że jest lepsza od Google, ponieważ dzięki wykorzystaniu technologii rozpoznawania mowy, posiada indeks tekstowy tego co jest mówione w klipach wideo. W jakim punkcie, jeśli chodzi o wyszukiwanie wideo, stoi dzisiaj Google?

MM: Nasi eksperci od rozpoznawania mowy mówią: jeśli chcecie byśmy zbudowali dobry model rozpoznawania mowy, potrzebujemy jak najwięcej fonemów, czyli jak najwięcej sylab wymawianych przez szczególne głosy o szczególnej intonacji. Więc potrzebujemy wielu rozmawiających ludzi, mówiących różnorodne kwestie, żebyśmy mogli “wytrenować” nasz system. Podsumowując 1-800-GOOG411 opiera się na pozyskaniu wielu różnorodnych sampli zawierających mowę, po to by rozpoznając głos w wideo, zrobić to z jak największą dokładnością.

Trzeba przyznać że powyższe jest odrobinę szokujące…

Semantyka w wynikach wyszukiwań?!

Wielu ludzi uważa, że rozwiązaniem […] problemów jest sieć semantyczna. My jednak patrzymy na sprawę inaczej – przy dużej ilości danych, zaczynasz dostrzegać rzeczy, które w działaniu sprawiają wrażenie inteligentnych, chociaż w istocie dotarcie do nich odbywało się na najniższym poziomie.

Ponieważ przetwarzamy ogromne pokłady informacji, mamy wiele danych o kontekście, np. wokół akronimów. I dochodzi do tego, że silnik wyszukiwarki wygląda na sprytny, tak jakby znał semantykę, tymczasem naprawdę tak nie jest. Opiera się to po prostu na rozwiązaniach typu “brute force”. Moim zdaniem, najlepszym algorytmem dla wyszukiwania powinny być metody obliczeniowe typu brute-force, wynikające ze zwykłej złożoności analizy dużej ilości danych oraz metoda jakościowa opierająca się na ludziach.

Czyli Google oficjalnie przyznaje się, że nie stosuje algorytmów semantycznych do tworzenia wyników wyszukiwań!

Infrastruktura serwerowa Google…

Kolejny cytat odnośnie domniemanych problemów serwerowych Google poruszanych między innymi w artykule o ruchu i jego wpływie na pozycje w Google:

Obecnie infrastruktura jest już taka jak być powinna i inżynierowie mogą wreszcie skupić się na właściwym zadaniu: rankingach, relewancji i interfejsie użytkownika.

Z punktu widzenia pozycjonerów całkiem ważna informacja, można się spodziewać przyśpieszenia indeksacji.

Ciekawa przyszłość SEO według Matt’a Cutts’a

Cytat pochodzi z kolejnego wywiadu przedstawiciela Google – Matt’a Cutts’a. Myślę także, że poniższy cytat dobrze odpowiada na pytanie Jeż’a o przyszłość SEO a także zachęca do zdobywania wszelakich certyfikatów Google.

Do you think there will ever become a time when Google will recommend certain SEO services or products outside of things related to AdWords?

It wouldn’t surprise me if it happened some day, but probably not really soon. One thing about being a certified Google Advertising Professional (GAP) is that we ask you to follow Google’s quality guidelines in regular SEO practices. If you look at the GAP program, I think that’s worked out pretty well so far. But because of the difficulty of knowing that a specific person/company is abiding by those guidelines, I wouldn’t expect it in the short-term.

Matt nie wyklucza wprowadzenia w dłuższym okresie czasu certyfikatów także dla firm SEO.

Z polskiego SEO podwórka

Ciekawsze inforamcje z ostatnich tygodnii znalezione w polskiej blogosferze.

Kod serwisowy 503

Z polskich ciekawszych tekstów warto zacytować Mendax’a który pisze: Co zrobić w czasie modernizacji strony aby Google ją poprawnie indeksował?

W skrócie:

Naszym celem jest:
a) pokazanie botom googiela strony z kodem 503,
b) pokazanie “normalnym” użytkownikom komunikatu o modernizacji,
c) umożliwienie webdeveloperowi pracę nad serwisem.

więcej na FabrykaSpamu.pl.

P.S. Link do artykułu warto byłoby przekazać administratorom Nasza-Klasa.pl ;).

Ewolucja wyników wyszukiwania Google

BlueRank.pl doszukał się ostatnio ciekawego wywiadu na temat ewolucji wyszukiwarek internetowych… W bardzo interesującym wywiadzie Peter Norvig (dyrektor ds. jakości wyszukiwania Google) potwierdza nasze ustalenia z postu o Paragraf 31 na temat ręcznej manipulacji wynikami Google:

Google przyznaje się do zatrudniania osób, które po przejściu odpowiedniego szkolenia, mają za zadanie oceniać empirycznie jakość zwracanych wyników.

Co ciekawe Google bada także klikalność linków z wyników wyszukiwań o czym pisaliśmy w artykule: “Czy ruch na stronie ma wpływ na pozycjonowanie?

rozkład kliknięć w wyniki – jeżeli np. miejsce pierwsze “zgarnia” stosunkowo duży procent kliknięć i na dodatek internauci nie odwiedzają kolejnych linków, zapewne oznacza to, że są zadowoleni z wyników wyszukiwania – jakość jest odpowiednio wysoka.

Jeżeli jednak kliknięcia się mnożą, internauci zmieniają zapytanie, itp. i cały proces dotarcia do informacji wydłuża się – takie sygnały mogą posłużyć do wprowadzenia zmian. Osobną kwestią jest, czy zmiany zachodzą w algorytmie wyszukiwarki, czy może są to jedynie przesunięcia “bardziej klikalnych” stron na wyższe pozycje w wynikach wyszukiwania.

Nowy Blog – SEMguru.pl

Na koniec informujemy że powstał nowy, często aktualizowany i zasobny w treści blog SEMGuru.pl. Serwis jest prowadzony przez dwóch Polaków na stałe mieszkających za oceanem. Chłopacy mają sporą wiedzę i naprawdę duże doświadczenie w branży SEM, zachęcam do częstych odwiedzin.

——————————

Grafika w nagłówku autorstwa użytkownika satit_shirin z freedigitalphotos.net

Artykuł Nowości ze świata SEO. Linkowanie na zapleczu, noindex, universal search pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Trendy SEO, czyli pozycjonowanie 2.0

Na czym polega Pozycjonowanie 2.0?! Czy SEO wchodzi w kolejny etap rozwoju? Przedstawiamy 15 różnic między SEO sprzed 5 lat a aktualną nową wizją Pozycjonowania 2.0, które zbliża się wielkimi krokami, także do Polski…

Okazuje się że mamy już nawet pierwszy blog o SEO 2.0 który wyjaśnia w jednym z pierwszych wpisów czym jest SEO 2.0. Ciekawie o Pozycjonowaniu 2.0 pisze nasz rodak żyjący za granicami kraju – Tadeusz Szewczyk, który na stronach blogoscoped.com przedstawił ostatnio wizję internetu bez SEO.

Zestawienie różnic SEO 1.0 a pozycjonowanie 2.0

SEO 1.0 SEO 2.0
Strategie budowania linków, takie jak: ręczne dodawanie do katalogów i presell pages, wymiana linków, kupowanie linków. Pozyskiwanie linków poprzez docieranie do grupy tzw. Linkerati (blogerzy, dziennikarze, właściciele i redaktorzy stron), tworzenie wartościowego kontentu, tworzenie Link Bait (przynęt na linki), serwisy społecznościowe,
Optymalizacja stron tylko pod roboty, np.: Tytuły stron wypchane słowami kluczowymi Optymalizacja stron z myślą o użytkownikach np.: Prowokujące do kliknięcia, przyciągające uwagę tytuły i anchory linków – Copywriting Anchor Text
Konkuruje się o pierwszą dziesiątkę wyników wyszukiwań na pojedyncze słowa kluczowe. Długi ogon słów kluczowych, pozycjonowanie szerokie. Walka obecność na stronach głównych czołowych serwisów społecznościowych jak Digg itp.
Link za link, oszukiwanie i ukrywanie linków pochodzących np. z wymiany Linkowanie dobrowolne, naturalne i spontaniczne.
Ukrywanie pozycjonowania, ukrywanie przez firmy swojego portfolio, bezosobowe firmy SEO/SEM, nie przedstawianie klientom technik pozycjonowania ich witryn Większa otwartość, mniej tematów tabu, swobodna i otwarta współpraca z klientem
Słowa kluczowe Tagi
Optymalizacja zorientowana na linki Optymalizacja zorientowana na ruch
Kliknięcia, odsłony, wizyty Konwersja, ROI (zwrot z inwestycji), branding
DMOZ del.icio.us
Główne źródła ruchu: Google, Yahoo, MSN Główne źródła ruchu: StumbleUpon, Digg, Myspace, niszowe strony branżowe, blogi, ruch a wpływ na pozycjonowanie
Komunikacja w jedną stronę Dialog, konwersacja, wymiana zdań i opinni
Nie demokratyczne, kto płaci najwięcej jest najwyżej Demokratyczne, kto odpowiada na potrzeby i pytania użytkowników jest najwyżej
Automatyczne w 50% Automatyczne w 10%
Wyniki ustalane na podstawie algorytmu i równań matematycznych. Personalizacja wyników wyszukiwań oraz Google Digg.
PiO – forum.optymalizacja.com Forum.SprawnyMarketing.pl

 

Oczywiście zdajemy sobie wszyscy sprawę, że na polskim rynku SEO 2.0 występuje w bardzo ograniczonym zakresie. Wiemy także, że póki co Pozycjonowanie 2.0 można zastosować przy stosunkowo małej ilości polskich stron… Wierzę jednak, że wraz z rozwojem polskiej sieci, trendy, które już wyraźnie widać w stanach będą dostrzegane i stosowane także na polskim rynku.

seo-2-0

Do artykułu zainspirował mnie tekst pod tytułem: SEO vs SEO 2.0 z bloga seo2.0.onreact.com należącego do wspomnianego Tadeusza Szewczyka, który jak widzę przeszukując angielskie Google wyrasta na czołowego eksperta tej wąskiej specjalizacji. Tadek prosimy o Twój komentarz ;).

—————————

Grafika w nagłówku autorstwa użytkownika digitalart z freedigitalphotos.net

Artykuł Trendy SEO, czyli pozycjonowanie 2.0 pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Wywiad z Bartoszem Kordyńskim. O zapleczu, meta tagach i znaczeniu PageRanku

Wyjeżdżając kilka tygodni temu do Egiptu miałem nadzieję na prawdziwy odpoczynek od codziennego zgiełku i całej branży SEM. Szybko jednak okazało się że nawet w Egipcie, 2000 km od III Rzeczpospolitej w miejscowości El Gouna, siedząc na kite surfingowym spocie spotkałem jedną z czołowych postaci polskiej branży SEO. Korzystając z okazji przeprowadziłem szybki wywiad z Bartoszem Kordyńskim.

Bartek jest właścicielem firmy z pierwszej dziesiątki na frazę “Pozycjonowanie” – PierwszeMiejsce.pl. Jest także właścicielem dwóch systemów wymiany linków, Linkuj.pl oraz LinkujPro.pl.

bartosz kordyński kite.png
Bartek Kordyński na Kite

 

Cezary Lech: 1. W jakim celu przyjechałeś do Egiptu ? ;)

Bartosz Kordyński: W takim samym w jakim i Ty :) Kitesurfing zawładnął mną ostatnio dość mocno, a że u nas zima, kierunek wyjazdu mógł być tylko jeden…

CL: 2. Od jak dawna zajmujesz się branżą SEO i dlaczego tak rzadko się udzielasz ?

BK: Początki mojej działalności związane są z przełomem lat 2001/2002, kiedy to po zmęczeniu kolejnego zlecenia na wykonanie strony www stwierdziłem, że talentu zdecydowanie do tego nie mam i trzeba byłoby znaleźć sobie jakieś lepsze/łatwiejsze/lepiej płatne zajęcie – padło w sumie przez przypadek na pozycjonowanie stron (co w tamtych czasach znaczyło po prostu spamowanie w Onecie). Odpowiadając na drugą część pytania – pozycjonowanie jest dla mnie po prostu biznesem, traktuję to jako sposób zarabiania pieniędzy i zdecydowanie udzielam się, ale w kontaktach z klientami, a nie na forach o pozycjonowaniu. Jest to świadomy wybór, po prostu stwierdziłem, że zamiast pisać na forach można zrobić coś innego, coś, z czego będę miał większą korzyść. Nadmienię jednak, że forum.optymalizacja.com czytam w miarę regularnie :)

CL: 3. Co myślisz na temat aktualnego stanu polskiej branży SEM oraz jak prognozujesz dalszy rozwój ?

BK: Zauważam zdecydowany wzrost świadomości klientów dotyczących naszej branży. Coraz więcej klientów wie o co w tym wszystkich chodzi, wie czego oczekiwać od firmy pozycjonującej. Na przełomie ostatnich 2 lat zauważyłem również zdecydowany wzrost ilości klientów zainteresowanych pozycjonowaniem, to z kolei moim zdaniem wiąże się z szybkim rozwojem gospodarczym naszego kraju. Prognozy na przyszłość? Będzie jeszcze lepiej! :)

CL: 4. Czy sądzisz że ruch ma lub będzie miał wpływ na wyniki wyszukiwań ?

BK: Rozumiem, że pytanie dotyczy Google :) – odpowiedź: nie ma i nie będzie miał. Siłą Google jest jego wysoka skuteczność przy szukaniu nawet bardzo absurdalnych/mało popularnych fraz i moim zdaniem to się nie zmieni. Kiedyś ktoś w jednej z czołowych polskich wyszukiwarek wymyślił “genialny” sposób zwany klikohitem – wszyscy wiedzą jak to się skończyło..

CL: 5. Co sądzisz o wpływie meta tagów na pozycje stron ?

BK:Wpływ jest minimalny, aczkolwiek nie można zapominać o tym, że na liście wyników dobry tytuł i opis może zdecydowanie zwiększyć klikalność danej pozycji.

CL: 6. Jakie jest Twoje zdanie na temat Page Rank ?

BK: Przestałem na niego zwracać uwagę już dość dawno, liczy się tylko wysoka pozycja.

CL: 7. Jak prognozujesz dalsze kierunki rozwoju pozycjonerskiego zaplecza… ?

BK: Moim zdaniem czasy, gdy można było za pomocą systemu wymiany linków wrzucić stronę na wysoko konkurencyjne hasło na 1 pozycję już minęły. Teraz trzeba używać kilku różnych sposobów, aby powalczyć o czołowe pozycje i przyznam, że nie widzę nic nowego co mogłoby zrewolucjonizować pozycjonowanie stron, tak jak swego czasu uczyniły to systemy wymiany.

CL: 8. Jak prognozujesz dalsze kierunki rozwoju systemów wymiany linków ?
BK: Tu odpowiedź będzie nawiązywała do poprzedniego pytania – moim zdaniem systemy wymiany linków to doskonałe narzędzia wspomagające pozycjonowanie stron, nie można ich jednak traktować jako jedynego środka do osiągnięcia wysokiej pozycji.

CL:9. Kończąc wywiad odpowiedz jeszcze na 3 “standardowe pytania”:
1. Co to jest pozycjonowanie ?

BK: Pozycjonowanie to jedna z lepszych rzeczy, które mi się w życiu trafiły :)

2. Czy jesteś spamerem ?

BK: Byłem, teraz to nie ma sensu.

3. Najskuteczniejsza metoda pozycjonowania ?

BK: Linkuj.pl dwa lata temu :)

 

Na koniec dodam tylko że Bartek odpowiadał na moje pytania nie znając wcześniej podlinkowanych artykułów, tak więc jak mniemam odpowiedzi są szczere. O dziwo Bartek w ogóle nie znał Sprawnego Marketingu – co podkreśla wagę i znaczenie tego wywiadu, jest to Bartka pierwsza aktywność publiczna od bardzo dawna ;).

Artykuł Wywiad z Bartoszem Kordyńskim. O zapleczu, meta tagach i znaczeniu PageRanku pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Nadeszła era long tail! Jak wykorzystać długi ogon w SEO i e-Biznesie?

Ostatnio,sporządzając jedną z kolejnych wycen, korzystałem z narzędzia Google Trends. Moją uwagę zwrócił zaskakujący spadek potencjału wyszukiwawczego ogólnych słów kluczowych związanych z branżą komputerową…

komputery monitory drukarki google trends

Myślę, że szokujący jest fakt, iż wszystkie podane w przykładzie frazy mają aktualnie potencjał mniejszy niż 4 lata temu! Podczas gdy polska sieć (ilość internautów itp…) urosła w tym czasie o dobre kilkadziesiąt procent!

Szukając dalej widzimy, że podobnie ma się sprawa także w przypadku wielu innych “popularnych” fraz… O wiele z nich najlepsi polscy pozycjonerzy toczą wieczną bitwę w wynikach wyszukiwań. Natomiast firmy płacą grube pieniądze za obecność pod wspomnianymi frazami… Czy w świetle poniższych faktów ma to dalej sens ?

fotografia-google-trends.png

aparaty-cyfrowe-google-trends.png

telefony-google-trends.png

Z czego wynika tak poważna zmiana trendu?
Czy polscy użytkownicy tak szybko ewoluują? Stają się harduser’ami?
Czy wyniki prezentowane pod ogólnymi frazami przestały ich satysfakcjonować?
Czy spada rentowność topowych fraz?
Co się dzieje z tym ruchem? Czy przenosi się on w długi ogon wyników wyszukiwań?!

Czy jest sens dalej walczyć z Ceneo o pierwsze miejsca w SERP’ach?!

Zobacz moją prezentację na temat Long Tail

21 Września tego roku miałem okazję przeprowadzić prezentację podczas II Otwartej Konferencji e-Biznesu i Inwestowania w Warszawie – OKEBI. Temat prezentacji brzmiał: Long Tail a SEO w e-Biznesie.
Jak wykorzystać długi ogon w pozycjonowaniu? Obejrzyj video.

Prezentacja

W mailach często pytaliście mnie gdzie można znaleźć pełną prezentację… Piotr Majewski umieścił ją niemal natychmiast po wykładzie na witrynie SlideShare.net: Long Tail a SEO w e-Biznesie. Poniżej oto i ona:

Video z prezentacji o długim ogonie

Dzięki uprzejmości Piotra Majewskiego dotarła do mnie także płyta DVD z nagraniem video z wykładu.

W zmontowanym materiale filmowym są jednak dwa małe błędy: do około 14 minuty na wizji mamy tylko slajdy wraz głosem wykładowcy, nie widać natomiast sali ani widowni, dalej jest już OK…

Drugim błędem mogącym powodować niepełne zrozumienie prezentacji jest brak video w slajdach z “Analizy treści witryny”. Były to dwa pliki video załączone do prezentacji konfrontujące ilość kombinacji słów kluczowych dla dwóch podstron produktowych obrazujące jak duże znaczenie ma treść.

Bezpośredni link do Video.Google.com: Long Tail a Pozycjonowanie w e-Biznesie

Wymienione linki o long tail i pozycjonowaniu

Obiecane linki do tematów poruszonych podczas prezentacji:
Centrum Google dla Webmasterów

Linki do artykułów rozszerzających temat wykładu i koncepcji długiego ogona:

Wtyczka do FireFox’a wyświetlająca główne parametry strony:

Mod_rewrite:

Na koniec chciałem podziękować Piotrowi Majewskiemu za bardzo fajną imprezę i możliwość prezentacji swojej wiedzy. Wszystkich czytelników zapraszam natomiast na kolejny, już trzeci OKEBI który odbędzie się w dniach 20-21 września przyszłego roku.


 Share

Artykuł Nadeszła era long tail! Jak wykorzystać długi ogon w SEO i e-Biznesie? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Kliknięcia w link a pozycjonowanie. Jak napisać dobry anchor text? Copywriting SEO

Wzrost znaczenia analizy i zbieżności tekstowej linkujących witryn wraz z jednoczesnym wzrostem wpływu ruchu generowanego przez linki na ich moc pozycjonerską może zrewolucjonizować wyniki wyszukiwań. Google szuka sposobów na zmniejszenie wpływu klasycznego anchor text. Przygotuj się na te zmiany już dziś, tworząc linki, które są klikane. Jak zwiększać CTR linków?

Do dzisiejszego wpisu zainspirował mnie artykuł dostrzeżony w serwisie Sphinn.com, czyli Digg’u dla SEO-wców, SEM-owców i innych spamerów ;).

Dostrzeżony tekst nosi nazwę Much Ado about Anchor Text. Artykuł porusza kwestię Anchor Textu linków prowadzących do witryn, czyli czynnika o największym potencjale wpływu na pozycje stron internetowych w wyszukiwarkach. Autor wspomina, iż po ostatnich wpadkach i “update’ach” związanych z Google Bombs wyszukiwarka szuka sposobów na zmniejszenie wpływu czynnika jakim jest Anchor Text na pozycję stron.

Dla początkujących: nie wiesz co to jest Anchor text?
Kliknij i dowiedź się więcej

Teza artykułu opiera się o Patent wyszukiwarki o nazwie: “Personalizing anchor text scores in a search engine

An anchor text indexer 217 is responsible for generating an inverted anchor text index 211 from the links in each document received by the server 210, including the text surrounding the links. The links and corresponding text are extracted from each document and stored in records identifying the source document, the target document associated with a link, and the anchor text associated with the link. When a sufficient number of such records have been accumulated, an inverted anchor text index 211 is generated, mapping anchor text terms to the documents that are the target of the corresponding links. In some embodiments, the inverted anchor text index 211 is merged with or incorporated in the inverted content index 208. More information about anchor text indexing is provided in U.S. patent application Ser. No. 10/614,113, filed Jul. 3, 2003, “Anchor Text Indexing in a Web Crawler System”, which is hereby incorporated by reference.

Zacytowany fragment patentu sprowadza się do analizowania tekstu i słów kluczowych otaczających link i wyznaczanie Realnego Anchor’a (Real Anchor) linku na podstawie czynników innych niż tradycyjny tytuł (anchor) linka.

Anchor Text a traffic

Zmniejszenie roli Anchor Text oraz wzrost znaczenia analizy i zbieżności tekstowej linkujących witryn wraz z jednoczesnym wzrostem wpływu ruchu generowanego przez linki na ich moc pozycjonerską może faktycznie zrewolucjonizować wyniki wyszukiwań! Także Paweł Kobis opisuje wzrastające prawdopodobieństwo mierzenia klikalności linków co w połączeniu z ze wspomnianym Patentem Google może przynieść spore zmiany w SERP’ach.

Tezy odważne, lecz im więcej czasu mija od ostatniego katastrofalnego w skutkach Folrida Update tym bardziej niepokoję się o kolejny poważny update algorytmu. Nad skutkami dla branży SEO/SEM takiego upadte’u zastanawiał się ostatnio Jeż w swoim blogowym wpisie – Co zrobisz gdy Google zakręci kurek?

Podnoszenie CTR linka, czyli copywriting anchor text

Odnośnie klikalności linków pojawił się ostatnio bardzo ciekawy wynik testu na stronach Marketing Sherpa mówiący, iż drobna zmiana tytułu linka (anchoru) w mailingu spowodowała wzrost kliknięć o 8% !

Can the wording used in your newsletter’s hyperlinks make a difference in clickthrough rates? The answer is yes. Turns out that the right two or three click link words can lift your clickthroughs by more than 8%. Here are our notes on an experiment we did so you can try this easy test on your own newsletters.

Co więcej możemy zobaczyć dokładny wpływ anchorów na klikalność:

  • “Click to continue”: 8.53%
  • “Continue to article”: 3.3%
  • “Read more”: -1.8%

Widzimy więc wyraźnie, że klikalność jest bezsprzecznie uzależniona od anchora linka. Tym samym można powiedzieć że po SEO Copywritingu, Presell Pages i Optymalizatorze stron docelowych w AdWords branża SEO, SEM wkracza coraz bardziej w obszar Copywritingu i ciągłego testowania. Zadanie domowe do odrobienia – co zrobić, żeby link był klikany i jednocześnie niosący wartość SEO? O sugestie proszę w komentarzach.

Przyszłość… ?

Reasumując, najwyraźniej powoli w naszych strategiach linkowych należy zacząć uwzględniać naturalne, generujące wysoki CTR anchor texty a słowa kluczowe które tradycyjnie występowały w anchorze powinniśmy umieszczać w tekście otaczającym linki! Myślę że, w tym kierunku będą szły dalsze zmiany w Google i już teraz zachęcam was do wdrażania tych rozwiązań.

Przeczytaj więcej:

Artykuł Kliknięcia w link a pozycjonowanie. Jak napisać dobry anchor text? Copywriting SEO pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Praca w Google: sprawdź czy nadajesz się na Googlersa!

W książce The Google Story został umieszczony ciekawy dodatek zawierający test któremu są poddawani kandydaci na stanowiska w Google Labs czyli tzw. GLAT – Google Labs Aptitude Test. W dzisiejszym wpisie pozwoliliśmy sobie zacytować kilka ciekawszych fragmentów tego testu dobrze oddających kulturę pracy w Google. Test może być również interesujący dla osób na co dzień pracujących w działach rekrutacji.

GLAT Google Labs Aptitude Test

4. Znajdujesz się w labiryncie złożonym z krętych, jednakowych korytarzyków. Masz pod ręką przykurzonego laptopa z kiepskim łączem bezprzewodowym. Po labiryncie krążą bez przekonania pół żywe krasnale. Co waść uczynisz ?

a) Wędrujesz do celu, wpadając na przeszkody i kończąc w żołądku wrzaka.
b) Używając laptopa jako prowizorycznej łopaty, dokopujesz się do następnego poziomu.
c) Grasz w sieciowe RPG, dopóki baterii i nadziei starczy.
d) Przy pomocy komputera opracowujesz mapę labiryntu i namierzasz ścieżkę prowadzącą do wyjścia.
e) Wysyłasz e-mailem swoje CV do Google, informujesz szefa krasnali że odchodzisz i odkrywasz świat nowych możliwości.

5. Co Ci się nie podoba w Unix’ie ? Jak byś go ulepszył ?

8. Na ile różnych kolorów można pomalować dwudziestościan korzystając z trzech kolorów ? Każda ściana musi być jednobarwna.
Jakie kolory byś wybrał?

9. Ramkę poniżej celowo pozostawiono pustą, abyś mógł ją wypełnić czymś lepszym od owej pustki.

12. Który z wyprowadzonych w historii ludzkości wzorów jest według Ciebie najpiękniejszy?

14. Na czym będzie polegać następne przełomowe odkrycie w technologiach wyszukiwania?!

W teście znajduje się także kilka pytań wymagających większego wysiłku:

1. Rozwiąż równanie zdając sobie jednocześnie sprawę, że cyfry symbolizowane przez M i E można zamienić miejscami. W, G i D, nie są równe 0

WWWDOT – GOOGLE = DOTCOM

16. Jak przy pomocy cyrkla i linijki wyznaczyć w obrębie trojkąta ABC punkt P, tak żeby trójkąty ABP. ACP, i BCP miały równe obwody? Załóżmy że zadanie jest rozwiązywalne.

20. Jaka liczba powinna być następna w ciągu 10, 9, 60, 90, 70, 66 ?

a) 96
b) 100000000000000000000000000000000000000000000000000000000000000000
0000000000000000000000000000000000000000000000
c) Obie powyższe
d) Żadna z powyższych

Odpowiedzi na pytania znajdziecie tutaj.

Resztę pytań znajdziecie w książce The Google Story lub na Oficjalnym Blogu Google.

Historia Google - The Google Story

Na koniec ciekawy test sprawdzający jak bardzo Geek jesteś ;) – Geek Test
A także How Addicted to blogging are you ?

Artykuł Praca w Google: sprawdź czy nadajesz się na Googlersa! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

10 meta tagów do pozycjonowania stron

Pamiętam dni, kiedy zaczynałem “robić” swoją pierwszą stronę internetową. Pamiętam także, jak dużą uwagę zwracałem wówczas na poszukiwanie coraz to nowych tajemnych meta tagów, które to w magiczny sposób wypromują moją stronę na pierwsze miejsca wyników wyszukiwań. Szybko zdałem sobie sprawę, iż takie meta tagi nie istnieją! Dlaczego w polskim internecie cały czas panuje przekonanie, że pozycjonowanie ogranicza się do meta tagów? Meta Tagi to kolejny po Page Rank mit z którym zaczynamy walczyć

Na początek krótka definicja z Wikipedii czym są meta tagi (meta znaczniki)

Znaczniki META w języku HTML
Meta tag – zbiór znaczników w części nagłówkowej dokumentu używanych do opisu ich zawartości, stosowany przy tworzeniu stron internetowych w formacie HTML.

Za ich pomocą można zdeklarować e-mail autora strony, imię i nazwisko autora strony, datę powstania strony itp. Można również zdeklarować kodowanie strony ( np. ISO-8859-2 ).

Tym co wyróżnia pseudo pozycjonerów oraz pozycjonerów z allegro od prawdziwych fachowców jest przywiązywanie zbyt dużej uwagi do meta tagów. Wiedza większości tego typu “pozycjonerów” zatrzymała się 3-4 lata temu w czasach kiedy meta tag faktycznie sporo znaczył. Na dzień dzisiejszy jest zaledwie kilka meta tagów o których należy pamiętać i które faktycznie mają wpływ na wyniki wyszukiwań. Poniżej opisujemy te meta tagi, które naszym zdaniem są warte uwagi:

Tytuł strony

<title></title>

Tag o kluczowym wpływie na pozycję witryny w wynikach wyszukiwań. Poprawnie skonstruowany Title często wystarcza do osiągnięcia pozycji w pierwszej dziesiątce wyników wyszukiwań dla mało konkurencyjnych fraz. Warto wspomnieć, iż Tag ten ma także kluczowy wpływ na klikalność linków prezentowanych przez Google, warto sprawdzać różne Title i mierzyć klikalność poszczególnych tytułów.

Opis strony

<meta name="Description" content="Opis strony">

Meta tag nie ma wpływu na wyniki w wyszukiwarce Google. Jednak dobrze skonstruowany znacznie poprawia klikalność wyświetlanych przez wyszukiwarkę wyników.

Aktualizacja: Na blogu Google pojawił się bardzo ciekawy wpis na temat meta tagu Description.

Słowa kluczowe


<meta name="Keywords" content="Słowa kluczowe">

Meta tag pomijany przez roboty Google, cały czas ma pozytywny wpływ na pozycje w wyszukiwarkach takich jak onet czy netsprint.

Noindex, Nofollow

<meta name="robots" content="noindex,nofollow">

Meta tag ograniczający dostęp robotów do strony www:

noindex – konkretna podstrona na której jest umieszczony ten tag nie jest indeksowana przez wyszukiwarkę lub zostanie wyindeksowana.

nofollow – robot Google nie podąża za linkami obecnymi na podstronie na której tag jest obecny.

Powyższe funkcje można także umieścić w pliku robots.txt. Funkcje “index”, “follow”, “all” są domyślnymi ustawieniami dla robota indeksującego Google tak więc nie jest konieczne wpisywanie tych elementów do meta tagów.

Noodp

<meta name=”robots” content=”noodp”>

Powyższy tag powoduje, iż Google nie zmienia samodzielnie wyświetlanego Tytułu witryny na tytuł ustalony przez redaktora katalogu DMOZ – Open Directory Project.

Warto pamiętać także o tagu <meta name="robots" content="noydir" />, który działa w wyszukiwarce Yahoo i powoduje, iż Yahoo nie używa tytułu z katalogu Yahoo Directory dla stron obecnych w wynikach wyszukiwań.

Verify

<meta name="verify-v1" content="Indywidualny numer użytkownika">

meta tag weryfikujący właściciela strony, konieczne przy dodawaniu strony do Centrum dla Webmasterów. Powyższy meta tag generuje jednak czasami problemy przy walidacji witryny tak wiec warto pomyśleć o umieszczeniu pliku html o odpowiedniej nazwie.

Unavailable_after

<meta name="googlebot" content="unavailable_after: 31-Dec-2007 23:59:59 EST">

Unavailable after – jest najnowszym meta tagiem oficjalnie obsługiwanym przez Google. Jego funkcja sprowadza się do wykluczania z indeksu stron które są już nieaktualne… Ciekawą funkcjonalność tego tagu zauważył Shpyo.

W mojej opinii przy pozycjonowaniu stron w Google pomocne są tylko wyżej wymienione meta tagi, nie warto zawracać sobie głowy innymi znacznikami a tym bardziej umieszczać w tych meta tagach słów kluczowych. Z moich obserwacji wynika, iż żadne inne Meta Tagi nie mają wpływu na wyniki wyszukiwań.

Ciekawy jestem waszych obserwacji odnośnie Meta Tagów, zapraszam do komentowania.

Linki:
Oficjalne dokumenty o meta tagach na stronach pomocy Google.

Matt Cutts o tagu “noodp”

New robots.txt feature and REP Meta Tags

How To Use HTML Meta Tags

——————————————————————

Aktualizacja (2010): Google wprowadziło 2 nowe metatagi, które będą wykorzystywane przez Google News:

meta name=”syndication-source” content=”http://www.domena.pl/artykul.html”
meta name=”original-source” content=”http://www.domena.pl/artykul.html”

Początkowo ich wpływ nie będzie widoczny, gdyż są to metatagi eksperymentalne i przez początkowy okres Google będzie jedynie obserwować, w jaki sposób webmasterzy ich używają. W przypadku wykrycia naruszeń w stosowaniu nowych metatagów, możliwe jest nawet całkowite wykluczenie strony z Google News.

Dotychczas w celu wskazania źródła informacji, z których korzystaliśmy przy pisaniu artykułów czy aktualności, musieliśmy wstawić aktywny link przekazujący PR prowadzący bezpośrednio do kopiowanego tekstu. W ten sposób Google miał określić, która ze stron zawierała oryginał, a która kopię.

Kolejnym sposobem na to był tag canonical, początkowo używany tylko w obrębie tej samej domeny, a później także między domenami. Nowe  metatagi pozwolą na lepsze wyświetlanie stron w Google News.

Kiedy używać metatagu “syndication-source“?

  • kiedy umożliwiamy innym przedruk naszych artykułów – w takim przypadku należy poinformować inne serwisy, aby umieściły ten sam metatag na swoich stronach;
  • kiedy publikujemy przedrukowany artykuł – wstawiamy metatag wskazując na źródło informacji;
  • kiedy publikujemy przedrukowany artykuł, ale nie znamy dokładnego adresu podstrony – wystarczy wtedy powołać się na stronę główną.

Kiedy używać metatagu “original-source“?

  • kiedy wskazujemy na źródło, które opublikowało daną wiadomość jako pierwsze.

W przeciwieństwie do “syndication-source”, metatag “original-source” można użyć kilkukrotnie powołując się na wiele źródeł.

Aktualizacja na podstawie wpisu Marty Gryszko.

Szczegółowe informacje na temat nowych metatagów znajdują się w pomocy Google.

 

Artykuł 10 meta tagów do pozycjonowania stron pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Czy Google PageRank to ściema? 4 argumenty na TAK!

Od dłuższego czasu konsekwentnie staram się propagować pogląd, iż Google Page Rank jest pustym nic nieznaczącym parametrem. Pisałem o tym problemie dosyć szeroko kilka miesięcy temu. W poniższym artykule wracamy do tego tematu przedstawiając kolejne argumenty podważające wagę tego czynnika.

Jakiś czas temu miałem okazje uczestniczyć w szkoleniu Digital Training Academy z zakresu zaawansowanego marketingu internetowego organizowanego przez Internet Advertising Berau Polska. Wykłady prowadzone były w języku angielskim przez dwóch doświadczonych trenerów z Anglii: Danny Meadows-Klue (założyciela IAB w Europie od kilkunastu lat związany z branżą internetową) oraz Ann Stanley (Specjalistka od Kampanii Google AdWords). W trakcie szkolenia Danny przedstawił m.in. główne założenia algorytmu Page Rank, opisał metodę działania oraz wagę czynników wpływających na uzyskiwany przez stronę wynik Page Rank. W trakcie przedstawiania wątku wykładowca poruszył jednak kilka kwestii z którymi ciężko jest się zgodzić. Nie chciałem zakłócać przebiegu szkolenia, w związku z czym wstrzymałem się z prezentacja zastrzeżeń do tego momentu.

Myślę, iż drobne błędy merytoryczne czy też niedopowiedzenia z zakresu algorytmu Page Rank nie wynikały z niewiedzy Dannego a raczej z zapożyczenia pechowego rozdziału z podstawowej wersji szkoleń, które nasi trenerzy prowadzą zdecydowanie częściej. Nie mniej jednak poniżej prezentuje (także 25 innym uczestnikom owego szkolenia) w formie możliwie przystępnej cztery mocne argumenty dla których Toolbarowym Page Rankiem nie należy się w ogóle przejmować:

Page Rank równanie matematyczne aktualizowane raz na 3 miesiące

1. Page Rank jest równaniem matematycznym wyliczającym powyższy wskaźnik tylko na podstawie linków.
Linki aktualizuje raz na 3 miesiące tym samym Page Rank mówi nam:

Mam gdzieś czy te linki jeszcze wogóle istnieją, sprawdzę za 3 miesiące…

3 miesiące w tak szybko rozrastającej się sieci www są jak lata świetlne.

Algorytm Page Rank nie zwraca uwagi na anchor text

2. Google Page Rank ignoruje najważniejszy czynnik wpływający na pozycje – Anchor Tekst Linków

Page Rank nie zwraca uwagii na zbieżność tematyczną

3. Google Page Rank zupełnie ignoruje zbieżność tematyczną linkujących serwisów.

Google Directory nie aktualizuje Page Rank od 18 miesięcy

4. Google nie aktualizuje wskaźnika Page Rank w swoim katalogu Google Directory od prawie dwóch lat ! Aktualne dane pochodzą jeszcze z 19 Marca 2006 i od tego czasu wskaźnik ten nie uległ zmianie.

Dane pochodzą z www.seocompany.ca
Pozostaje więc finalne pytanie czy Page Rank sam w sobie miał kiedykolwiek rzeczywisty wpływ na wyniki ?!

Czy Page Rank ma jeszcze jakikolwiek wpływ na wyniki

Czy Page Rank ma jeszcze jakikolwiek wpływ na rezultaty wyszukiwań ?! Z moich informacji wynika że NIE !! Co ciekawe sam Google ustami inżyniera Matt’a Cutts’a mówi, iż PageRank nie ma odniesienia na rzeczywiste pozycje w SERP’ach:

“By the time you see newer PageRanks in the toolbar, those values have already been incorporated in how we score/rank our search results. So while you may be happy to see that the Google Toolbar shows a little more PageRank for a given page, it’s not as if that causes a change in search results at that point. So you won’t see any search engine result page (SERP) changes as a result of this PageRank export–those changes have been gradually baking in since the last PageRank export.”

Myślę że czas najwyższy zamknąć rozdział zwany Page Rankiem i skupić się na użytkownikach i ruchu jaki generują. Swoją drogą być może ToolBarowy Page Rank już wkrótce zostanie zastąpiony innym parametrem…

Linki:
Dokument o Page Rank na stronach Stanford University

Matt Cuts o Google Page Rank

Obszerny artykuł o parametrze Page Rank

Jak Google ustala wyniki wyszukiwań ?

Autorem ilustracji jest: Przemysław Kaczorowski

Artykuł Czy Google PageRank to ściema? 4 argumenty na TAK! pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Spis Presell Pages, czyli skuteczniejsze pozycjonowanie. Analiza SWOT precli

Można powiedzieć, że pozycjonowanie w dużej mierze sprowadza się do budowania zaplecza. Natomiast o pozycjonerze najlepiej świadczy jego zaplecze. Ostatnio bardzo zdewaluowały się katalogi, czyli podstawowy rodzaj zaplecza. Nadeszła era tzw. Presell Pages, a dziś oficjalną premierę ma serwis Spis.PresellPage.pl.

3 przykazania Pozycjonera (za Pajmon.com Sprafrazowane wypowiedzi z forum PiO):

Zasada pozycjonera no.1 brzmi:
Pozycjoner tyle warty, co jego zaplecze

Zasada pozycjonera no.2 dotyczy samego zaplecza (gdyż zaplecze jest ciałem pozycjonera):
Dobre zaplecze, to sto stron na stu różnych IP.
Ze wskazaniem na “różnych IP“.

Zasada pozycjonera no.3 jest najbardziej przykra, ale jak najbardziej prawdziwa:
Pozycjonowanie jest drogie.
Nie masz pieniędzy – nie będziesz dobrym pozycjonerem.

Jeśli powyżej przytoczone uznać to za prawdę to można śmiało powiedzieć że w polskim świecie SEO w ostatnim czasie nastąpił wyraźny przełom !

Baczni obserwatorzy polskiej sceny SEO zapewne dostrzegli zalążki nowego trendu w budowaniu i rozwijaniu zaplecza. Nowe zjawisko ma bezpośredni związek ze spodziewanym i już obserwowanym powolnym końcem tradycyjnych katalogów stron, szczególnie tych opartych na skrypcie QlWeb.

Google Webmaster Central Blog:

…Przejawia się to między innymi nadużywaniem katalogów typu qlweb lub kopiowaniem znanych z jakościowo dobrej treści serwisów, jak Wikipedia lub Open Directory Project…

Jak wiadomo rynek nie znosi pustki i bardzo szybko znaleziono nową metodę na generowanie tym razem nieco bardziej sensownego merytorycznie kontentu. Pomysł jest oczywisty i prosty (jak wszystkie przełomowe pomysły) jego głównym elementem jest skrypt Word Press dotychczas wykorzystywany głównie do blogów. Okazało się że powyższy skrypt jest idealny także do celów SEO. Poza dobrą optymalizacją pod wyszukiwarki i masą wtyczek optymalizujących, skrypt WordPress’a jest także bardzo dobrze indeksowany przez roboty wyszukiwarek – czasami po 4 godzinach nasze wpisy są już zaindeksowane. M.in. za sprawą Kavy, polski pomysł rozchodzi się już po świecie i jest o nim całkiem głośno nawet w dosyć przeciętnej “pozycjonersko” Hiszpanii ;).

Pierwszą polską stroną z artykułami opartą o skrypt Word Press był www.katablog.pl.
Po pewnym czasie zaczęły się pojawiać kolejne serwisy tego typu… aż w końcu dnia dzisiejszego udostępniłem Spis stron typu Presell Page w wersji dopracowanej graficznie i w pełni funkcjonalnej.

Spis Presell Page

Polecam także kanał RSS informujący o nowych Presell Page’s dodanych do spisu…

Dyskusję o formie promocji poprzez wartościowe artykuły SEO podjął jakiś czas temu Mariusz Gąsiewski na swoim blogu ittechnology.us. W artykule: “Gdzie można dodać artykuły SEO” pisze o najlepszych darmowych formach promocji które przy okazji zaliczają się do metod ściśle white SEO i User Firendly, na forum.optymalizacja.com powstał także oddzielny dział tylko na temat stron typu Presell Page! Natomiast cały ewolucyjny proces dobrze skonstatował Nawigator w poście: “Umarł król, niech żyje król!”

Czym tak na prawde są strony PresSell Pages i skąd pochodzi nazwa ?

Ciekawa definicja znajduje się na stronie www.presellpage.com:

What are presell pages?

…Presell page is usually an article that is original and has a topic that is highly relevant to your site. Because your hosting site is an authority domain, it usually does not take much for it to rank well. This creates a point of entry on high rankings for your site. It is important to craft content that is complimentary to your web site and overall business.

Because your pre sell page is hosted on an authority domain, your own website will soon reap the trust rank benefits. As you are being hosted on an established domain, (usually 5 years and older) you get the sublinks from great amounts of commercial and even .edu and .gov domains.

Główne różnice między polską wersją presell page a amerykańską to:
– wiek naszych domen rzadko przekracza rok.
– nie zdarzają sie domeny .edu i .gov ;)

Tak więc podczas budowania kolejnych stron typu Presell Page pamiętajcie o tym aby:

– Presell stał na domenie głównej
– domena była możliwie stara
– strona nie zawierała nazw typu: Katalog, Presell itp…

Analiza SWOT

Pojawia się jednak także sporo niepokojących głosów o niskiej jakości contentu, o duplikowaniu treści, a co niektórzy przewidują równie szybki koniec co Qlwebów (Skrypt powstał prawie 2 lata temu). W odpowiedzi na zarzuty przeprowadziłem małą analizę SWOT:

Analiza SWOT stron Presell Page

Zwrócicie także uwagę jak linki z preselli są interpretowane przez Technorati.com. Posłużę się także cytatem z ostatniego wpisu na blogu Official Google Webmaster Central Blog dotyczyącym linkowania (wpis w języku polskim):

Najlepszą metodą uzyskania dobrych linków jest niepowtarzalna, interesująca treść, która w naturalny sposób zdobędzie popularność w społeczności internetowej, a szczególnie wśród grona osób zainteresowanych danym tematem, na przykład u autorów blogów. Naturalnie uzyskane linki istnieją dłużej niż kupione, ponieważ nadane bezinteresownie rzadziej są usuwane.

Spora cześć Zagrożeń i Słabych Stron Presell Pages może zostać wyeliminowana poprzez pomysł zaproponowany przez Veal’a na forum PiO polegający na ujednoliceniu bazy użytkowników a także na badaniu unikalności wpisów w Presell Pages obecnych w systemie. Gotowe pliki do instalacji znajdują sie pod adresem presell_eu.tar.gz. Warto wdrożyć te rozwiązanie.

Jak dodawać i właściwie formatować wpisy

Proces rejestracji a także tworzenia i dodawania swoich wpisów bardzo fajnie opisał Pajmon w swoim Presell Page About.

Warto stworzyć dla swojej strony kilka pełno wartościowych artykułów – można przy tym skorzystać z pomocy profesjonalisty który za nie wielkie pieniądze stworzy wartościowy i unikalny artykuł związany z Twoją branża i zawierający Twoje słowa kluczowe !
Ogłoszenie na forum PiO:

1 art. 6zł, dłuższa współpraca cena do negocjacji
Chętnych do współpracy zapraszam na gg 4951265 lub neola@poczta.fm

lub

Przyjmę pisanie artykułów o tematyce turystyczno-podróżniczej i podobne.
Dowolna ilość słów kluczowych w artykule, dowolna ilość linków w artykule.
Na życzenie możliwość wystawiania faktury VAT.
cena za artykuł – 10zł (netto)

informacje karina@addesignstudio.pl Karina

Dla tych którzy wolą pisać samodzielnie polecam przeczytanie kilku porad na stronie napiszartykul.pl w dziale “Jak napisać artykuł”, warto także zapoznać się z ideą
SEO Copywriting’u.

Jak wykorzystać wpisy typu pressell page do skutecznego pozycjonowania ?!

Po kolei:

1. Zarejestruj się
2. Poczekaj na hasło wysłane na maila i zaloguj się.
3. Napisz możliwie unikalny tekst.
4. Umieść w tekście linki do Twojej strony
5. Opublikuj tekst w serwisie !
6. Następnie linkuj do swojego wpisu, np. (http://www.PresellPage.pl/pozycjonowanie/pozycjonowanie-stron/), taki adres można spokojnie wrzucić do Addera lub podlinkować z innych stron.

Po pewnym czasie taki wpis nabiera sporej mocy pozycjonerskiej i bardzo efektywnie pozycjonuje strony internetowe, dostajesz:

  • Linki,
  • Zbieżną tematycznie treść,
  • Inny IP,
  • Inną domenę,
  • Następnie linkując do tekstu otrzymujesz bardzo silny link tematyczny !
  • Należy przy tym pamiętać i wykorzystywać zjawisko Anchor PR (SEO dopalacz Jeża)
  • Zapraszam także do zapoznania się z artykułem: Jak stworzyć najmocniejszy link pozycjonujący?

Jak zainstalować skrypt oraz co i jak zoptymalizować pod kątem SEO ?!

Proces instalacji Presell Pages bardzo ładnie krok po kroku został opisany na blogu fabrykaspamu.pl w temacie: “Jak postawić precla na WordPress”. Artykuł jest długi lecz bardzo szczegółowo wyjaśnia cały proces – Zdecydowanie Polecam !

Warto także poczytać podstawy instalacji i aktualizacji skryptu Word Press. Proponuję rozpocząć od lektury kilku tekstów, następnym krokiem powinno być dostosowanie skryptu do wymagań strony Presell Page.

Ciekawy pomysł zaproponował alumilut z forum PiO. Stworzył on platformę Blogową która umożliwia łatwe tworzenie Presell Page’s na subdomenach domeny www.blogpl.pl. Skrypty są stawiane na skrypcie WordPress, do wyboru jest kilkanaście skórek serwisu. Proponuję jednak aby autor umożliwił dodawanie innych domen głównych oraz różnicował IP subdomen !

Dalej należy pomyśleć o optymalizacji skryptu i instalacji całej masy wtyczek maksymalnie dostosowujących skrypt do wymagań SEO:

    • Proces optymalizacji jest częściowo zaprezentowany na poniższym filmie:

Więcej bardziej szczegółowych informacji na temat możliwości optymalizacji WordPress’a zawierają poniższe linki:

PolskiBlogger.pl:

    • Optymalizacja skryptu WordPress’a pod kątem SEO

SEO Portal:

Web-Marketing.pl:

ITtechnology.us:

Inne:

Na koniec należy zaznaczyć, iż stronę typu Presell Page można postawić także na innych skryptach:

Jeśli coś pominąłem to proszę o info…

Zapraszam do korzystania oraz dodawania kolejnych presseli do Spisu stron typu Pressell Pages !

Proszę także was o włączenie się do promocji Spisu poprzez umieszczanie linków w postaci buttona:

<a href=”http://Spis.PresellPage.pl” title=”Spis stron z artykułami SEO”><img src=”http://spis.presellpage.pl/spis-presell.png” alt=”Spis PresellPage” border=”0″></a>

Czekam także na wasze komentarze odnośnie Analizy SWOT

Artykuł Spis Presell Pages, czyli skuteczniejsze pozycjonowanie. Analiza SWOT precli pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Ruch na stronie nowym czynnikiem rankingowym?

W pozycjonowaniu liczą się linki, linki i jeszcze raz linki. Czy aby na pewno i tylko? Ruch generowany przez użytkowników na stronach internetowych to doskonały czynnik weryfikujący jakość linków. Czy wkrótce będzie miał bardzo istotne znaczenie przy pozycjonowaniu? Dlaczego pozycjonowanie stanie się trudniejsze i będzie miało więcej wspólnego z marketingiem?

Pamiętam jak ponad rok temu Tomek Frontczak, na jednym ze spotkań pozycjonerów w Poznaniu, przedstawił swoją tezę odnośnie linków i ruchu przez nie generowanego. Głównym punktem ww. tezy było założenie, że linki bezpośrednie zawsze będą miały wpływ na pozycje stron w indeksie Google (nie ma bowiem innej obiektywnej metody na zmierzenie wartości strony jak poprzez ilość i jakość linków do niej prowadzących). W prognozie Tomka miała się w przyszłości zmienić jedynie waga ruchu generowanego przez linki. W ostatnich tygodniach słowa Tomka nabierają zupełnie innego, bardziej realnego wymiaru.

Spróbujmy oderwać się na chwilę od rzeczywistości i wyobrazić sobie idealną wyszukiwarkę. W mojej wyobraźni rysuje się obraz wyszukiwarki w pełni web 2.0, w której to o wynikach wyszukiwań decydują sami użytkownicy – nawzajem polecają sobie strony, artykuły, dokumenty, dodają komentarze i opinie o znalezionych stronach.

Taką wizję wyszukiwarki jakiś czas temu przedstawił Jimmy Wales twórca Wikipedii, który ma zamiar budować nową alternatywną dla Google i Yahoo wyszukiwarkę internetową:

Nowa wyszukiwarka […] ma stanowić połączenie otwartego oprogramowania do wyszukiwania stron WWW oraz ludzkiej inteligencji, która ostatecznie uporządkuje wyniki wyszukiwania.

16 Marca została uruchomiona wyszukiwarka WikiSeek, która podobno stanowi silnik nowej wyszukiwarki Wikipedii.

Idealne wyniki wyszukiwań składałyby się tylko z wartościowych pozbawionych spamu stron a ranking byłby ustalany m.in. poprzez te same procesy, które aktualnie możemy zaobserwować na Digg.com i Wykop.pl. W tej utopijnej wizji nie byłoby także miejsca na pozycjonowanie stron… Jednym słowem indeks idealny – marzenie wielu internautów. Czy możliwy do zrealizowania?

Efekt Skali

Wszystko wskazuje na to, iż inżynierowie Google doskonale wiedzą, jaki element jest najtrudniejszy do zafałszowania w internecie. Jest nim ogromna ilość unikalnych użytkowników, czyli najzwyczajniej efekt ogromnego wolumenu userów Google. Próby manipulacji wynikami wyszukiwań przy algorytmach badania ruchu użytkowników są o tyle utrudnione, iż Google już teraz posiada bardzo zaawansowane i działające narzędzia do ochrony przed click fraud w Google AdWords/AdSense!

Dla wielu znanych mi osób z branży SEO argumentem oddalającym wprowadzenie mechanizmów badania ruchu jest fakt, iż powszechnie uważa się, że Google nie ma wystarczających zapasów mocy (co ostatnio zostało oficjalnie potwierdzone – zobacz artykuł Marzec miesiącem kłopotów Google) do tego typu zaawansowanych operacji.

W mojej opinii znaczna część danych o ruchu internetowym jest już teraz badana i przechowywana poprzez serwisy i narzędzia za darmo udostępniane, takie jak: Google Analytics, Gmail, You Tube, Google Toolbar, Blogger. Dodając do tego dane z Google AdWords i Google AdSense może się okazać, iż Google już teraz ustala wagę linków na podstawie badań ruchu użytkowników (czyli wykorzystuje to co i tak musi przechowywać !). Co więcej globalny potentat na rynku wyszukiwarek cały czas rozwija swoją infrastrukturę o coraz to nowe projekty warte setki milionów dolarów! Tak więc już wkrótce wszelkie argumenty mówiące o niewydolności systemu informatycznego Google najprawdopodobniej stracą na aktualności!

nowe centrum serwerowe Google
Jedna z serwerowni Google. Źródło zdjęcia: NYT

Wyniki spersonalizowane

Kilka tygodni temu w kwestii wpływu ruchu użytkowników na ranking wyszukiwań zabrali głos pracownicy Google – Matt Cutts oraz Marissa Mayerdyrektor Google ds. Wyszukiwania.
W swoich wypowiedziach potwierdzają oni plany zwiększania wpływu użytkowników na rankingi, sporo jest także mowy o spersonalizowanych wynikach wyszukiwań oraz o spersonalizowanej stronie głównej Google.

Na ten temat powstały także dwa świetne posty na blogu ITtechnology.us:

Z powyższych wpisów możemy się między innymi dowiedzieć o przewidywanej przyszłości rankingów, a także o potwierdzających te tezy konkretnych patentach technologicznych jakie Google rejestruje i testuje już od lat!

Analiza ruchów użytkowników jest podstawowym parametrem wskaźnika pochodnego od Page Ranku – Alexa Rank, który z miesiąca na miesiąc z coraz większą dokładnością przedstawia rankingi ruchu na witrynach internetowych. Alexa Rank swoje wyniki zbiera przede wszystkim poprzez Alexa Toolbar, co przy porównaniu zasięgu Alexa Web Search do Google zdecydowanie daje do myślenia.

Jak ruch na stronach ma się do pozycjonowania?

Należy zwrócić uwagę, iż precyzyjne monitorowanie ruchów użytkowników w istocie znacznie uprasza algorytm i rozwiązuje szereg problemów dotychczas stojących przed inżynierami Google:

  • linki rel=”nofollow” — stworzone jako odpowiedź na spamowanie Blogów i Wikipedi straciłyby rację bytu. W chwili obecnej tego typu linki nie są uwzględniane w tradycyjnym algorytmie Page Rank.
  • Linki z farm linków, systemów wymiany oraz innych tworzonych tylko dla robotów przestaną mieć jakikolwiek wpływ na index.
  • Linki niewidoczne, w kolorze tła, linki w stopkach i inne linki czysto pozycjonerskie nie generujące żadnego ruchu przestaną być uwzględniane przez algorytm.

W perspektywie nowych algorytmów spora ilość czynników o których pisałem w artykule Jak stworzyć najmocniejszy link pozycjonujący także przestanie mieć znaczenie. Okazuje się, że wystarczy zmierzyć CTR danego linka aby określić w dużym przybliżeniu jego wartość!

W nowym algorytmie czynniki takie jak Anchor, Title, Zbieżność tematyczna, Otoczenie linków tekstem znacznie straciłyby na znaczeniu, szczególnie w odniesieniu do linków typowo pozycjonerskich, czyli tych, które nie są klikane. Dla Google liczy się to co jest istotne dla użytkowników i jestem przekonany że tak właśnie będzie wyglądał algorytm w niedalekiej przyszłości.

Rewolucja?

Problem poruszany w tym artykule w mniejszym stopniu dotyczy polskich SERPów z uwagi na niższy stopień zaawansowania algorytmów działających w polskim internecie. Należy się jednak liczyć iż szybki rozwój Google w Polsce i na świecie przyczyni się do wyrównywania różnic w zaawansowaniu algorytmów. W ostatnim wpisie na Blogu Webmaster Central Blog mogliśmy przeczytać, iż:

Dbając o polskich użytkowników, Google niedawno ulepszył algorytmy i metody weryfikacji istotnych linków.

Cytat ten prowokuje mnie do stwierdzenia, iż większość “istotnych linków” (ze stron o wyższym Page Rank, real Page Rank) prowadzących do naszych stron jest już teraz monitorowane przez Google. No i należy pamiętać o ręcznej manipulacji wynikami przez pracowników Google, co może dotyczyć 10% wyników.

Myślę jednak, że nie należy spodziewać się, iż Google wprowadzi Update algorytmów na skalę Florydy czy Jaggera.
Jakby nie było Google Inc jest spółką giełdową i wszelki czarny PR jest raczej niewskazany, dlatego też moim zdaniem wszelkie algorytmy będą wprowadzane stopniowo, testowane na małych grupach użytkowników lub innych wyszukiwarkach Google pokroju Search Mash.

Jedyne co nam pozostaje, to konsekwentnie inwestować w metody White SEO i User Friendly, a jeśli już kupować linki i stawiać zaplecze to wartościowe, generujące ruch i ściśle tematyczne. Oczywiście jeżeli myślimy przyszłościowo i chcemy opierać strategie marketingową na kilku filarach.

————————-
Grafika w nagłówku autorstwa użytkownika nipitphand z freedigitalphotos.net

Artykuł Ruch na stronie nowym czynnikiem rankingowym? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Kary i filtry w Google — przyczyny i formy nakładania kar za pozycjonowanie

Filtr, Ban, Sandbox, Paragraf 31, Duplicate Content — mówi to Wam coś? Pozycjonerom zapewne tak. Powyższe nazwy przedstawiają wachlarz represji, jakimi dysponuje wyszukiwarka Google podczas karania stron obecnych w jej indeksie za wszelkie nadużycia i niezgodności z regulaminem dla webmasterów. Przyczyny nakładania kar oraz ich formy opisujemy w poniższym artykule.

Ban, Sandbox, Paragraf 31 — nazwy znane każdemu pozycjonerowi. Wokół części z nich zbudowano już całe historie, opowiadania a nawet wiersze. Na ich temat zostały napisane tysiące postów, powstało także szereg teorii spiskowych.

Nazwy te są niczym niezidentyfikowane obiekty latające globalnego internetu, nigdy nie wiadomo w kogo uderzą i gdzie się pojawią. W czym tkwi ich siła oddziaływania? Dlaczego wywołują przerażenie w oczach tysięcy właścicieli stron? Jak wiadomo niewiedza wywołuje strach, dlatego też poniżej postaramy się opisać wszystkie znane nam filtry Google.

Jakby nie było pozycjonerów, nie byłoby kar, czyli kilka słów wyjaśnienia dla osób spoza branży

Głównymi winowajcami urozmaicania polskiego słownika wyrazów obcych z zakresu marketingu internetowego są osoby zajmujące się tzw. pozycjonowaniem stron internetowych czyli: Pozycjonerzy (SEO) i Marketerzy (SEM). Zawód pozycjonera stron internetowych pojawił się w kilka lat po starcie pierwszych globalnych wyszukiwarek internetowych. W głowach marketerów i webmasterów szybko pojawiło się pytanie: Zrobiliśmy stronę… Ale co dalej? Jak napędzić ruch? Jak sprzedać? Jak zarobić?

Odpowiedź nasunęła się sama wraz z nieuchronnym rozwojem i wzrostem popularności wyszukiwarek internetowych. Na polskim rynku odpowiedź na wyżej postawione pytania brzmi: GOOGLE! Poprzez aktywną promocję tylko w tej jednej wyszukiwarce można być pewnym, że nasz przekaz dotrze do lwiej części naszej grupy docelowej.

Szybko okazało się, że wysoka pozycja gwarantuje sprzedaż i kontakty handlowe. Wraz z pojawieniem się pieniędzy w internecie powstał nowy Błękitny Ocean, który stworzył nową płaszczyznę dla biznesu. Jak wiadomo, tam gdzie pieniądze, tam też pojawia się pokusa do nadużyć.
W ten sposób rozpoczęła się gra która nigdy nie będzie miała końca — pozycjonowanie stron internetowych. Gra, której często celem jest manipulacja wynikami Google.

Przyczyny, nazwy, formy kar

Google nie musi walczyć z white-SEO (osoby zajmujące się białym SEO używają technik, które nie naruszają wskazówek Google dla webmasterów). Problemem są: SPAMerzy i zwolennicy Adama Słodowego* w stylu:„Pozycjonowanie stron: zrób to sam”. Zdecydowana większość kar poniżej opisywanych dotyczy właśnie tych dwóch grup i sprawiedliwie czy nie ale to amatorzy i oszuści głównie dostają po łapach. Ci drudzy najczęściej ryzyko mają wliczone w swoje działania.

*Adam Słodowy to kultowa postać zeszłej epoki, w której to nie było YouTube, tylko Teleranek. Popularyzator majsterkowania – przypisek dla młodszych czytelników :)

Ban

Pierwszym i zarazem najbardziej popularnym stwierdzeniem używanym w odniesieniu do kar Google jest tzw. BAN. Najczęściej określenie zdecydowanie nadużywane i stosowane w złym kontekście. Dla wielu użytkowników ban jest także synonimem wszystkich kar Google, symbolem całego zła i najgorszą rzeczą jaka może się przytrafić domenie.

W praktyce ban jest faktycznie najsurowszą formą kary, należy jednak pamiętać że ban jest przyznawany bardzo rzadko w sytuacjach radykalnego naruszenia regulaminu wyszukiwarki.

Przyczyny nakładania bana:

  • Ukryty tekst
  • Ukryte linki
  • Za dziesiątki tys. subdomen
  • Doorway Page’s
  • Przekierowania
  • Cloaking
  • Strony stworzone tylko dla wyłudzenia pieniędzy (niektóre PP), MFA (Made For AdSense).

Ban nakładany jest tylko i wyłącznie za zawartość domeny, nigdy nie za linki przychodzące lub czynniki niezależne od webmastera.

Aby ściągnąć bana z domeny należy usunąć wszystkie elementy mogące wzbudzić wątpliwość redaktora a następnie skorzystać z formularza request for re-inclusion dostępnego m.in. w narzędziu Google SiteMaps. W przypadku świadomego usunięcia strony przez Google otrzymasz wówczas stosowną informację w panelu. Czas reakcji na request for re-inclusion od 1-2 miesięcy, niestety ale sprawdzone empirycznie.

Sandbox

Sandbox (z ang. piaskownica) to drugi w kolejności bardzo często nakładany filtr, który dla większości pozycjonerów stanowi największe zagrożenie. Sandbox jest bezpośrednio związany z czynnikiem o największym wpływie na pozycję strony. Chodzi oczywiście o linki prowadzące do witryny a konkretnie o ich anchor text.

Filtr polega na czasowym filtrowaniu i nie pokazywaniu strony www pod konkretną frazą/frazami czy słowem/słowom kluczowym w wynikach wyszukiwania. Kara jest najczęściej przyznawana młodym stronom, które są silnie pozycjonowane pod jedno słowo kluczowe. Aby uniknąć kary, należy nie przekraczać 50-70% linków z jednym anchor textem i umiarkowanie, rozsądnie linkować (rozkładać w czasie ilość linków). Granica ta nie jest oczywiście stała, czasami już jeden link z wartościowej strony może spowodować nałożenie kary.

Tzw. Google Bombing zostało ograniczone, dlatego m.in. zniknęła strona Leppera dla słowa “kretyn”. Być może jest to znak, że Google w końcu zaczęło porządki i coraz większe znaczenie w pozyskiwaniu linków dla pozycjonowania będzie miało to, czy ktoś w te linki w ogóle klika. Więcej informacji na blogu web navigatora.

Kara trwa od 3-12 miesięcy. W tym czasie Google nie bierze pod uwagę linków z określonym anchor textem i wrzuca je niczym ziarenka piasku do tzw. Sandboxa czyli piaskownicy, poczekalni dla młodych linków, które jeszcze nie są wiarygodne i nie zasłużyły na uznanie algorytmu.

Wychodzenie z filtra nie jest łatwe, przede wszystkim należy konsekwentnie linkować (szczególnie tam, gdzie istnieje prawdopodobieństwo kliknięcia w link), stopniowo zmniejszając udział filtrowanej frazy w anchorach linków i tak aż do skutku. Po wyjściu z filtra strona najczęściej wraca na te same lub jeszcze wyższe pozycje!

Paragraf 31

Paragraf 31 był już szeroko omawiany i komentowany na Sprawnym Marketingu. Należy jednak zaznaczyć, iż jest to najmłodszy filtr Google i po ostatnim Update PR efekty jego działania obserwujemy z nieco mniejszą intensywnością.

Więcej na temat Paragrafu 31:

Aging Delay

Obszerne wyjaśnienie Aging Delay można znaleść w słowniku sloganu informatycznego:

Aging Delay — …zjawisko spotykane w wyszukiwarce internetowej Google polegające na tym, iż nowo utworzona strona internetowa pojawia się w wynikach Google bardzo wysoko przez kilka pierwszych tygodni od dodania (dzięki zjawisku Fresh Site Bonus (FSB)), po czym spada bardzo nisko lub znika całkowicie z wyników wyszukiwania. […] Strona ma już zazwyczaj wysoki wskaźnik PageRank i wszystko wskazuje na to, że powinna być wysoko ww wynikach. Jednak jakaś tajemnicza “łapa” trzyma ją tak, iż nie potrafi wybić się w górę. […]

Środowisko SEO upatruje w tym działaniu próbę zabezpieczenia się Google przed manipulowaniem wynikami i pozycjonowaniem nowych domen. Zazwyczaj bowiem to właśnie strony pozycjonowane ten problem dotyczy, a więc strony, które w początkowym okresie istnienia otrzymują nieproporcjonalnie dużą ilość linków do nich prowadzących. Aging delay według obserwacji trwa nawet do 7-8 miesięcy i nie dotyczy wszystkich stron. Jedynym zalecanym działaniem w przypadku wpadnięcia w Aging Delay jest po prostu czekanie…

Ze swojego komentarza dodam tylko, że zjawisko w Polsce występowało w bardzo ograniczonej skali i dotyczyło głównie zachodnich wyników wyszukiwań. Filtr ten traci zasadność w obliczu serwisów społecznościowych i całego trendu web 2.0, wiadomo bowiem, że młoda strona możne zanotować olbrzymi przyrost linków publikując jeden ciekawy film na YouTube.com. Tym samym wiek strony zmniejsza swoje znaczenie na rzecz ruchów użytkowników generowanych przez linki oraz ilości odwiedzin! Na tą chwilę filtr znacznie zmniejszył swoją czułość.

Duplicate Content

Duplicate Content jest to filtr przeciwdziałający indeksowaniu przez wyszukiwarkę powielonej treści. Najprawdopodobniej działanie mechanizmu wykrywającego jest bardzo proste i polega na zadawaniu do bazy zapytań dłuższych niż standardowy limit 8 słów. W przypadku dwóch bardzo zbieżnych zawartości strona, która zostanie później zaindeksowana zostaje usunięta z indexu lub przesunięta do Supplemental Index.

Przykład narzędzia detektującego powieloną treść: Copy Scape

Inne nienazwane filtry

Istnieje spora ilość filtrów które nigdy nie zostaną nazwane. Wynika to z tego iż większą część popełnianych przez nie “przestępstw” zaliczamy do czynów o niskiej szkodliwości SEO. Ich uciążliwość oraz wyrazistość jest na tyle niewielka że nie ma sensu ich nazywać a nawet w 100% potwierdzić ich istnienia.

Jeśli zastanawiałeś się kiedyś dlaczego Twoja witryna:
– notuje dziwne rotacje pozycji,
– doświadcza jednodniowych spadków,
– wypada z indeksu na kilka dni,
to wiedz, że najprawdopodobniej są za to odpowiedzialne właśnie te nigdy nie nazwane filtry.

Druga możliwość to awaria jednego z serwerów Google ( jest ich blisko 450 tys. ) a więc statystycznie, dziennie psuje się 4-5 serwerów.

Więcej na ten temat:

———————————————————————–

Aktualizacja (2012):  Google pracuje nad nową algorytmiczną karą – tym razem celem będą witryny “przeoptymalizowane” (org. “over-optimized”). Zdradził to podczas konferencji SXSW sam Matt Cutts, szef Search Quality Team w Google. Deklarowanym celem kary jest “wyrównanie szans”.

Jak tłumaczy Cutts, chodzi o to, by witryny gorszej jakości nie były w stanie “nadrobić” dystansu do lepszych za pomocą sztuczek pozycjonerskich. Wyższa jakość treści ma być doceniana w wynikach wyszukiwania, a czas webmasterów powinien być inwestowany właśnie w lepsze treści, a nie w “przeoptymalizowywanie” witryny.

Google rzadko (nigdy?) dotąd informował z wyprzedzeniem o zamiarach wprowadzenia zmian w algorytmie. Tym razem jest inaczej, chociaż Cutts nie zdradził absolutnie żadnych szczegółów dotyczących algorytmu. Trudno więc powiedzieć, jak w Google rozumieją “przeoptymalizowanie”, kto powinien obawiać się zmian i do jakiego stanu należałoby doprowadzić witrynę, żeby spać spokojnie. Cutts wymienił jedynie oczywistości: faszerowanie witryny słowami kluczowymi, zbyt wiele przypadków wzajemnego linkowania czy “inne cechy odróżniające spośród standardowych witryn”.

Cutts poświęcił nowym karom zaledwie chwilę, którą wypełniał głównie stwierdzeniami typu “chcemy uczynić Googlebota sprytniejszym”, “zależy nam na poprawianiu jakości wyników”, “nad zmianami pracuje kilku naszych inżynierów”.

Zapis audio fragmentu rozmowy, jaki Danny Sullivan z Search Engine Landu przeprowadził z Mattem Cuttsem znajduje się tutaj:

————————————————————–

Grafika w nagłówku autorstwa użytkownika Danilin z freedigitalphotos.net

Artykuł Kary i filtry w Google — przyczyny i formy nakładania kar za pozycjonowanie pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Mityczny PageRank

W ostatnich dniach społeczność pozycjonerów była świadkiem kolejnej aktualizacji wartości parametru Page Rank (PR). Nie obyło się bez narzekań i radości webmasterów. Pojawił się szereg pytań, które naszym zdaniem należy postawić w kontekście zielonego, mitycznego paska Google. Czym na chwilę obecną jest blisko 10 letni algorytm? Jakie ma znaczenie dla wyników wyszukiwań? Czy Page Rank jest już tylko produktem działu Public Relations globalnej wyszukiwarki i fetyszem pozycjonerów?

Page Rank — czy to już tylko fetysz pozycjonerów?

Page Rank, od czego się zaczęło…

Pierwszym zalążkiem algorytmu wyszukiwarki Google była praca doktorska, którą Larry Page obronił na uniwersytecie Stanforda. W trakcie poszukiwania tematu Larry Page zwrócił uwagę na szybko rozwijającą się sieć www, a dokładnie na specyficzną strukturę sieci internetowej. Dla młodego inżyniera fascynująca była ilość połączeń między stronami internetowymi, każdy link hypertekstowy był swego rodzaju cytatem i adnotacją nawiązującą do treści innej witryny.

Jako że, Larry wywodził się ze środowiska akademickiego, szybko doszukał się podobieństw pomiędzy naukowym sposobem określania ważności tekstów naukowych a możliwością zastosowania tego mechanizmu w sieci. I tak, wzorując się na mechanizmie bibliometryki, czyli działu nauki zajmującej się badaniem dokumentów pisanych i zawartych w nich cytatów, stworzył algorytm bazujacy na badaniach bibliometrycznych:

Badania bibliometryczne zajmują się stosowaniem cytatów, ilościowo oceniając znaczenie i “wpływ” poszczególnych prac naukowych. W tym znaczeniu bibliometryka zajmuje się oceną pozycji prac i czasopism na które powołują się inni autorzy. […] Zauważając że cytat cytatowi nie równy zaproponowano bardziej wyrafinowaną metodę pomiaru pozycji. Określony dokument jest “wpływowy”, jeśli zamieszczone w nim artykuły są często cytowane w innych wpływowych periodykach.

The Search, John Battelle

Notabene powyższym rankingiem starają się manipulować także autorzy publikacji naukowych poprzez umawianie się na zasadzie: “Ja zacytuje ciebie, ty zacytuj mnie”.

Przytaczając prace innych naukowców, można przelać na siebie blask ich pozycji i autorytet – jest to kluczowa koncepcja funkcjonowania Google.

Na tych podstawach powstał projekt BackRub (wczesny prekursor Google) którego statutowym celem było zliczenie wszystkich odnośników w jeszcze bardzo młodej sieci www. Pierwsze szacunki mówiły, iż przed młodymi naukowcami stoi zadanie zaindeksowania 100 milionów odsyłaczy na 10 milionach stron.

Projekt ostro ruszył do przodu coraz mocniej obciążając serwery uniwersytetu Stanforda… w między czasie projekt BackRub cały czas ewoluował, aż w końcu przerodził się w wyszukiwarkę Google. I tak w sierpniu 1996 roku pojawiła się pierwsza wersja wyszukiwarki Google z wdrożonym i sprawnie działającym algorytmem Page Rank.

Po czym poznać, że ktoś zajmuje się marketingiem w wyszukiwarkach?
Skrót PR oznacza dla niego w pierwszej kolejność PageRank, a nie Public Relations

Czym aktualnie jest Page Rank ?

Niewielu zapewne o tym wie, ale opatentowany algorytm Page Rank należy w rzeczywistości do Uniwersytetu Stanforda, z zaznaczeniem, że Google ma licencję na wyłączność do 2011 roku. Jeśli jednak z niepokojem wyczekujesz 2011 roku w nadziei na poznanie największego sekretu Google, wiedz że, Page Rank sprzed 10 lat jest czymś zupełnie innym niż aktualny algorytm. Podstawowe założenia swego czasu bardzo dobrzeopisał “Pasja” na forum PiO.

Na chwile obecną to co prezentuje i aktualizuje raz na 3 miesiące Google ma znaczenie tylko dla pseudo “pozycjonerów” z Allegro sprzedających linki, a sam PR nie ma już bezpośredniego wpływu na pozycje witryny w rankingu! Era PR dobiegła końca i utwierdza nas w tym przekonaniu każdy kolejny update (akutalizacja) Google. Jedyny problem to przywiązanie emocjonalne webmasterów do tego zielonego wskaźnika.

Możemy się nawet pokusić o odważną tezę, iż wskaźnik Page Rank jest już tylko narzędziem piarowym w rękach głównego “specjalisty Public Relations” Google Matt’a Cutts’a, który na swoim blogu rozpisuje się na tematy bliskie naszym pozycjonerskim sercom.

Update’y

Pełna lista update’ów (aktualizacji) Page Rank oraz Back Links (linki zwrotne w Google wyświetlane na komendę “link:“) jest dostępna pod adresem:
www.seocompany.ca/pagerank/page-rank-update-list.html

Na powyższej liście widoczny jest kolejny dowód na nikłe znaczenie parametru Page Rank:

2007 Waiting GDPR Export Estimation Mar 19/06 405

Jak widać, nawet wyszukiwarka Google nie uaktualnia od ponad roku wskaźnika Page Rank przy ustalaniu wagi i kolejności wpisów w swoim katalogu stron.

Jak nie PR to co?

Odpowiedź na pytanie: “Jak nie PR to co?” zawarta jest m.in. w artykule: Jak stworzyć najmocniejszy link pozycjonujący ?

W tym punkcie warto jednak wymienić inne także nieoficjalne rodzaje parametru Page Rank:

  • ToolBar PR — Aktualnie wyświetlany parametr m.in. w pasku narzędziowym Google (Google ToolBar), parametr można także sprawdzić na stronie: Page Rank
  • realPR — jest wskaźnikiem określającym prawdziwą i aktualną wartość strony dla wyszukiwarki. RealPR jest ewolucją Page Ranku.
  • Anchor PR — Page Rank anchorów linków, czyli moc linka zależna jest od “Anchor PR” strony pod wskazanym słowem kluczowym
  • Trust Rank — polega na ocenie poziomu zaufania strony na podstawie wiarygodności innych stron linkujących.

Wszystko wskazuje na to, iż parametr Page Rank, po 10 latach żywej obecności w świecie SEO przechodzi do historii wyszukiwarek internetowych. Innymi słowy Google po raz kolejny podnosi poprzeczkę, utrudniając webmasterom szybką ocenę wartości strony i pozycjonowanie. Aktualnie, głównym parametrem, który należy brać pod uwagę, jest ilość i jakość linków prowadzących do witryny. W tym miejscu pojawia się jednak kolejny problem związany z brakiem wiarygodnego źródła informacji na temat linków zwrotnych.

Otóż Yahoo indeksuje wszystko jak leci, nie rozróżniając linków z Supplemental Index a właściwego indexu. MSN natomiast cały czas jest w fazie testów i rozbudowy wyszukiwarki Live i jak na razie pozycjonowanie tutaj praktycznie nie istnieje.

Z obozu Google ostatnimi czasy dochodzi coraz więcej informacji jakoby Google miał ponownie uaktywnić komendę link: i zacząć prezentować prawdziwe wyniki zaindeksowanych linków zwrotnych! Miejmy nadzieje że wspomniane rozwiązanie już wkrótce zostanie wprowadzone.

Zrozumieć PageRank – Moja prezentacja z SEMcamp

Logo SEMcamp - Cykliczne spotkania specjalistów branży SEM24 Czerwca miałem przyjemność wystąpić na SEMcampie. Temat mojej prezentacji to: “Zrozumieć PageRank: Czyli algorytm Google od podstaw”. Wystąpienie miało miejsce dzień przed szkoleniem SEO, dlatego możecie potraktować ten wykład jako darmowy rozdział szkolenia z pozycjonowania.

Podczas semcampu odbyły się także dwie inne prezentacje:

Wszystkie występy do zobaczenia na kanale YouTube Semcamp, podsumowanie trzeciego semcampu znajdziecie na stronie SEMcamp.com.pl

Video “Zrozumieć PageRank” w dwóch częściach:

Pierwsze 30 sekund bardzo słabo słychać, później jest już lepiej.
[youtube]http://www.youtube.com/watch?v=RYsWGuq59Vc[/youtube]

[youtube]http://www.youtube.com/watch?v=hGm1C-fRu38[/youtube]

Zapraszam do dyskusji i komentarzy, interesuje mnie także wasza opinia na temat realizacji obietnicy złożonej w ofercie szkolenia SEO:

Rozłożymy na części pierwsze cały algorytm Page Rank.

Co o tym sądzicie ??

Do zobaczenia na kolejnych SEMcamp’ach.

[Aktualizacja 20.09.2011] Cutts: obniżamy PageRank witryn sprzedających linki

W opublikowanym niedawno wideo, szef działu jakości wyników wyszukiwania w Google, Matt Cutts, odpowiada na pytanie o przyczyny obserwowanych przez webmasterów obniżek widocznego w toolbarze wskaźnika PageRank. Wymienia trzy najczęstsze powody:

  • witryna utraciła linka/linki z witryn o wysokim PageRanku,
  • witryna ma źle zrobioną kanonikalizację, co wprowadza w błąd algorytm Google,
  • najczęstszy powód, zdaniem Matta, to sprzedawanie linków przez daną witrynę. Obniżanie jej PageRanku ma zniechęcać następnych kupców do kupowania pochodzących z niej linków,

Oto pełne nagranie wypowiedzi Matta:

 

Matt wyjaśnił także, że toolbarowy PageRank jest aktualizowany 3 lub 4 razy do roku. Tak niska częstotliwość aktualizacji wynika z niechęci Google’a do koncentrowania na PageRanku uwagi webmasterów, którą powinni raczej poświęcić dbałości o jakościową treść witryny, dobre znaczniki TITLE czy dostępność witryny.

Jeśli zatem sprzedawałeś linki, mówi Matt, i zanotowałeś spadek toolbarowego PageRanku, po prostu usuń płatne linki, przestań sprzedawać kolejne, wyślij prośbę o ponowne rozpatrzenie zgłoszenia witryny (reconsideration request), a Google prawdopodobnie przywróci twój PageRank do dawnej wysokości.

Zobacz więcej:

 

Aktualizacja: Google obniża PR witryn sprzedających linki

W opublikowanym niedawno wideo, szef działu jakości wyników wyszukiwania w Google, Matt Cutts, odpowiada na pytanie o przyczyny obserwowanych przez webmasterów obniżek widocznego w toolbarze wskaźnika PageRank. Wymienia trzy najczęstsze powody:

  • witryna utraciła linka/linki z witryn o wysokim PageRanku,
  • witryna ma źle zrobioną kanonikalizację, co wprowadza w błąd algorytm Google,
  • najczęstszy powód, zdaniem Matta, to sprzedawanie linków przez daną witrynę. Obniżanie jej PageRanku ma zniechęcać następnych kupców do kupowania pochodzących z niej linków,

Oto pełne nagranie wypowiedzi Matta:

Matt wyjaśnił także, że toolbarowy PageRank jest aktualizowany 3 lub 4 razy do roku. Tak niska częstotliwość aktualizacji wynika z niechęci Google’a do koncentrowania na PageRanku uwagi webmasterów, którą powinni raczej poświęcić dbałości o jakościową treść witryny, dobre znaczniki TITLE czy dostępność witryny.

Jeśli zatem sprzedawałeś linki, mówi Matt, i zanotowałeś spadek toolbarowego PageRanku, po prostu usuń płatne linki, przestań sprzedawać kolejne, wyślij prośbę o ponowne rozpatrzenie zgłoszenia witryny (reconsideration request), a Google prawdopodobnie przywróci twój PageRank do dawnej wysokości.

[źródło: Google: PageRank Drops Most Likely Because You Sell Links]

 

Prezentacja “Zrozumieć Pagerank”

Zobacz także wystąpienie Cezarego Lecha na SEMCamp 2009 pt.: “Zrozumieć PageRank: Czyli algorytm Google od podstaw”. Wystąpienie miało miejsce dzień przed szkoleniem SEO, dlatego możecie potraktować ten wykład jako darmowy rozdział szkolenia z pozycjonowania.

Video “Zrozumieć PageRank” w dwóch częściach:

Pierwsze 30 sekund bardzo słabo słychać, później jest już lepiej.
[youtube]http://www.youtube.com/watch?v=RYsWGuq59Vc[/youtube]

[youtube]http://www.youtube.com/watch?v=hGm1C-fRu38[/youtube]

Artykuł Mityczny PageRank pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Jak stworzyć najmocniejszy link pozycjonujący?

Linki, linki, linki… do tego można by sprowadzić pozycjonowanie trudnych fraz w wyszukiwarkach. Link linkowi jednak nie równy. Jak ocenić potencjał strony linkującej? Jak zwiększyć siłę linku oraz jak ocenić zbieżność tematyczną? Zastanowimy się również nad tym, jaki wpływ na rankingi mogą mieć narzędzia stworzone przez Google, które analizują ruch w internecie.

Linki hypertekstowe istnieją tak długo jak internet, leżą u jego podstaw. Pozwalają nam sprawnie poruszać się po sieci, przechodzić ze strony na stronę, oglądać filmy, słuchać muzyki. Można śmiało powiedzieć, że internet bez odnośników tekstowych nie byłby tym, czym jest teraz.

Linki — podstawa marketingu w wyszukiwarkach

Linki nabrały nowego wymiaru w 1995 roku, gdy Larry Page stworzył algorytm wyszukiwarki Google, którego głównym elementem stał się parametr Page Rank, obliczany na podstawie linków prowadzących do strony.

Ascetycznie prosty w swej formule link tekstowy stał się również podstawą sukcesu całej wyszukiwarki Google, stając się jednocześnie fundamentem wartej miliardy dolarów reklamy poprzez Google AdWords. Płatna reklama w wyszukiwarkach to linki sponsorowane, których ten artykuł nie będzie dotyczył.

Linki pozycjonujące

Osoby zajmujące się pozycjonowaniem kupują linki, lub próbują je zdobyć innymi sposobami, głównie po to, żeby zwiększyć pozycje w rankingach wyszukiwarek. Pozycjonerów nie interesuje w tym przypadku wartość czysto marketingowa (czy ktoś wejdzie na stronę poprzez ten link) tylko sam wpływ na pozycje w wynikach wyszukiwania.

Globalny rynek kupna, sprzedaży i wymiany linków jest olbrzymi. Jednym z jego elementów są reklamowe linki pozycjonujące, których ceny niejednokrotnie dochodzą do kilkuset dolarów miesięcznie. Jak wycisnąć maksimum z linków pozycjonujących? Tym się zajmę w tym artykule.

W książce „Marketing internetowy w wyszukiwarkach” Tomek Frontczak przedstawia spis 18 rodzajów linków pozycjonujących. Tomek pogrupował linki (rozszerzając listę zaproponowaną przez Todda Malicoata z firmy WeBuildPages.com), odnosząc się przede wszystkim do czynników obecnych na stronie a także opisujących rodzaj strony.

  1. Naturalny (jako naturalny rozumiem link, który nie jest kupiony, a jego pojawienie się uwarunkowane jest wysoką lub unikalną ofertą wskazywanego przez niego serwisu.), jednostronny link z serwisu o wysokich rankingach, umieszczony w treści. Link zawiera słowo kluczowe w anchor text. Treść serwisu zawiera interesujące nas słowa kluczowe.
  2. Naturalny, jednostronny link z serwisu o wysokich rankingach, umieszczony w treści. Treść serwisu zawiera interesujące nas słowa kluczowe.
  3. Tak jak w punkcie 1, ale treść serwisu nie zawiera słów kluczowych.
  4. Tak jak w punkcie 2, ale treść serwisu nie zawiera słów kluczowych.
  5. Link reklamowy (czytaj: kupiony) w wysoce rankingowanym serwisie, otoczony tekstem ze słowami kluczowymi.
  6. Głębokie linki (linki do podstron serwisu) z tzw. presell page.
    Presell page to strona stworzona i sprzedana nam przez inny serwis, na której umieszczamy linki do kilku naszych podstron. Linki otoczone są treścią zawierającą słowa kluczowe i ich wariacje. Serwis, w którym kupujemy stronę, linkuje do niej z większości swoich podstron.
  7. Link reklamowy ze słowem kluczowym w anchor text, serwis wysoce rankingowany.
  8. Jednostronny link ze słowem kluczowym w anchor text, z serwisu powiązanego tematycznie, niekoniecznie wysoce rankingowany.
  9. Jednostronny link z samą nazwą domen bez słów kluczowych z serwisu o dobrych rankingach.
  10. Jednostronny link ze słowem kluczowym z przeciętnego serwisu niepowiązanego tematycznie.
  11. Jednostronny link z nazwą domeny z przeciętnego serwisu niepowiązanego tematycznie.
  12. Link ze słowem kluczowym umieszczony w paragrafie tekstu na stronie z linkami.
  13. Link umieszczony na stronie z linkami w formie: Tytuł/Opis.
  14. Linki w sygnaturach na forach dyskusyjnych.
  15. Link zwrotny na stronie z linkami.
  16. Link rotacyjny z systemów wymiany linków.
  17. Linki w podpisach komentarzy do blogów.

Siła linków pozycjonujących

W mojej ocenie wpływ na siłę oraz wartość linku ma jeszcze szereg innych czynników. Poniżej postaram się je przybliżyć czytelnikom Sprawnego Marketingu.

Anchor PR

Teoria Anchor PR opisana przez Nawigatora a stworzona przez Jeża z PiO, określona jako SEO dopalacz Jeża mówi wyraźnie, iż czołowe znaczenie dla siły linku pozycjonującego ma ilość i anchor linków prowadzących do strony na której link pozycjonujący ma być umieszczony.


Anchor linku to element budowy odnośnika tekstowego najczęściej opisujący zawartość strony docelowej. Pozycjonerzy wykorzystują ten atrybut poprzez wstawianie w tzw. Anchor pozycjonowane słowo kluczowe. Wyszukiwarka interpretuje taki odnośnik porównując adres strony ze słowem w anchorze co poprawia pozycje strony pod to słowo kluczowe.


Rysunek 1. Anchor w przykładach na rysunku to tekst wyszukiwarek lokalnych.

Czyli:

<a href=”https://sprawnymarketing.pl/” title=”Tytuł linka wyświetlany po najechaniu myszką”>tu jest właśnie anchor text linka</a>

tu jest właśnie anchor text linka

Zgodnie z tą teorią strona, która do nas linkuje, powinna posiadać znaczną ilość linków z takim samym anchorem jak nasz link. Wynika to z tego, iż według teorii Jeża, Anchor PR jest wyliczany i przenoszony dalej.

Swoją drogą rozpowszechnienie się wiedzy o Anchor PR przyczyniło się do linkowania wpisów w wartościowych katalogach. Odpowiedzią Google na to zjawisko jest m.in. opisany przeze mnie Paragraf 31!

Anchor linków wychodzących

Jak widzimy anchor linków przychodzących może być niezwykle istotny. Jednak kolejnym ważnym czynnikiem wpływającym na zbieżność tematyczną strony są anchory innych linków wychodzących ze strony. Wydaje się bowiem naturalne, iż strona pozycjonowana/linkowana jakimś słowem kluczowym będzie także dalej linkowała (wewnętrznie lub zewnętrznie) do innych stron z tym samym co ona anchorem. W związku z tym, paradoksalnie, link wychodzący może pozytywnie wpływać na pozycje i rPR ( rPR czyli “real Page Rank” – opisuje prawdziwą wartość strony, jest nieustannie uaktualniany i znany tylko wyszukiwarce, raz na 3 miesiące w okresie tzw. Update’u wartość rPR jest przeliczana na zwykły Page Rank ) !

Pozycja strony w rankingu

Pozycja strony linkującej w rankingu na wskazane słowo — jest to czynnik bezpośrednio związany z Anchor PR i SEO Dopalaczem Jeża. Okazuje się, że jednym z najlepszych sposobów pozwalających ocenić zbieżność tematyczną witryny jest obecność strony linkowanej oraz linkującej w wynikach wyszukiwań na to samo słowo kluczowe (max. TOP 500).

Położenie linków

Nie jest jasne czy położenie linku jest ustalane na podstawie kodu strony czy może odzwierciedlenie tego parametru opiera się na jego wizualnym położeniu. Pewne jest natomiast, że położenie linku ma wpływ na jego indeksacje.

Linki położone na górze strony są średnio 5 razy szybciej indeksowane i odwiedzane przez roboty! Z drugiej strony, patrząc na systemy wymiany linków, widać bardzo wyraźnie w jakim miejscu są położone linki pochodzące z systemów wymiany i nie miejmy wątpliwości, że inżynierowie Google tego nie widzą. Z drugiej strony najbardziej naturalne linkowanie za pośrednictwem artykułów sprowadza się do częstego linkowania ze stopki artykułu.

Moim zdaniem, przy obecnej popularności systemów wymiany linków, Google podjął działania zmniejszające ich siłę i wolniej indeksuje linki ze stopki, co na pewno pomaga w walce z rotacyjnymi systemami wymiany linków.

Linki generujące ruch

W świecie powszechnego kupowania i sprzedawania linków pozycjonujących jednym z najlepszych wyznaczników jego wartości jest ruch, jaki ten link generuje. Naturalność i przydatność linka jest bowiem oceniana przez samych użytkowników. Ponadto oczywiste jest, iż użytkownik nie kliknie w link schowany za div’em, lub ukryty stylem CSS.

Wszelkie dodatkowe atrybuty, takie jak pogrubienie lub title zostaną także najlepiej ocenione przez użytkowników. Idąc zgodnie z trendem WEB 2.0, to co dobre dla użytkowników, dobre jest także dla Google !

Narzędzia Google analizujące ruch w internecie

Wszystkim webmasterom dobrze znane są nowe narzędzia Google, które pośrednio lub bezpośrednio badają ruch użytkowników w internecie. Takie narzędzia, jak: Google Analytics, Google Toolbar, personalizacja strony głównej lub, jak niektórzy uważają, nawet Gmail (swego czasu pojawiły się informacje, iż linki przesyłane poprzez pocztę Gmail wpływają na pozycje stron) są stworzone po to, aby monitorować nasze ruchy w internecie. W mojej opinii jest tylko kwestią czasu, kiedy Google zacznie wykorzystywać te dane przy ustalaniu rankingu. Wiemy już, że z narzędzi do monitorowania ruchu przy ustalaniu rankingu korzysta m.in. polski NetSprint.pl, którego silnik wykorzystuje Wirtualna Polska.

Ilość linków wychodzących

Powszechnie znanym jest fakt, iż moc przekazywana linkom wychodzącym jest zależna przede wszystkim od ilości linków wychodzących. Im więcej linków wychodzących, tym mniejsza moc przypadając na jeden link.

Atrybut: Title=””

Atrybut Title zgodny z tytulem strony do której linkujemy. Tytuł to tytuł i powinien zawierać to czego często autor artykułu nie może napisać/podlinkować, jednocześnie tytuł powinien przekazywać informacje użyteczne dla użytkownika.

Zakładając, że oryginalny tytuł linkowanej strony www też spełnia tę funkcję, to w mojej opinii te dwa atrybuty powinny być możliwie podobne (czyli zawierać te same słowa kluczowe i podobną ilość wyrazów). Najgorsze co można zrobić, to powtórzyć w tytule tekst anchor link. Atrybut nie przekazuje wtedy żadnej dodatkowej informacji użytkownikowi, czyli jest bezużyteczny, w związku z tym najprawdopodobniej ignorowany także przez wyszukiwarkę.

Innym aspektem atrybutu Title jest sposób, w jaki robot wyszukiwarki go czyta. Najprawdopodobniej robot Google uznaje tytuł linka jako treść strony i podczas analizy treści umieszcza go przed anchorem linka. Tym samym, nadając atrybut Title linkowi ze słowem identycznym jak w anchorze, umieszczamy dwa takie same słowa tuż obok siebie, co sprawia, iż taki fragment tekstu zawiera błąd językowy i traci sens.

Wiek linku, wiek strony, wiek PR

Wiek linku oraz strony to w mojej opinii dwa kluczowe czynniki. Pierwszy z nich nabrał szczególnego znaczenia od czasu pojawienia się systemów rotujących linki (systemy rotacyjnej wymiany linków wyświetlające za każdym razem na każdej stronie w systemie zupełnie inny zestaw linków).

Swego czasu systemy te miały potężną moc pozycjonującą, obecnie można powiedzieć, że ich siła już przemija i z każdą zmianą algorytmu wyszukiwarki systemy te słabną. Wiek strony ma szczególne odniesienie do teorii Trust Rank czyli mitycznego rozwiązania eliminującego z wyników wyszukiwań cały SPAM.

Można podsumować, że jednym ze wskaźników zaufania do strony jest jej wiek oraz stała i niezmienna tematyka. Wiek oraz stabilność wskaźnika Page Rank także wpływa pozytywnie na siłę linków wychodzących.

Czy przeceniamy Google i jego algorytmy

Wiele osób czytających ten artykuł może stwierdzić, że przeceniamy Google i jego algorytmy. Moim zdaniem Google dostosowuje stopień skomplikowalności algorytmu analizującego stronę do konkurencyjności fraz lub do wskaźnika PR lub rPR każdej strony.

Pamiętajcie także, że to nie robot ocenia wartość strony. Robi to oddzielne oprogramowanie znajdujące się na serwerach Google (robot tylko kopiuje zawartość) — tam moc obliczeniowa dostępna do analizy jednej strony jest zdecydowanie większa i myślę, że nic nie stoi na przeszkodzie aby dokładnie zanalizować treść strony.

Zobacz więcej

————————-
Grafika w nagłówku autorstwa użytkownika renjith krishnan z freedigitalphotos.net

Artykuł Jak stworzyć najmocniejszy link pozycjonujący? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.

Paragraf 31. Ręczna manipulacja wynikami w Google? Jak wyjść z filtra Google?

Czy wiesz, czym jest Paragraf 31? Czy doświadczyłeś nagłych spadków pozycji promowanych słów w wynikach wyszukiwania o 30 pozycji w dół? Artykuł próbuje wyjaśnić, dlaczego domeny wpadają w Paragraf 31. Czy jest to ręczna manipulacja wynikami? Do jakich wniosków można dojść, studiując strukturę zatrudnienia Google?

Ostatnio pojawiło się sporo informacji na temat tzw. Pargrafu 31, czyli nagłych stałych spadków pozycji stron w wynikach wyszukiwań o dokładnie 30 pozycji w dół. Zadziwia powszechność filtra oraz jego skuteczność — okazuje się bowiem, iż nie trzeba wyrzucać strony z wyników wyszukiwań, banować czy też nakładać filtr Sandbox (Sandbox to filtr nakładany na pozycjonowane frazy w momencie, gdy webmaster położy za duży nacisk na pozycjonowanie jednego słowa kluczowego).

Wystraczającą karą jest obniżenie pozycji o 30 oczek. Jak się okazuje, to bardzo skutecznie odcina stronę od odwiedzających. Delikatny zabieg ale za to jakże skuteczny. Nie od dziś wiadomo bowiem, iż użytkownicy wyszukiwarek praktycznie nie zagladają dalej niż druga strona wyników wyszukiwań.

Paragraf 31 — hipotezy

Spośród wielu hipotez wysuwanych na polskich i zagranicznych forach internetowych, dominuje kilka najbardziej prawdopodobnych przyczyn nakładania tego filtra:

  • paragraf 31 ma zastąpić aktualnie najpopularniejszy filtr tzw. SandBox;
  • paragraf 31 jest nowym filterm stosowanym na stronach, które używają tzw. Szarego SEO, czyli jeszcze nie SPAM ale przeoptymalizowana strona, linki i przekierowania w JavaScript lub pozycjonowanie na bardzo dużą ilość trudnych słów kluczowych, co przy naturalnym pozycjonowaniu wydaje się bardzo mało prawdopodone;
  • paragrafem 31 jest karane pozycjonerskie zaplecze typu: katalogi stron lub strony do których prowadzą linki tylko z katalogów;

Przyjmując do wiadmości powyższe powody nakładania filtra pojawia się pytanie w jaki sposób algorytm potrafi odróżnić plew od ziarna? Czy oby napewno nakładnie nowego filtra jest wynikiem działania algorytmu ?! A moze Paragraf 31 jest filtrem nakładanym ręcznie przez pracowników Google?

Ręczne robótki Google?

W trakcie poszukiwań odpowiedzi na te pytania natknęłem się na ciekawy post Oleg’a z PiO:

Mam kolegę który pracuje w Holandii w Google Quality Rater. Polega to na tym że się ogląda strony z 200 pierwszych wyników na w miare komercyjne frazy.
Jako ocene stronie się przypisuje :
ratings -> Vital ..Useful.. Relevant … Not Relevant .. Off Topic.. i oprocz tego: Flags : Spam, Directory / Search results, Porn, Malicious, itp.. W holandii placa 14 euro za godzine, mają dość dużo tych ludzi…

Inforamcję tę potwierdzają także zagraniczne źródła, podając więcej, często szokujących szczegółów:

International agents get paid $20 for each hour they refine the search results of Google. SearchBistro.com

Według w/w źródła pracownicy Google Quality Ratings mają swoją specjalną stronę internetową:http://eval.google.com. Film pokazujący zawartość tzw. Secret Lab .

Powyższe wypowiedzi wyraźnie pokazują, iż jest coś na rzeczy… Wielu krytyków tej hipotezy odwołuje się do nierealności zatrudniania tylu ludzi tylko w celu dbania o jakość wyników wyszukiwań. Koronnym argumentem przeciwników takiego rozwiązania jest mnogość stron internetowych podlegających ocenie… mówiac krótko do oceny 100 mln witryn potrzebna była by niewyobrażalna ilość ludzi…

Jednak według danych pochodzących od Google Quality Ratings wiemy, że ich ocenie podlega tylko pierwsze 200 wyników wyszukiwań na typowo komercyjne słowa kluczowe!
Zawęża to ilość stron podlegających ich ocenie do kilku tysięcy w każdej domenie funkcjonalnej!

Powyższa hipoteza jest o tyle prawdopodobna, iż zatrudnienie w Google rośnie wprost proporcjonalnie do wzrostu dochodów firmy.
Ostatnie newsy mówia o tym, iż zatrudnienie w Google przekracza już 9000 osób.

Poszlaki

Przy takiej ilości pracowników, prawdopodobieństwo, iż ledwie mały procent zajmuje się tylko “czyszczeniem” wyników wyszukiwań jest bardzo wysokie. Trzeba także pamiętać, iż aktualnie dużym problemem Google są tzw. MFA (Made For AdSense), czyli strony stworzne wyłącznie w celu wyłudzania kliknięć z pochodzących z reklamy kontekstowej. Strony takie zawierają praktycznie same reklamy! Próbą walki z tym procederem było m.in. wprowadzenie nowego czynnika wpływającego na cenę kliknięć: Quality Score.

Kolejną poszlaką w poczukiwaniu odpowiedzi mogą być zachodnie wyniki wyszukiwań przeglądane przez adres proxy. Dla polskiego użytkownika szokujące mogą się wydawać takie kwiatki jak np.: Wikipedia w TOP 10 na frazę laptopos. W Polskim Google, póki co jest jeszcze nie do pomyślenia.

Pojawia się jednak pytanie: Jeśli cześć wyników prezentowanych przez Google jest faktycznie dziełem inteligentnych istot to kto i za co dokładnie jest odpowiedzialny?

Tak więc okazuje się, iż odpowiedź na pytanie postawione w tytule jest dosyć złożona i konieczne jest zlustrowanie struktury zatrudnienia w Google. Poniżej przedstawiłem uprawnienia poszczególnych stanowisk stworzonych, aby dbać o jakość wyników wszykiwań Google.

Struktura zatrudnienia w Google:

  • Pierwszym etatem jest Google Quality Rater. Jak się okazuje, jest on całkowice nieoficjalny. Nabór na te funkcję organizuje międzynarodowa firma Kelly Services, która zajmuje się zatrudnianiem pracowników dla największych firm na świecie.
    Uprawnienia Google Quality Raters ograniczają się tylko i wyłącznie do oceniania wyników wyszukiwań. Cała ich praca skupia się na przeglądnięciu pierwszych 200 wyników wyszukiwań dla wskazanego słowa kluczowego a następnie nadwaniu stronom flag, opisów, oceniania powiązania tematycznego, jakości strony oraz unikalności zawartości merytorycznej serwisu. Google Quality Raters mają także możliwość usuwania stron z indeksu wyszukiwarki… Jednak każdy taki przypadek muszą dokładnie uzasadnić w raporcie końcowym. Google Quality Raters nie mają możliwośći nadwania filtru Paragraf 31 !!!
    Google Quality Raters biorą pod uwagę oceniając stronę:

    • Nadają flagi:
      • SPAM
      • Porno
      • Złośliwa/Niebezpieczna (Napastliwe reklamy/Wirusy)
    • Czy strona nadaje się dla dzieci ?
    • Czy strona jest w całości poświęcona danej tematyce ?
    • Czy strona jest podstroną katalogu ?
    • Stopień dopasowania do kategorii tematycznej (wpisanego słowa kluczowego)
    • Redaktor opisuje także czy jego zdaniem witryna jest do czegoś przydatna – unikalność zwartości merytorcznej strony.
    • Generalnie oceniający ma dużo swobody w ocenianiu stron (element uznaniowości jest tu wyjątkowo mocny)
  • Oficjalne zatrudnienie w Google znajdują osoby obsługujące SPAM Report.Jest to osoba odbierająca i analizująca wszelkie zgłoszenia odnośnie SPAM’u w rankingu Google oraz innych naruszeń regulaminu wyszukiwarki. Osoba pracująca na powyższym stanowisku ma m.in. możliwość banowania całych serwisów/domen, oraz jak wszystko wskazuje ma także prawo nadawania filtru Paragraf 31.Jak udał mi się ustalić, filtr ten jest przyznawany przedewszystkim jako forma ostrzeżenia tylko dla witryn wielotematycznych, których podstrony często wyskakują pod wieloma słowami kluczowymi nie związanymi z główną tematyką witryny.Należy pamiętać, iż dla wielu użytkowników Google (osobiście dla mnie także) wyniki wyszukiwania prezentujące podstrony z katalogów są najzwyklejszym SPAM’em. Zaśmiecają one wyniki wyszukiwań przede wszystkim dla mało popularnych fraz przy których słowo kluczowe w tytule wystarcza, by strona była wysoko rankingowana (czasami wpis dodatkowo podlinkowany znajduje się wyżej niż nie jedna w płeni wartościowa strona).
  • Ads Quality Rater — pracownik Google o takim tytule zajmuje się czyszczeniem reklam Google AdWords oraz dopszuczaniem stron do programu Google AdSense. Każda strona, która uczestniczy w jednym z tych programów, musi zostać przynajmniej raz odwiedzona przez readakotra Ads Quality Rater. W Polsce taki redaktor ma także możliwość banowania witryn. Na zachodzie: Ads Quality Rater przegląda strony z AdSense’m i ocenia wartość ich treści, przez co modyfikuje stawki za kliknięcia (nowy wskaźnik Quality Score). Detektuje także tzw. MFA – Made For Adsense !
  • Quality Rater — osoba, która testuje różne nowe usługi Google, tak więc teoretycznie nie ma wpływu na wyniki wyszukwiań (piszę o tej funkcji, aby rozwiać wątpliwości w zbierzności nazw)


Rysunek 1. Oferta pracy w Google

Powyższe stanowiska są aktualnie w Polsce dosyć słabo obstawione, a mówiąc dokładniej Google Quality Raters nie ma w Polsce wcale. Okazuje się także, iż cała struktura wygląda u nas nieco inaczej.

Tak więc osoby obsługujące SPAM Report mają więc nieco szersze możliwości niż ich koledzy z zachodu wynikające z braków kadrowych. Stosunkowo dużo mamy w kraju Ads Quality Rater odpowiedzialnych za Google AdWords/AdSense — ich obowiązki są także dosyć rozległe i wykraczają poza standardowe dla tego stanowiska. Nabór na polskich Google Quality Raters ruszy najprawdopodobniej w lutym i zapewne zostanie przeprowadzony przez firmę Kelly Services.

Jak wyjść z filtra Google?

Jak wspomniałem wyżej, Paragraf 31 jest filtrem najprawdopodobniej nakładanym przez redaktorów Google Search Quality Team. Udało mi się ustalić, że Paragraf 31 jest przyznawany przede wszystkim jako forma ostrzeżenia tylko dla witryn wielotematycznych, których podstrony często zajmują wysokie pozycje w wynikach wyszukiwarek pod wieloma słowami kluczowymi nie związanymi z główną tematyką witryny.

Śmietnik w wynikach wyszukiwania

Należy pamiętać, iż dla wielu użytkowników Google (osobiście dla mnie także), wyniki wyszukiwania prezentujące podstrony z katalogów są najzwyklejszym, bezwartościowym spamem. Zaśmiecają one wyniki wyszukiwań przede wszystkim dla mało popularnych fraz, przy których, jak się okazuje, słowo kluczowe w tytule wystarcza, by strona była wysoko rankingowana (czasami wpis dodatkowo podlinkowany znajduje się wyżej niż niejedna w pełni wartościowa strona).

Ten fakt potwierdza także roli z forum Pozycjonowanie i Optymalizacja:

…w moich slowach kluczowych, bardzo malo konkurencjne haslo. Na pierwszym miejscu byla moja strona a teraz w top10 sa glównie linki do podstron katalogów a w tych katalogach co druga strona nie dziala, heh i jaka ma z tego korzysc zwykly uzyszkodnik internetu? co z ta polska? co z tym google ?

Wpisy z katalogów zawierające słowo kluczowe w tytule strony + jedno powtórzenie w treści zupełnie wyparły inne zdecydowanie bardziej wartościowe domeny. Zwróćcie uwagę, że na prezentowanych podstronach katalogów nie ma żadnej wartościowej treści, praktycznie same linki! W mojej opinii, to jest główny powód powstania filtru P31 — zaśmiecanie wyników dla niszowych fraz.

Czyżby twórcy skryptów katalogów SEO Friendly strzelili sobie i nam samobójczego gola?!

Wszystko wskazuje na to że tak. W najbliższym czasie cały proces nadawania filtru P31 ma nabrać dużego przyśpieszenia. Czas dany webmasterom na poprawę witryn ma się skrócić do kilku tygodni a po nim ma następować forma kary jaka spotkała m.in. Qlweb.info. Kara polegała na wyindeksowaniu znacznej ilości podstron. Należy się także zastanowić czy Qlweb.info nie stał się tzw. „złym otoczeniem” (ang. bad neighbourhood linking) i czy linkowanie do niego nie obniża wartości naszych katalogów?!

WI777 tak pisze o procesie nakładania Paragrafu 31 na Qlweb.info na forum Pozycjonowanie i Optymalizacja:

Reasumując zaczęło się od “-30 penalty”, teraz następuję odsyłanie do piaskownicy silniej linkowanych fraz oraz co gorsze, powolne i postępujące wyindeksowywanie z indeksu G. które prawdopodobnie zatrzyma się na jakimś stałym i śmiesznie niskim poziomie w porównaniu do niedalekiej przeszłości (niestety zauważyłem przypadki wyindeksowania praktycznie do zera). Taką procedurę prześledziłem dla kilku(nastu) w ten sposób potraktowanych katalogów, a na www.qlweb.info po prostu lepiej to widać

A więć na początek Paragraf 31 a następnie Ban / Sandbox / Wyindeksowywanie?

WI777 w swoim poście na forum Pozycjonowanie i Optymalizacja mówi, iż Google wziął pod swoją opiekę (nadał filtr 31) także inne, kolejne duże katalogi. Najwyraźniej więc cały proces nabiera przyśpieszenia głównie na śmieciowych katalogach wielotematycznych!

Jak wyjść z Parafrafu 31 lub jak go uniknąć?

Odpowiedź jest prosta — możliwie szybko przebudować zawartość witryny tak, aby linki do niej pojawiały się tylko w tematach bezpośrednio powiązanych z główną tematyką witryny lub dodać nową wartościową treść która nie będzie prowokowała użytkowników Google do korzystania z formularza SPAM Report

Skąd webmaster ma wiedzieć, że dostał ostrzeżenie?

Otóż serwisy Google Site Maps oraz Google Analytics ewidentnie powstały po to, aby nawiązać kontakt z webmasterami. Wymienione serwisy prezentują m.in. wyraźne satystyki odwiedzin strony, słowa kluczowe, po których użytkownicy wchodzą na stronę a także statystyki zapytań oraz średnią najwyższą pozycję naszej witryny na wskazane słowa kluczowe. Najprawdopodobniej Google oczekuje od webmasterów, iż będą oni identyfikowali wejścia ze słów nie powiązanych tematycznie i sami podejmą kroki w celu usunięcia swoich stron z wyników wyszukiwań na te frazy.

Potwierdza to m.in post Lordbarta na cytownym już forum:

ręczne, nie ręczne niestety istnieje. u mnie jedna trafiona na wszelkie mozliwe kombinacje haseł, słów etc, podstrony, strona główna. wszystko -30 oczek
a domena niczym sie specjalnie nie wyróżniała, oprócz tego, że na kilkadziesiat haseł miała top5

Co dalej?

W mojej opinii pozycjonerzy powinni skupić się na budowaniu przede wszystkim sensownej merytorycznie treści — nawet jeżeli będzie ona zduplikowana w mniejszym lub większym stopniu to pamiętajmy o misji Google. Być może należy zacząć tworzyć strony zawierające zoptymalizowane artykuły z linkami w treści, jak to ma miejsce m.in. na SEOBiblioteka.pl lub SEO.GoldPosition.pl. Druga możliwość to wartościowe katalogi jednotematyczne.

Filtr jest także bardzo dobrą formą walki ze spamerami. W momencie gdy dostają P31 na domenę główną spadają im dziesiątki tysięcy subdomen optymalizowanych każda pod inne słowo kluczowe. Przy filtrze -30 pozycji Google odcina im niemal zupełnie ruch generowany poprzez SPAM.

W przyszłości przekonamy się, czy powyższe przypuszczenia znajdą potwierdzenie w wynikach zwracanych przez wyszukiwarki.

Więcej informacji

Więcej informacji na ten temat szukajcie na zagranicznych forach a także na oficjalnych stronach oraz w dokumentach publikownych przez Google:

Google Jobs
Google Investor Report
Google Secret Lab

Artykuł Paragraf 31. Ręczna manipulacja wynikami w Google? Jak wyjść z filtra Google? pochodzi z serwisu Sprawny Marketing Internetowy = Skuteczny i Ekonomiczny.