Search Marketing Day 2013 w Poznaniu – Live

Search Marketing Day 2013

Dzisiaj odbywa się konferencja Search Marketing Day 2013 w Poznaniu. Ta trzecia edycja odbywa się już w całkiem nowym miejscu, w Sali Ziemi w centrum Międzynarodowych Targów Poznańskich. Uczestników w Sali Ziemi do tej pory pojawiło się ok 200. Sporo znajomych jest także obecnych, zatem czas pomiędzy prezentacjami będzie wypełniony rozmowami oraz oglądaniem stosik firm, które wystawiły się na targach. Byłem już wcześniej na pierwszej i drugiej konferencji w Poznaniu. Ponownie można spotkać Dixona Jones, Dominika Wójcika czy Ralpha Tegtmeiera.

Pierwsza konferencja wypadła bardzo dobrze, druga miała już problem z dotrzymaniem poziomu pierwszej. Jak będzie tym razem? Trudno powiedzieć. Przez cały dzień, na bieżąco będzie uzupełniany ten wpis o kolejne prezentacje – także każdy może śledzić aktualne wystąpienia. Właśnie powinna zacząć się konferencja, mamy 20 minut opóźnienia…


Festiwal SEO 2018 Katowice

Automatyzacja SEO w ramach WhiteHat

Dan PetrovicDan Petrovic z DejanSEO podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „Automating SEO while staying WhiteHat”.

DejanSEO wykonywał całą swoją pracę w 100% ręcznie. Pojawił się przed nimi problem skali. Duże strona mają od 50000 tysięcy i więcej słów kluczowych na które chcą się pozycjonować.

Dobór słów kluczowych

Pobierają dane z GWT na temat słów kluczowych, na które strona się wyświetla. Najważniejsze dla nich są wyświetlenia. Drugim elementem jest CTR. Trzeci element to pozycja. Np. jeśli strona jest na pozycji nr 4 i ma CTR 20%, estymują ile da podniesienie o jedną pozycję. Ostatnie element to kliknięcia.

Następnie zwracają uwagę na współczynnik konwersji. Które słowa najlepiej konwertują. Słowa bez konwersji, wypadają z listy.

Optymalizacja struktury

Etap drugi to optymalizacja dużych portali, np. witryny które mają ponad 20mln stron, jednak strona ma tylko 500 tysięcy produktów. Odkryli problem błędu w nawigacji, witryna może mieć nieskończoną liczbę stron. Program, który analizował tę witrynę wysypał się w trakcie analizy.
80legs to program, który bada witrynę duże witryny. Ten program tworzy plik tekstowy. DejanSEO zrobił darmowy program, który przetwarza ten plik na format programu Gephi. Otrzymujemy ilustrację graficzną połączeń linków wewnętrznych w dużym portalu.

Link building

Szukają linków negatywnych, neutralnych i pozytywnych. Szukali odpowiedzi na pytanie, dlaczego ludzie sami tworzą linki do stron, do których już utworzyli. Jak replikować strony, do których linki powstają naturalnie.

Badali listę linków, które prowadzą do strony. Jeśli masz linki z domen, do których prowadzi wiele linków z domen z PR0 to przeważnie te domeny są o charakterze spamu. Do finałowej analizy, dostało się 7 linków, na których poprowadzili dodatkowe badania. To wszystko po to aby znaleźć, wartościowe domeny, na których konkurencja ma wartościowe linki i spróbować tam umieścić linki dla siebie.

Korzystają z narzędzia MOZ Competitor Link Intersect oraz z Fresh LinkFinder, który sami wydali. Te narzędzia pozwalają zaoszczędzić wiele godzin pracy.

Na koniec Dan pokazał jedną metodę, która różni się od całości. Do tej było wszystko WhiteHat. Teraz jest trochę „naughty”. U konkurencji, znaleźli 24 zepsute linki wychodzące z domeny konkurenta. Niektóre prowadziły do domen, które nie istnieją, więc je zarejestrowali zrobili przekierowanie do swoich klientów. Jeśli u konkurentów znaleźli też strony, które odpowiadały błędem 404, a prowadziły do nich linki, to nawiązywali kontakt z domeną która linkowała i proponowali własny, istniejący kontent do podlinkowania.

Całkiem na koniec oglądamy wady jakie są w GWT, tylko 3 miesiące świeżości danych. Więc napisali narzędzie, które pobiera i agreguje dane z GWT i zachowuje je na dłuższy czas.

Jak maskowanie 3.0 szybko zdominuje wyszukiwarkę

Ralph TegtmeierRalph Tegtmeier z ContentMango podczas Search Marketing Day przedstawił temat (tytuł orygianlny): „How Cloaking 3.0 Dominates the Search Engines Like Gangbusters”.

Ralph rozpoczął od przedstawienia siebie, krótki życiorys. Pierwsze pojęcie: czym jest Cloaking 3.0. Cloaking to IP Delivery. Ralph tłumaczy różne formy cloaking. Zwraca uwagę, że cloaking tylko dla User Agent jest łatwo wykrywalny.

Generalnie cloaking to pokazywanie innej treści dla wyszukiwarek, a innej dla użytkowników. Problemem mogą być klienci, którzy są ciekawi, co pokazuje się wyszukiwarce, a oni tego nie widzą.

Wyszukiwarka chce mieć pełną kontrolę nad swoim indeksem. Mimo iż ich indeks, to treści pobrane z witryn, które do nich nie należą.

Podobno cloaking już „dawno umarł, jednak zdaniem Ralpha to propaganda. Prawda jest taka, że cloaking działa. Mamy zobaczyć tego przykład.
Powody dla których cloaking działa:

  • Wszechstronność
  • Brute force optymalizacja
  • Automatyzacja – w branży gier hazardowych szczególnie
  • Skalowalność

Słuchamy teraz o przykładzie prowadzenia kasyno online. Strona zostaje w 100% sklonowana. Nowa sklonowana strona, będzie trzymana w izolacji, nie zostanie poddana indeksacji. Następnie maskowane domeny będą pompować ruch w tę sklonowaną domenę.

Maskowanie nie jest dla każdego. Maskowanie nie zadziała dla stron, które zarabiają dla nas pieniędzy. Nie zwiększy rozpoznawalności marki oraz zepsuje reputację w branży. Konkurenci mogą szukać pewnych możliwości naruszenia prawa przy maskowaniu. Maskowanie, też nie jest dla małych biznesów. Można to przyrównać do wystawienia armaty na komara. Maskowanie jest nawet gorsze niż BlackHat. To technika dla ludzi o mocnych nerwach. Jeśli budzisz się rano i z 600 maskowanych domen, zostało tylko 200, a reszta została wykryta, to musisz postawić kolejne 800 domen.

Jak działa maskowanie. Potrzebny jest spider oraz przełączniku ruchu. Maskowana domena powinna być wygenerowana automatycznie, ale powinna wyglądać jakby była tworzona ręcznie. Trzeba różnicować końcówki stron adresów URL, aby tworzyć jak najmniej wykrywalne footprinty.

Zobaczyliśmy przykład oprogramowania do tworzenia stron w celach późniejszego ich maskowania. Na koniec był przykład Online Casino UK, jednak tabelka mocno nieczytelna. Osiągnięcie rezultatów zajęło 2 tygodnie.

Przyznam szczerze, że bardzo trudno się słuchało tej prezentacji, także bardzo małe, niewidoczne litery na prezentacji.

Nienaturalne linki i Pingwiny

Razvan GavrilasRazwan Gavrilas z CognitiveSEO podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „Unnatural Links & Penguins”

Dlaczego linki są tak ważne? Jedyny sygnał, który mogą całkowicie oceniać i symulować jego wpływ na ranking. Linki są powiązane z wielkością ruchu, sygnałami społecznościowymi oraz sygnałami nieoczekiwanymi.

Pojawia się problem, ponieważ powstaje mnóstwo linków o charakterze spamu. Jak teraz rozpoznać link naturalny od linku o charakterze spamu. Różnice dotyczą okoliczności powstania tego linku. Suma zebranych linków tworzy profil linków. Razvan mówi, że dobry link dla mnie, może być złym linkiem dla ciebie. Warto przedsięwziąć środki ostrożności i sprawdzać czy nasz profil linków nie przekształca się zły.

Używając Disavow Tool nie wkładajmy do listy danych linkach, które już nie istnieją, nie korzystajmy tylko o danych na temat linków z GWT oraz nie wkładajmy tam listy wszystkich linków.

Ręczne wykrywanie nienaturalnych linków wymaga dobrego zrozumienia konceptu, czym jest nienaturalny link. Automatyczne wykrywanie nienaturalnych linków wymaga podstawowej znajomości konceptu nienaturalnych linków.

Razvan pokazał przykład jak szybko wykryć stronę z nienaturalnym profilem linków. Przede wszystkim mnóstwo linków ze słowem kluczowym, a nie z nazwą brandu. Następnie można sprawdzić, z jakich jakościowo domen, pochodzą linki. Jeśli mają słabą jakość, to szybko zostanie to wykryte.

Narzędzie CognitiveSEO, potrafi samo generować wykresy, tego samego typu, które okazał Dan w czasie pierwszej prezentacji Geffi. Po takich analizach, dobrze jest się zatrzymać na chwilę i przyłożyć do tworzenia treści na stronie, żeby wzrósł jej autorytet.

Wysyłając prośbę o usunięcie linka, do miejsca w którym on jest, trzeba być kreatywnym tak aby komunikat nie przeszedł bez echa. Zdaniem Razvana, narzędzie Disavow Tool służy do trenowania algorytmu Google. Używać go tylko wtedy, kiedy już usunęliśmy wszystkie linki, które sami mogliśmy usunąć. W prośbie o rozpatrzenie bądź szczery i opisz wszystko co się działo z domeną. Efekty nie przyjdą od razu.

SEO w Europie Wschodnie i Azji: przegląd, innowacje i trendy rynkowe

Marina KhaustovaMarina Khaustova z SEOpult podczas Search Marketing Day przedstawiła temat (tytuł oryginalny): „SEO in Eastern Europe and Asia: review, innovations and market trends”

Marina oprócz pracy w SEOpult, prowadzi także własną agencję marketingową. Przedstawiła udział w rynku wyszukiwania w ostatnich latach. Rynek rosyjski jest bardziej zdominowany przez Yandex, Google ma tylko 34% udziału. Zaczynali w 2008 roku z udziałem 15%. Okazuję się, że Yandex jest lepszy jakościowo jeśli chodzi o rosyjskie strony niż Google. Mają trudne zadanie, jak dobrać działania aby być wysoko w obu wyszukiwarkach. Chcą to automatyzować.

Dobry dobór narzędzi SEO, który by automatyzowały to wybór z obszaru systemów wymiany linków, oceny konkurenta (ile trzeba zainwestować aby pokonać konkurenta), doboru słów kluczowych, optymalizacji strony i analityki internetowej.

Automatyczny system pozycjonujący powinien wykonać wszystkie zadania, być łatwy w obsłudze przez użytkownika oraz oszczędza się dzięki niemu pieniądze. Systemy automatyczne powstają ponieważ jest do wykonania coraz więcej zadań. Budowa własnego systemu automatyzującego SEO jest droga.

SEOPult pokrywa 65% rosyjskiego rynku wyszukiwania. Korzysta z niego 150000 użytkowników rosyjskich. Średni użytkownik promuje nim 3 strony. Po wypuszczeniu Pingwina 2.0 tylko 3% użytkowników straciło swoje pozycje.

SEOPult został wypuszczony na nowe rynki w Azji i Europie. Na obu rynkach spotkali się z różnymi wyzwaniami. W 2011 roku uruchomili w Polsce SeoPilot.pl Działał na podobnej zasadzie w tym czasie jak w Rosji. Wprowadzono w nim pewne modyfikacje, które miały służyć użytkownikom z Polski.

SEOKurier to biuletyn wysyłany przez SEOPult, w którym znajdują się najnowsze informacje ze świata SEO.

W mojej opinii, cała prezentacja była reklamą produktu jakim jest SEOPult

Jak budować i jak działa wyszukiwarka?

Stephen BurnsStephen Burns z Blekko podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „How to build and how search engine works?”

Nową wyszukiwarkę najlepiej zbudować w garażu. I tak twórcy blekko zaczęli.

Wyszukiwarka składa się pająka (crawlera), indeksera oraz miejsca w którym można wprowadzać zapytania. Stephen ilustruje budowę wyszukiwarkę z wykorzystaniem grafik rozczłonkowanego SpiderMana.

4 stycznia 2013 Bleeko wypuścili izik, który się rozszedł mocno w mediach społecznościowych. To wyszukiwarka dla urządzeni mobilnych.

Jak szybko zdobyć pozycje i zaindeksować 1 milion stron?

Dominik Wójcik Dominik Wójcik z Trust Agents podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „A Case Study, how to get rank fast with a new Domain and Index 1 Million Pages!”

Dominik ma polskie korzenie, krótko się przestawił co wie na temat SEO a widać że wie dużo.

6 miesięcy temu spotkał kogoś, kto powiedział, że nie da się zaindeksować 1mln stron bez użycia linków. Dominik przyjął to wyzwanie. Znane CMSy się nie nadawały, musiał poszukać czegoś innego. Na ThemeForest kupił szablon za $20. Następnie zaczął kodować. Idea była taki, aby stworzyć co najmniej milion subdomen. Przykładowa strona zawierała 2000 linków, także musiał stworzyć tylko 5500 subdomen. Na wykresie indeksacji z GWT, pokazał że całość zajęła mu 19 tygodni.

Jednak użył pewnych tricków, aby zmusić Google do odwiedzania strony. Przede wszystkim wybrał ciekawy design graficzny. Następnie stworzył landing page z reklamą AdSense. Przygotował tu małe maskowanie, które sprawia, że każdy kto przyszedł z Google widzi reklamy, natomiast osoby z ruchu bezpośredniego nie widziały tych reklam. W rezultacie moderator Google nigdy nie zobaczy reklam, gdy wejdzie inną drogą niż Google. Strona wyglądała na prawdziwą, tak aby użytkownicy mogli jej ufać. Następnie przekierować 120 wygasłych domen na tę nowo utworzoną. Dalej utworzył widget, który pozwalał skopiować fragment kodu i tworzyć linki do strony. Dzięki temu uzyskał ponad 12 tysięcy naturalnych linków. Następnie użył automatycznego generatora treści, aby stworzyć treści, które były całkowicie nowe. Następny element to zadbanie o wskaźnik odrzuceń. Zablokował działanie przycisku Wstecz jeśli, ktoś przychodził z ruchu Google.

Problem, który to dotknął to zbyt duży ruchu i brak wydajnośsi serwera. Zatem stworzył własny system cache. Inny problem to inni, którzy chcieli pobrać jego zawartość strony. Skoro już tyle zrobił, to tych najbardziej aktywnych zablokował w .htaccess po adresie IP. Na stworzonej stronie zarabia 100zł dziennie.

Pokonać Pandę: 3 najważniejsze rzeczy do sprawdzenia w Google Analytics dla SEO i Pandy

Josh BachynskiJosh Bachynski, autor SEnukeX podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „DEFEAT PANDA: 3 Most Important Things to Check in GA for SEO & Panda”

Dwa rodzaje kary są stosowane przez Google: ręczna (penalty), i automatyczna (devotion). Diagnoza spadającego rankingu głównie opiera się na Google Analytics i MOZ. W Google Analytics ustawiamy bardzo długi okres czasu i szukamy miejsca w którym pojawił się spadek ruchu. W tym czasie porównujemy to z historią aktualizacji algorytmu publikowaną na MOZ.

Josh pokazał kilka wykresów z Google Analytics, które były skorelowane ze zmianami algorytmu. Ciekawostką było wykrycie, że zrzeknięcie się wszystkich linków przez Disavow Tool również zachowuje się podobnie jak Panda lub Pingwin. Zanim sami pozbawimy się cennych linków, trzeba sprawdzić daty spadków i skorelować je z aktualizacjami algorytmu.

Trzy rzeczy do sprawdzenia na stronie:

  • Ruch mobilny, musi być przyjazna strona dla niego
  • Prędkość ładownia strony
  • Wskaźnik odrzuceń na stronach docelowych

Jeśli, któryś z czynników jest poniżej oczekiwań, to może to godzić w jakość strony i grozić obniżeniem pozycji z powodu Pandy.

Wnioski

  • Diagnozuj zanim podejmiesz działania
  • Nie zakładaj że ostatnie zmiany algorytmu dotyczą Ciebie
  • Nie zrzekaj się linków, jeśli nie wiesz co chcesz osiągnąć
  • Jedz ciastka

Czynniki rankigowe dla rynku wyszukiwania w Polsce

Marcus Tober MArcus Tober z SearchMetrics podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „Ranking factor study for Poland based on local data (Very cool based on SearchMetrics data)”
Dane dla rynku polskiego zbierane są na podstawie słów kluczowych. Obecnie mają w indeksie 30 bilionów stron. Google walczy ze spamerami poprzez kary (manualne), które wpływają na widoczność strony w wynikach wyszukiwania. Drugi sposób walki do zmiany algorytmiczne. W ostatnich latach można zaobserwować wzrost liczby zmian w algorytmie każdego roku. Praktycznie każdego dnia jest publikowana jakaś aktualizacja.

Dane, które zostały pokazane z Searchmetrics są zebrane już po aktualizacji Pingwin 2.0 W z rynku polskiego wzięli 10000 słów kluczowych, znajdujących do trzeciej strony z wyników wyszukiwania. Uśrednili wyniki wśród zebranych wyników dla badanych słów kluczowych.

Najwyższą korelację na naszym rynku nadal ma liczba linków przychodzących do strony. Czyli im więcej linków, tym wyższa pozycja. Następna pozycja, to położenie geograficzne serwera (większość w Polsce). Porównując to z rynkiem USA, jakość linków staje się coraz ważniejsza. Maleje korelacja dokładnie dopasowanych słów kluczowych do strony.

Linki nadal są Fortem Knox w SEO. Nadal przyrównuje się je do złota. Trzeba dbać o ich jakość. Monitorowania liczbę przychodzących nowych linków, które powstają z powodu negatywnego seo. Nie kupujmy linków z farm linków i tym podobnych. Dobre strony w rankingu zbadanym przez Searchmetrics mają linki nofollow. Jeśli manipulujesz linkami, staraj się też pozyskać linki nofollow. Korelacja słów kluczowych z wysoką pozycją odchodzi do lamusa.

Przykład pokazany przez Marcusa dotyczy strony check24.de, która straciła swój ruch w zeszłym roku. Działania jakie podjęli, że odrobić swoje pozycje polegały, głównie na pozbyciu się złych linków i zdobyciu nowych, lepszych. Pingwin okazał się dla nich okazją, którą wykorzystali i obecnie mają znacznie więcej ruchu niż dotychczas.

Badali też Social Graph. Według ich badań, które objęły 500 adresów URL, dokonali precyzyjnych pomiarów. Matt Cutts jednak w konfrontacji z ich wynikami wyraził się, że sygnały nie do końca mają wpływ na wyniki. Jednak według ich badań istotnie rośnie znaczenie +1 możliwych do uzyskania w sieci społecznościowych. Marcus pokazał wykresy na których było widać ile polubieni z FB i G+ było potrzebne aby podnieść pozycję w wynikach wyszukiwania.

Przewidywanie przyszłości z wykorzystaniem Big Data – jak linki pomagają nieoczekiwanie przewidywać

Dixon Jones Dixon Jones z MajesticSEO podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „Using Big Data to predict the future – How links on the internet can help make unexpected predictions”. Prezentacja Dixona jest skomponowana w Prezi. Mam możliwość umieszczenia jej już w tym momencie, kiedy Dixon o niej opowiada, także śledź na bieżąco slajdy.

Ciekawostka podana przez Dixona, podana podczas prezentacji, to że Twitter był w stanie podać na 27 minut przed publikacją w mediach tradycyjnych, śmierć amerykańskiej gwiazdy Whitney Houston. Poza śledzeniem osób, które zmarły, ta technika pomaga również śledzić np. wolumen sprzedaży. Przewidywać da się także upadek firmy. Sami odkryli, że jeśli wysyłają Newsletter, ale nie mają w nim nic nowego dla odbiorców, to wiele osób go klikało, ale było niezadowolonych, że nie ma nic nowego dla nich.

Linki potrafią także przewidzieć wybory. Zbadali wybory burmistrza Londynu i okazało się, że wygrał ten, który miał więcej linków. Jednak biorąc pod lupę wybory prezydenta USA, okazało się że podjęli najbardziej skoordynowaną akcję budowania linków na naszej planecie jaka istnieje. W ciągu dnia powstało 3mln linków z ok 30-35tys. Jednak ten trick nie pomógł mu wygrać bowiem wybrany kandydat i tak miał linków więcej.

Strategie SEO dla afiliantów

Maik MetzenMaik Metzen z AKM3 podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „SEO strategies for Affiliates”

Strony afiliacyjne muszą mieć dobrej jakość treść, ponieważ bez takiej treści mogą mieć obniżony ranking z uwagi na Pandę. Strony afiliacyjne zwykle nie mają dobrych linków. Nienaturalne linki prowadzące do strony afiliacyjnej powodują, że również ich ranking się obniża.

Co mogą zrobić afilianci, z wiedzą jaką pozyskali po aktualizacja w Google?

Proces zakupu powinien rozpocząć się wcześniej niż do tej pory. Optymalizacja powinna obecnie dotyczyć słów kluczowych, które są informacyjne. Trzeba być specjalistą w swojej niszy. Dobrze jest odejść od słów kluczowych, które wcześniej bardzo dobrze konwertowały, ale ich dopasowanie jest bardzo dokładne. Przykład informacyjnego słówa kluczowego to „iPhone 5 vs Samsung Galaxy 4”

Afilianci powinni stawać się bardziej brandem To wymaga inwestycji czasu i środków, ale pozwala być specjalistą w swojej niszy. Jak zatem zidentyfikować prawdziwy brand? Należy sprawdzić czy wyszukiwane słowa kluczowe to w dużej części nazwa domeny lub marki.

Może się zdarzyć też że strony niskiej jakości bez żadnych linków przychodzących i sygnałów społecznościowych również mogą rankować dobrze. Dzieje się tak z powodu przekierowań 301. Wszystkie takie przekierowania są budowane na bazie blogspot.com.

Lejek sprzedażowy zaprezentowany przez AKM3 pokazuje że przy ruchu na poziomie 100 tysięcy wyszukań miesięcznie, można mieć przychów ok. 16500 Euro.

Jak znaleźć złe linki

Gareth HoyleGareth Hoyle z Link Risk podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „How to spott bad links”.
Lata 2012-2013 przyniosły zmiany w postaci aktualizacji Pingwin, która jest wycelowana prosto w linki. Google wydało wojną SEOwcom. Problem polega na tym, że linki nadal są istotnym sygnałem. Google wykrywa podejrzane zachowania poprzez pomiar udziału linków z (podejrzanych domen krajowych, ściśle dopasowanych słów kluczowych) w całuj puli.

Podany przykład działania ich systemu LinkRisk pokazuje linki neutralne i podejrzane. Gdy zbyt wiele jest podejrzanych, czeka nas filtr ręczny lub automatyczny. Następnie czeka nas proces przeprosin w Google i wyrzucania śmieciowych linków z naszego profilu.

Wprowadź produkt od Yandex – kluczowe zagadnienia SEO

Konstantin KaninKonstantin Kanin z MaxROY podczas Search Marketing Day przedstawił temat (tytuł oryginalny): „Introducing your product to Yandex – key SEO issues”.

Jedyna prezentacja poprowadzona w języku polskim. Przedstawił czym jest runet. To kraje, w których używa się języka rosyjskiego. To kilkanaście państw. Dziennie jest wprowadzonych w języku rosyjskim ok. 370mln zapytań.

Yandex jest wyszukiwarką regionalną. Istnieje w niej kilka regionów. Nie pozycjonuje się cały kraj. Nazywane jest to obwodami i działa to bardzo dobrze, rozróżnia się ponad kilkaset lokalizacji obwodów. Jest narzędzie, które robi podgląd wyników w różnych obwodach.

Dobór słów kluczowych w języku rosyjskim nie powinien opierać się o tłumaczenie stricte z polskiego na rosyjski. Powstałe teksty mogą być antysprzedażowe. Trzeba dopilnować by zrobili to doświadczeni copywriterzy.

Yandex bada też design i użyteczność strony. Istotna jest liczba odsłon i wskaźnik odrzuceń oraz % wyjść ze strony. Także na liście jest średni czas odwiedzin, % użytkowników powracających oraz CTR w wynikach wyszukiwania. To podobne metryki mierzone w Google Analytics. Dobrze jest porównać się z konkurencją, czy strona wygląda podobnie do tych z którymi konkuruje.

Yandex nie stosuje brutalnych kar za kupno linków jak Google. Szczególnie w branży informacyjnej. Jeśli witryna kupuje linki i kontent, to znaczy że ma poważne podejście do biznesu. W runecie są linki tymczasowe, opłata jest za dobę oraz linki stałe, umieszczane w artykule. W Rosji jest pełna automatyzacja i dobrze rozwinięty rynek handlu linkami.

The following two tabs change content below.

Artur Strzelecki

Niezależny specjalista SEM, który upowszechnia wiedzę o marketingu w wyszukiwarkach internetowych. W wolnych chwilach doradza dużym i małym klientom.

22 przemyślenia nt. „Search Marketing Day 2013 w Poznaniu – Live

  1. SeoPilot, wszystko ładnie tylko przyjdzie kres tak jak z swlami i wszystko pójdzie w odstawkę, a pozycje poleca w niebyt:)

  2. Nie pisze, nie nagrywa, On zwyczajnie rejestruje 😉 W ogóle to jeśli chodzi o analizę współczynnika odrzuceń na stronach docelowych i tego, czy nie jest przypadkiem zbyt wysoki… To przecież nie jest tak jednoznaczna zależnosć, zeby uznać, ze jak wysoki, to źle. Co w przypadku, gdy ktoś trafi z wyszukiwarki bezpośrednio na podstronę produktu, a ta okaże się dla niego tak przekonująca, ze od razu dokona zamówienia? W takim przypadku współczynnik odrzucenia będzie wysoki, ale dlatego, ze strona okazała się bardzo dobra, a internauta od razu trafił tam gdzie powinien. Przecież dla konwersji warto pozycjonować od razu podstrony.

  3. Na moje oko to na razie nic PRO nie było z tego co czytam tą relację. Czekam na jakąś zdumiewającą informację, a nie blackhatowe tricki, których nikt nie wykorzysta do stron firmowych tylko do niszowych MFA lub ewentualnie zapleczowych.

  4. „Co w przypadku, gdy ktoś trafi z wyszukiwarki bezpośrednio na podstronę produktu, a ta okaże się dla niego tak przekonująca, ze od razu dokona zamówienia?”
    To przechodząc na stronę zamówienia nie podpada już pod problem z natychmiastowym opuszczeniem strony 😉 Ale wiem o co Ci chodzi – artykuł też może w pełni zadowolić internautę i wyczerpać temat, jeśli jednak internauta po jego przeczytaniu (nawet jeśli to będzie trwało kilka minut) wyjdzie ze strony, podniesie wskaźnik BR. Jeśli dobrze pamiętam to Maciek Lewiński opisywał kiedyś, jak ominąć ten problem jakimś skryptem.

  5. idąc za tym dalej można powiedzieć, że pozycjonowanie jest swego rodzaju pomocą dla wyszukiwarki. kto nie traktuje swojego biznesu poważnie, nie będzie inwestował (np. w pozycjonowanie), tylko cierpliwie czekał, aż jacyś dobrzy ludzie sami podlinkują naszą stronę. („a może się uda. jak nie to trudno”) ktoś ma na to czas?
    a może algorytmy wyszukiwarek powinny zacząć rozróżniać conajmniej 2 rodzaje stron: komercyjne i niekomercyjne. ocena i rankingowanie tych stron mogłoby się różnić chociażby nasileniem linkowania, postrzeganiem jego naturalności. według mnie ma to sens, ponieważ Google nie może udawać, że zjawisko kupowania i nienaturalnego linkowania w segmencie stron komercyjnym nie istnieje. w przeciwnym wypadku będzie wyżej oceniał strony, których się nie linkuje (te „a może się uda. jak nie to trudno”)

  6. Reklama zawsze będzie istniała w tej lub innej postaci, bo jest to generator sprzedaży, dlatego podejście Yandex wydaje się zdroworozsądkowe, „poważny biznes” to ten który skutecznie sprzedaje, aktywna sprzedaż w internecie jest tylko możliwa przy wykorzystaniu narzędzi marketingu internetowego, w tym także pozycjonowanie w wynikach organicznych, dlatego też tak firma musi założyć wydatki na reklamę, a nie liczyć na to że może sama znajdzie się przypadkiem na pierwszych miejscach w wyszukiwarce na swoje produkty i usługi, (może się znajdzie a może nie, i na jak długo?) lub na „dobrych ludzi, którzy podlinkują jej stronę”, czyli pozostawianie tego przypadkowi, i to właśnie według mnie jest nieprofesjonalnym i nieodpowiedzialnym podejściem do biznesu!

  7. „Dzieje się tak z powodu przekierowań 301. Wszystkie takie przekierowania są budowane na bazie blogspot.com.” – coś więcej na ten temat? 🙂

    Swoją drogą dziwne, że robiąc tak podobno poważną i stosunkowo drogą konferencję panowie ze sprawnego dalej dopuszczają prezentacje sprzedażowe/

  8. Czy w przypadku podejścia yandex oraz google do rankowania stron, nie odzwierciedla się mentalność ich twórców? Czyli pragmatyczna zaradność vs „czyń dobro”.
    Osobiście, jeżeli przyjąć że tak, wolałbym w Polsce dominację Yandexa (w sumie uczciwsze to – masz biznes, to w niego kasiorkę pakujesz, a nie udajesz że nie, lub kombinujesz).

  9. relacja godna polecenia – nie jakieś tam streszczanie – myślałem, że Lexy ma u siebie wszystko, ale ona tylko streściła to co tutaj jest

  10. Razwan Gavrilas z CognitiveSEO zdjęcie nie aktualne schudł 20 kg nawet na prezentacji było 🙂

  11. Artur, jest pewna nieścisłość w ostatnim akapicie: „Yandex nie stosuje brutalnych kar za kupno linków jak Google. Szczególnie w branży informacyjnej.” Tutaj chodziło akurat o branże komercyjne.
    Dzięki za relacje 🙂

  12. Bardzo fajna relacja, rozłożyłem ją na kilka części – wrócę rano po śniadaniu 😉 Możesz być zadowolony. Zauważyłem jednak kilka błędów stylistycznych, jak będziesz miał chwilę polecam przejrzeć tekst 🙂

  13. Świetna relacja 🙂 Cieszę się, że mieliśmy okazję pogadać na żywo na SMD.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *