Co było na ścieżce SEO podczas Search Marketing Day 2012?

 
Panel dyskusyjny Search Marketing Day 2012

Wczoraj miała miejsce konferencja Search Marketing Day odbywająca się w Poznaniu. Jeśli ktoś interesujący się SEO o niej nie słyszał, to najprawdopodobniej był odcięty od Internetu przez kilka ostatnich tygodni. Reklama tego wydarzenia była wszędzie, remarketing uruchomiony w najwyższym stopniu, praktycznie otwierałeś lodówkę, a tam SMD… Do Poznania zjechało się 18 prelegentów i 2 gości specjalnych oraz około 150 uczestników. Z racji zainteresowania swój czas spędziłem na ścieżce SEO i wysłuchałem serii prezentacji. Wszystkich obecnych na ścieżce SEO powitał Czarek Lech w języku polskim oraz Michał Zawiasa w języku angielskim. Oto co każdy uczestnik mógł usłyszeć.

Planowanie i produkcja optymalnej treści dla globalnych strategii dystrybuowania

David HarlingDavid Harling z Razorfish przedstawił temat (tytuł oryginalny): „Planning and production of optimised content for global offsite distribution strategies”. David Harling, zastąpił Martna MacDonalda, który w ostatniej chwili nie mógł dojechać. David rozpoczął pierwszą prezentację od przedstawienia siebie, pracuje dla Razorfish w Londynie, od 10 lat zajmuje się wyszukiwaniem i marketingiem. Według jego opinii ostatni update Panda, miał największy wpływ w ostatnich latach na indeks sieci. Dzięki niemu identyfikujemy treści gorszej jakości, które Google deprecjonuje. Także ważne są Social Media, które wpływają na marki aby się dobrze pozycjonowały. Social Media to coraz ważniejszy sygnał odbierany przez Google, ale jest także silnie widoczny w Internecie. Algorytm Google bierze wiele pod uwagę w związku sieciami społecznościowymi, ponieważ to ludzie wskazują co jest warte uwagi.

Pytania które sobie zadajemy, to jak zdobyć więcej naturalnych linków. Wiemy jak bardzo ważne jest posiadanie linków. Wiele marek również zastanawia się jak poprawić ranking aby przyciągnąć więcej ruchu. Jego firma zajmuje się głównie dwoma nurtami, seo ranking oraz content distribution. Gdy tworzysz dużo kontentu, który umieszczasz w wielu miejscach w sieci, to jak mierzysz ROI tego kontentu?
Cztery obszary istotne przy dystrybucji treści to:

  1. Content, taki który nie tworzy się dla wyszukiwarki tylko dla ludzi,
  2. Optimisation, taka która jest dla ludzi a nie wyszukiwarki,
  3. Distribution, gdzie trafia kontent,
  4. Evaluation, czy to się opłaca.

W SEO wiele firm potrzebuje pomocy, nad tym czym mają się zająć. Najpierw należy zwrócić uwagę na kontent. Mamy trzy rodzaje kontentu: Engineered (mechaniczny), Enchanced (existing asset, każda aktywność, która go rozszerza), Exempt (nie służy celom SEO). Kontent musi posiadać idea, ważne też jest uświadomienie sobie jaki jest cel posiadania kontentu. Nie tylko do tworzenia słów kluczowych, ale także spełnia określone cele.

Podstawowymi typami kontentu są tekst, grafika, kontent angażujący. Przeglądajmy dane analityczne, który kontent jest dla nas najbardziej wartościowy. Czy pozwolił się lepiej pozycjonować, wszystko w SEO jest mierzalne i się liczy.

Case Study dla Audi

Chodziło o poprawienie widoczności marki Audi w trakcie wyścigów Le Mans. W planie było usprawnienie współpracy z Audi, utworzono video ze znanym kierowcą, jak to jest być kierowcą Audi przez jeden dzień. Tak utworzone wideo było dobrym kontentem, które pozwoliło dotrzeć do szerokiej publiczności. Po dwutygodniowej kampanii, osiągnęli ponad 1mln wyświetleń, mimo braku płatnych działań. Zyskali 43 linki przychodzące w sposób naturalny, nie chodzi o ilość ale o ich jakość. Linki pochodziły z bardzo zaufanych źródeł jak BBC, Piston Heads itp. To było bardzo dobre dla całej marki, monitorowali wiele aktywności, które dotyczyły Audi. W ciągu tych dwóch tygodni, zaobserwowali 90% wzrost ruchu. Oczywiście trzeba wziąć pod uwagę ,że jest to zapytanie sezonowe.

Case study dla ASDA nalężąca do Wall Mart

Celem było zwiększenie widoczności sukienek dla słów nie brandowych. Wydawali mnóstwo środków na linki sponsorowane, gdyż wiedzieli, że jest tam odbiorca. Jego zespół jest bardzo kreatywny i podczas dyskusji wymyślił Audrey Hupburn i film Śniadanie u Tiffanego z Małą Czarną. Zauważyli, że jest taka potrzeba i postarali się ja zaspokoić. Utworzyliśmy wideo, które wspiera historią małej czarnej i postać Audrey Hupburn.

Nowy sposób patrzenia na linki i jakość linków po wdrożeniu Pingiwna

Dixon JonesDixon Jones z MajesticSEO przedstawił temat (tytuł oryginalny): „A new way to look at links and quality post Penguin”. Posłuchaliśmy o tym jak uruchomili Flow Metrics. Gdy przyszedł Pingwin, zrobił osobistą analizę lików i okazało się, że nowe rozwiązanie Majestc SEO może w tym pomóc. Jak wyszukiwać linki nienaturalne, te które Google uważa za spamerskie. Mają największą mapę linków na świecie. Pierwszym problemem jest to, że linki sitewide są nienaturalne. Jak znaleźć linki sitewide? Krótkie objaśnienie czym jest Fresh oraz History indeks. We Fresh indeksie nie są nowe linki, tylko te które bot Majestic widział w ciągu 30 dni. Ten link zawsze jest w Historic Indeksie. Dlatego linków sitewide szukamy w Hisotric Indeksie. W zakładce Domeny poszukaj domen, z których pochodzi wiele linków i mają słaby ranking Alexa, tzn. niski ruch na stronie. Nie należy panikować na widok każdego linka sitewide. Nie trzeba używać Majestic SEO, te same informacje znajdziesz w GWT.

Kolejny problemowy link to linki ze zbyt wielką liczbą spacji (overhyphenation). Aby takie znaleźć, trzeba utworzyć raport dla domeny. W standardowym raporcie i zakładce linki, grupujemy linki według słowa kluczowego. Dixon wyszukał dziwny link prowadzący do Majestic SEO. Okazuję się, że we Francji jest konkurs pozycjonowania, a uczestnicy używają Majestc SEO do monitorowania konkursu.

Następne linki to 301. 301 przenosi stare problemy związane z linkami ze starej strony na nową domenę. W raportach zaawansowanych możemy odnaleźć linki 301 i się im przyjrzeć. To istotne gdy masz zwyczaj kupowania starych domen i przekierowywania ich.

Dixon znalazł kilka linków, które wyglądały bardzo źle, ukryte linki lub ukryty tekst. Z wykorzystaniem Cliquehunter wyszukał strony, które linkują do stron z których pochodzą twoje linki. Dzięki temu mogę dowiedzieć się więcej o sieci linków. Tego mogę się dowiedzieć robiąc analizę dla własnej strony.


Nadal pozostaje problem ilości i jakości linków. Przez ostatnie 8 miesięcy pracowali nad Flow Metrics. Uruchomili to w zeszły poniedziałek. Nim powstał Flow Metrics, mieli tylko ACRank, ale był to stary instrument. Był liczony od 1 o 15, dlatego że gdyby było do 10 to być może prawnicy Google, chcieli by ich pozwać. Algorytm ignorował linki wewnętrzne. Także zliczał linki, które były skasowane oraz te, które zawierały parametr nofollow. Musieli uaktualnić swoją miarę. Jak to zrobić? Przede wszystkim trzeba przetwarzać dane szybciej. Są w tym coraz lepsi. Mieli metrykę ACRank, na bazie której chcieli zbudować nową. Przetwarzali linki, te które linkują do stron i linki z tych stron do następnych. Zastosowali to samo ale na bazie stron, którym możemy zaufać. Linki to są związki. Są silne i słabe związki w naszym życiu. Google chce aby linki były związkami. Bękarty to linki kupione. Rozwód to wtedy gdy Google wyrzuca nas. Wyszukiwanie to nie odizolowana praktyka marketingowa.

W Majestic SEO mieli burzę mózgów.

  1. Liczby są dobre, ale potrzeba nam czegoś wizualnego.
  2. Potrzebujemy listy łączników, ludzi którzy mają spory wpływ na określone obszary, zwłaszcza na SEO
  3. Zbudowali listę ambasadorów w każdym kraju, aby mogli rozmawiać z klientami we własnym języku
  4. Post na blogu zamienili w landing page
  5. Chcieli związać tę informację wokół konferencji
  6. Napisali newsletter przed uruchomieniem.
  7. Zaangażowali partnerów, którzy używają ich API
  8. Po uruchomieniu mieli kilka ciekawych przykładów, którymi się pochwalili
  • Zebrali około 10 łączników, Danny Sulliva, Barry Schwarz itp. Napisali dla nich świetnej jakości notkę prasową, z datą publikacji 14 maja. Mimo, że strona była nieaktywna, dostali konkretny link do umieszczenia. Dostali zdjęcia oraz czas na przygotowanie się.
  • Wymyślili wykres profilu linków, metryka tym razem jest liczona do 100. Każdy URL ma teraz 2 liczby przypisane do siebie. Citation Flow oraz Trust Flow. Potraktujmy ten obrazek jako odcisk każdego adresu URL. W ich bazie są naprawdę dziwne profile.
  • Ambasadorzy: Otrzymali pewne informację od Majestic SEO, dostęp beta, tekst na bloga, zdjęcia itp.
  • Newsletter – krótki artykuł, linkujący do tego posta, wysłany 24 godziny po uruchomieniu usługi.
  • Partnerzy: wiedzieli od stycznia, otrzymali dostęp do API, w zaufaniu mogli przekazywać im informację o testach beta, wprowadzili niezależne opiniowanie.

Tak przygotowali kampanię uruchomienia Flow Metrics. Po takich przygotowaniach, post był zaplanowany na publikację o godzinie 12:00. Wszystko było skorelowane. Pojawiły się artykuły w wielu miejscach, minutę po tym gdy ich został opublikowany. Zaczęły pojawiać się także niekontrolowane publikacje, tzn. pochlebne ale nie mieli już na nie wpływu. Obserwowali zainteresowanie w Google Ripples (chyba nie ma tego w Polsce). W końcu ruch na stronie tego dnia był bardzo wysoki. Dzięki temu zaczynają się pojawiać na nowe słowa w Google: flow metrics, link metrics.

Kiedy masz problem z linkami:

  • poszukaj linków sitewide
  • sprawdź anchory
  • porównaj strony z podejrzany mi linkami
  • odfiltruj linki 301.

Jeśli uruchamiasz coś nowego to:

  • Znajdź łączników swojej niszy
  • Daj swoim najbliższym sojusznikom notatkę przed czasem opublikowania
  • Ustaw swoje zasoby w rzędzie
  • Oczywiście posiadaj fantastyczny produkt

Pytania:

  1. Ile czasu trwa przeliczanie tych nowych liczb? 400 stron na sekundę, cały Fresh Index jest przetworzony w 8,5 godziny
  2. Jak wygląda profil linków searchmarketingday.com? Citation Rank – 27; Trust Rank – 27 Jeśli te liczby są różne, szczególnie gdy dużo wyższy jest Citation Flow, to jest podejrzenie że manipulujesz linkami przekazującymi PageRank.
  3. Czy będzie plugin do przeglądarki? Nie, ale mamy API.
  4. Co reprezentują punkty na wykresie, czy jeden punkt to jeden link? Nie, mamy tylko 10000 pikseli.
  5. Czy skracacze URLi są także indeksowane? Tak, po prostu indeksujemy sieć.

Skalowalność Twojego SEO

Magnus BråthMagnus Bråth z PokerListings przedstawił temat (tytuł oryginalny):”Supersizing your SEO”.Jaka jest różnica pomiędzy tym co jest skalowalne a tym co nie jest? Czy ktoś zaczynał jako copywriter? To nie jest biznes który się skaluje. Oczywiście możesz podnieść stawki, ale nie dasz rady pracować na tyle więcej aby podnieść je wyżej. Prowadzenie gazety jest biznesem który się skaluje!

SEO to biznes

Jak wiele godzin spędzasz na linkiem/klientem/słowem kluczowym?

Czy możesz to robić 1 milion razy częściej? Czy jesteś szybszy/lepszy/twardszy niż Twoi konkurenci?

To Współczynnik konwersji decyduje o tym czy twoje SEO jest lepsze od konkurencji. Jeśli jest lepszy, to dostajesz za to więcej pieniędzy, jak masz ich więcej to robisz lepsze SEO.

W branży pokera, wydawać by się mogło, że jest ciągły spam i chłam. Ale tak nie jest, ponieważ jest tu wiele zainwestowanych pieniędzy. Są strony, które są bardzo dobre, praktycznie wybieram stronę na której chce zagrać i jestem skonwertowanym klientem. To nie musi być najlepsze SEO, ale musi być wystarczające. Magnus może znaleźć 10 blogów o modzie w Szwecji i poprosić ich linka. Podaje inny przykład. Różnica w linkach w skali świata jest ogromna. W ich małej Szwecji mają sporą konkurencję, ale tylko trzy razy mniejszą od rynku w USA.

Prosta metoda

Kup 1000 stron i umieść link do Twojego źródła zarabiania pieniędzy. Czy to jest trudne? To bardzo trudne, nie widział firmy która prowadzi 1000 stron. Czy naprawdę jesteś w stanie postować dobry kontent na każdej stronie?

Jeśli jesteś dobry w robieniu infografiki, to czy może je tworzyć sposób który się zwraca. Nie pracował nigdy w firmie, która nie była skupiona na procesie. Dla niego to oczywiste. Jak rozliczać consultanta, który pracuje na godziny? Jak wiele godzin możesz sprzedać?

Budowa rozwiązania skalowalnego

Jeśli chcesz komunikować się z każdym webmasterem po jednego linka, to w ciągu tygodnia dostaniesz ich niewiele. Podobnie z kontentem.

W Szwecji firma kupuje rocznie 10000 domen, umieszcza nich bardzo słabe treści i linki, po 6 miesiącach blogi znikają. Ale to wystarczy na tyle aby klienci byli wysoko. I tak co roku. Pomaga w tym Zemanta. System blogowy, który sugeruje treści blogerom. Niektórzy uzyskali z tego pewne korzyści.

Czy twoja praca może pracować bez Twojej obecności? Jego zespół SEO, który był bardzo zdolny, zamienił na zespół badawczo-rozwojowy.

Pytania?

  1. Czy używasz automatycznego kontentu? Jeśli zastąpisz siebie spamem w komentarzu. Masz tylko tymczasowe rozwiązanie ale długoterminowy problem.
  2. Jak kierowałeś procesem pozyskiwanie linków poprzez rozmowy telefoniczne? Skalowałem go przez zatrudnienie większej liczby dzwoniących, ale nie było rozwiązanie na dłuższą metę.
  3. Czy zgodzisz się, że większa liczba linków, które się starzeją, a nie znikają od razu, są bardziej wartościowe? Zrobiłbym tak samo. Nie tworzyłbym linków, które wiem że znikną za jakiś czas.
  4. Gdy skalujesz, zawsze pojawiają się problemy. Na jakie natrafiłeś? Rosną zyski, ale także rośnie ryzyko.

Zamiana czarnego w białe: Automatyczne tworzenie treści na potrzeby SEO i Sieci Społecznościowych

Ralph TegtmeierRalph Tegtmeier jako FantoMaster przedstawił temat (tytuł oryginalny): „Turning black into white: Automatic content generation for SEO and Social Network Marketing”. Fantomaster to nadal on, ale już nie jego firma. Teraz Będzie LongBotiX Enterprises

Jeśli robisz Białe SEO, to czarnych tu nie ma. Gdy podążasz wskazówkami Google to jest dobrze. Zachowuj się tak jakby Google nie istniało, ale podążaj całą listą wskazówek, które nieistniejące Google sugeruje. Z punktu widzenia Czarne SEO, było o przechytrzeniu technologii i wyszukiwarek. Obecnie Czarne SEO zamienia się także w przechytrzenie ludzi, np. moderatora zatrudnionego w wyszukiwarce. Nie jesteś jednak w stanie tego zrobić. Jak przekonać edytora, że zły kontent to dobry kontent? Jaka jest różnica między czarnym i białym SEO? Jakość, dopóki nie dostaniesz bana. Sfrustrowani biali, w końcu dostrzegli światło i stali się czarnymi. Black jest wykonywany automatycznie.

Uczestnicy zobaczyli artykuły na temat loterii El Gordo. Gdy zatrudnisz dziennikarza, któremu zapłacisz wiele Euro, wcale nie dostaniesz lepszego tekstu. To co jest istotne, to że ten tekst został wygenerowany maszynowo. Jeden artykuł jest napisany przez człowieka, a reszta maszynowo, mimo to, ludzie nie są wstanie rozpoznać który jest który. Tak zamieniamy czarne w białe, przy wykorzystaniu narzędzi black, tworzymy produkt który jest biały.

Teksty różnią się długością i układem semantycznym. Chodzi o różnicowanie liczby akapitów. Nie chodzi tylko zamienianie słów, czyli synonimizację. To nie działa w ten sposób. Trzeba włożyć w to więcej inteligencji. Wyobraź sobie, że inwestujesz 50k zł w jeden tekst. A potem otrzymujesz 1000 wersji artykułów, które pokazujesz moderatorom wyszukiwarki, wyglądają jak dobry kontent, absolutnie biała treść.

Niewiele da się zrobić z krótkim tekstem, lepiej gdy jest dłuższy. W przyszłości roboty internetowe, będą mogły segmentować strony, co jest poniżej/powyżej linii przełamania. Dlatego należy różnicować długość artykułów oraz liczbę użytych akapitów. Nie da się tego dowieść, ale to wygląda sensownie, gdyby się nad tym zastanowić. Teksty nie mogą być zbyt dobre, ponieważ mogło by się to wydawać także podejrzane. Teksty jednak nie powinny mieć żadnych błędów gramatycznych, ponieważ po wytworzeniu kolejnych treści, powstanie odcisk cyfrowy, który połączy te wszystkie artykuły ze sobą.

To jest wszystko ograniczone do języka. Na razie oferuje tylko tę możliwości w języku angielskim i niemieckim. Plany są aby rozszerzyć to na inne języki zachodnie. Nie wiadomo czy da się łatwo zaadaptować to rozwiązanie w języku polskim, czeskim czy rosyjskim. Da się to zrobić w języku niemieckim, ale gramatyka jest tu bardzo skomplikowana.

Program Power Article Rewriter jest w stanie przygotować listę tweetów na tweetera. Wykorzystujemy klasyczne znaki z mieszarki, nawiasy wąsate oraz pałki do oddzielania słów kluczowych. Na ten moment wygląda to jak zwykła mieszarka, obsługująca co najmniej 2 poziomy zagnieżdżenia.

TweetDeck jest platformą, która może imitować prawdziwe konta, ale wcześniej trzeba wgrać do niej listę tweedów do opublikowania. Kolejne narzędzie Pluggio pozwala znaleźć treść, którą chcesz retweetować.

Prezentacja była bardzo praktyczna. Zobaczyliśmy wygenerowane maszynowo teksty oraz jak publikować automatycznie tweety na Tweeterze. Niestety na polskim rynku nie ma potrzeby i na razie jej nie widać, aby korzystać z przedstawionych narzędzi. Ciekawa wskazówka podana przez Ralpha, polega na różnicowaniu, używanego skracacza adresów, w różnych tweetach.

Content Mango – czyli sklep w którym możesz kupić unikalne artykuły, które są sprzedawane tylko raz.

Pytania:

  1. W tym miejscu słyszałem najdłuższe pytanie zadanie przez człowieka (kto był wie o co chodzi): W skrócie: Dlaczego wybrałeś taką drogę, pomimo że byłbyś w stanie zainspirować miliony ludzi do tworzenia struktury serwisów pożytecznych dla milionów użytkowników?

Jak działają Fast Flux Networks i ja można je wykorzystać ochrony swojej sieci linków

Dominik WójcikDominik Wójcik z Trust Agents przedstawił temat (tytuł oryginalny): „Fast Flux Networks, how they work, and how you can use them to protect your Linknetwork”.

Dominik posiada doświadczenie jako administrator systemów oraz 8 lat pracy jako konsultatnt SEO. Był też hakerem, ale nigdy go nie złapano, ponieważ działał w Azji. Rozróżnia cztery rodzaju pracy: whitehat, greyhat, black hat, and craphat.

  • 83% stron posiada krytyczne dziury w zabezpieczeniach
  • 78% stron ma pewne dziury w zabezpieczeniach
  • 15-20% stron jest podatnych na ataki automatyczne

Typy dziur w zabezpieczeniach:

  • Directory traversal
  • Niskiej jakości hasło
  • XSS
  • SQL Injection

Xss – oglądamy na żywo strony, które posiadają wstrzyknięte XSS. Jak to możliwe? W katalogu DMOZ otrzymaliśmy link do strony konferencyjnej. Dominik pokazał jak to zrobić. Kolejny przykład wstrzykniętego linka na stronę scjentologów i ciekawostka – teraz strona Google, też jest podatna na wstrzyknięcie skryptu? Kolejna strona, David Gueta ze wstrzykniętym pozdrowieniem dla SMD oraz polski korpus narodowy. Jak bronić strony przed XSS. XSS me.

DNS Cache Poisoning – patrzymy na nowy rekord A ze słowem „kredyt” kierowanym na zewnętrzny adres IP. Właściciel nie wie o tym, że ma nową subdomenę. Możesz się nawet o tym nie dowiedzieć, ponieważ nie ma ruchu w Twoich statystykach. Korzystając z tego możemy zweryfikować stronę konkurenta w GWT i usunąć mu konkurencyjna podstronę z indeksu.

DNS Cache Poisoning

  1. Kontroluj serwer domen dla twojej domeny
  2. Odpytaj serwer domenowy o domenę, otrzymasz IP domeny, ale w tym wypadku nie dostarczaj tylko samego IP, tylko dostarcz dodatkowy rekord A.
  3. Google bot znajduje nową subdomenę i otrzymuje o niej informację ze swojego własnego serwera domen
  4. Trafiasz do indeksu Google.

Lekarstwem na to jest DNSSEC

Fast Flux Networks ta technika pochodzi z sieci botów i stron phiszingowych. To co można zrobić FFN tomożemy ukryć sieć linków. Korzystamy z DNS Round Robin + Reverse Proxy + A lot of stuff.

Zobaczmy czy to działa? Tak to działa, ale nie zawsze, nie na długi okres czasu.

Nie posiadam zbyt rozbudowanej notatki z tego wystąpienia, ale moim skromnym zdaniem była to prezentacja wyróżniająca się pośród pozostałych. Obfitowała w wiele przykładów i zadziwiających efektów. Przyznam, że o niektórych technikach usłyszałem pierwszy raz. Wszystkie prezentacje na SMD powinny być na tak praktycznym poziomie.

Dobrze, kolejny update Google nazwany od zwierzęcia. Co dalej?

Joe SinkwitzJoe Sinkwitz z Empirical Marketing przedstawił temat (tytuł oryginalny): „Great, another update named after animal. Now what?” Joe Sinkwitz zaczął przygodę/miłość z SEO w 1997 w colegu. Cokolwiek się stanie ze stroną, należy zrozumieć na poziomie matematyki, co właściwie dzieje się ze stroną. Dlaczego pewne strony są wyżej niż ty. Aby to zrobić trzeba zebrać dane, ze strony i z poza niej. Nie tylko treść ale każdy inny sygnał znajdujący się na niej. Drugi krok to zebranie informacji o linkach: liczba, ile nowych w miesiącu, ile utraconych w miesiącu, w poprzednim miesiącu, % słów kluczowych w linkach,% naturalnych/słabych linków.

Jakie dane zebraliśmy. Te same które zbiera wyszukiwarka. Im więcej danych zbierzesz, dowiesz się co się dzieje w tym przedziale czasu. W Google rozpoczyna się update w ten sposób, że najpierw jest on bardziej agresywny. Następnie nowe czynniki w algorytmie są odkręcane.

Teraz oglądamy przykłady tego co się dzieje w SERPach „buy cialis”, „phyton hosting” – przykłady gdzie Pingwin się walnął i to sromotnie.

Zebraliśmy dane, co dalej? Trzeba przeprowadzić analizę. Co zauważyłeś gdy Pingwin wchodził? Nie wierz niczemu na słowo, wszystko trzeba sprawdzić. Zbierz dane gdy był update. Będziesz wiedział co się zmieniło.

Pytania:

  1. Jakie możesz zasugerować strategie po Pingwinie?
  2. Czy złe linki mogą zaszkodzić gdy przechodzą przez 301?
  3. Czy widziałeś już wyjścia z Pingwina?
  4. Co myślisz o Cross Domain Canonical?

Panda, Pingwin i inne straszne zwierzęta

Andre AlparAndre Alpar z AKM3 przestawił temat (tytuł oryginalny): „Panda, Pinguin and other scary Animals”. Rozpoczął od Pandy, opowiada o tym które strony zostały przez nią trafione. Jego zdaniem, nie każdy jest w stanie wywinąć się od Pandy. W Pandzie chodzi o autorytet niż o precyzyjność inżynierską. Drugą rzeczą która poruszył to metryki socjalne, które mogą być mierzalne dla każdej strony. Do tych metryk należą CTR w SERPach, wskaźnik odrzuceń, średni czas pobytu na stronie. Metryki są zawsze relatywne do konkurentów w SERPach, ale nie są absolutne.

Trzecia sprawa to korelacja vs. Przyczynowość. Nie chodzi tu o liczby tweetów, +1 i lajków. Nie należy także dyskryminować osób, które mają silnie zintegrowane AdSense na swoich stronach. Zdolność do zaufania każdej strony nie jest mierzalna.

Techniczne miary również są potrzebne. Wariacje w znacznikach HTML. Chociaż nie zawsze chodzi o 200 słów słabego kontentu + znaczniki H1 i H2. Lepiej zainwestować w lepsze tagowanie i więcej multimediów.

Przechodzimy do Pingwina. Powodem kary w pingwinie są słowa za bardzo monetyzujące ruch. Trzeba porównać domeny brandowe z domenami które posiadają braki w SEO. Pingwin nie zaszkodził domenom, które miały w nazwie słowo kluczowe. Zdaniem Andre Google próbuje demonizować linuksowego Pingwina. Jego zdaniem, nietrafione przez pingwina domeny, mają wyższy CTR w SERPach. Wyższy ponieważ są brandami i są rozpoznawane przez regularnych użytkowników. Dla Pingwina są również ważne zapytania wprowadzane do Google zawierające w sobie adres internetowy. Następnym sygnałem jest mierzenie, jaka duża liczba użytkowników dociera do strony poprzez wejście bezpośrednie. Źródła danych pochodzą z systemów należących do Google. Google naturalnie bierze cały czas pod uwagę metryki użytkowników także przy tego rodzaju wejściach. Ostatni element to tematyczność linków.

Domeny ze słowem kluczowym mogą być zagrożeniem. Lepiej jest mieć mniej linków lepszej jakości niż wiele słabych linków. Naucz się monetyzować ruch i zainteresuj się bardziej tym co masz na stronie niż przez ostatnich parę miesięcy.

Pytania:

  1. Czy wskaźnik odrzuceń, który może być 100% na stronie ma negatywny wpływ na postrzeganie w Google?
  2. Pingwin uderzył w długi ogon ale nie w główne słowa kluczowe, jak to możliwe?
  3. Jak zmienia się CTR gdy zmienia się Tytuł i Opis strony w SERPach?

Równoważenie wszystkich wskazówek SEO

Mikkel SvendsenMikkel Svendsen z deMib.com przedstawił temat (tytuł oryginalny): „Balancing all the SEO tips”.

Wszystko co musimy zrobić w czasie SEO to: poszukać słów kluczowych, analizować konkurentów, zarządzać domenami, zrobić przyjazne URLe i jeszcze kilkadziesiąt innych czynników itp.

Trzy podstawowe bloki SEO to:

  • Architektura i kod (domeny, strony, format kontentu, linki wewnętrzne, templatka)
  • Kontent (strategia kontentu i jego format, treści, UCG, video, świeżość i dynamika twojego kontentu)
  • P&Q (popularność i jakość, linki, wzmianki w social mediach, lajki i share, jakość strony i biznesu)

Model IRTA:

  1. I – Indeksowanie – być w indeksie
  2. R – Rankingowanie – rankować strony w indeksie
  3. T – Traffic – ruch z lepszych rankingów
  4. A – Action – zamień odwiedzającego w klkienta

3 drogi do priorytetyzowania twojego SEO.

Must have:

  • Indeksowalna strona, treść która jest czytelna,unikać zduplikowanej treści, linki, aktywność społecznościowa

Nice to have:

  • Przyjazne adresy URL, optymalne kodowanie, więcej treści, więcej linków, więcej aktywności społecznościowej

Rating Model

  • Kolorowanie wszystkich spraw, zielony – wszystko jest dobre, nie trzeba nic robić, żółty – to jest temat, z którym musisz się spotkać, czerwony – natychmiast się tym zajmij.

Jakie są problemy z indeksowaniem treści.

  • Katalogi chronione hasłem,
  • Wykluczenie z pliku robots.txt lub meta znacznikach.
  • Duplicate Content: warianty produktów, kalendarz bez granic w dacie, sesje ID, znaczniki czasowe albo kliknięte URLe, wersje strony do wydruku, wersje strony w PDF, inne strony kopiujące twój kontent

Jak pozbyć się Duplicate Content

  • Strony do wydruku
    • Zrób wersje do wydruku w CSS, skorzystaj z tagu Canonical
  • Strony PDF
    • PDFy przeważnie są złym landing pagem, wykorzystaj opis albo rich snippet dla nich w stronie HTML i podlinkuj je, umieść wszystkie tego rodzaju pliki w katalogu np. /pdf/ i zabroń indeksowanie tego katalogu
  • Warianty produktów i sortowanie
    • Wykorzystaj # hash (allow anchor), to samo zrób w GA przy monitorowaniu kampanii
  • W przypadku innych problemów z adresami udaj się do programisty i powiedz co chcesz osiągnąć.
  • Dobrze jest zastosować rozwiązanie, które będzie działało w tle i sprawdzało czy istnieje oficjalny URL dla ładowanej strony. Gdy wynikną rozbieżności dobrze będzie wykorzystać 301 aby przekierować ruch na właściwą stronę.
  • Łatwiejszym rozwiązaniem programistycznym będzie stosowanie tagu rel=canonical
  • Wyczyść URLe, nie tylko przekieruj je z wykorzystaniem 301

Kontent w 2012

  • Przed Pandą:
    • Im więcej stron w indeksie tym lepiej, nawet niskiej jakości strony mogły osiągać wyniki i przynosić ruch do strony
  • Po Pandzie
    • Tylko indeksuj strony z dobrą jakością, niskiej jakości storn mogą zaszkodzić całej stronie

Zacznij od oceny strony:

  • Architektura strony:
    • Domeny, struktura katalogów, linki wewnętrzne i nawigacja, duplicate content, wykluczanie stron, mapy strony
  • Kodowanie:
    • Objects, meta tags, format treści, AJAX, ramki, obrazki, CSS i skrypty
  • Content:
    • Test na twojej stronie, tekst ze strony głównej, tekst w kategoriach, tekst w produktach i na stronach, landing page w kampanii, UCG, znaczniki tytułowe, meta tagi
  • Linki i social:
    • Inbound links, outbound links
  • Spam & risks: spam identyfikowalny, Identyfikuj inne ryzyka

Przykłady wykonanych analiz:

Wyklucz z indeksu niskiej jakości treści:

  • Impact on results: 5
  • Time to complete: 4
  • Impact on resources: 5

Pytania

  1. Jak budować strony wielojęzykowe, w katalogach, na subdomenach czy na różnych domenach?
  2. Czy wersja angielska strony tworzy duplicate content gdy jest umieszczona na różnych domenach narodowych?

Panel dyskusyjny

Kaspar SzymańskiW panelu dyskusyjnym oprócz wszystkich wcześniej przedstawionych prelegentów wziął także udział Kaspar Szymański. Panel trwał półtorej godziny. W czasie jego trwania, uczestnicy z sali zadawali pytania. podobnie jak w zeszłym roku większość pytań szła do Kaspara, ale uczestnicy panelu dzielnie dzielili się czasem antenowym, który otrzymali.

Masz problem? Potrzebujesz fachowej obsługi z zakresu SEM/SEO ? Skontaktuj się z nami, już dziś! Napisz na [email protected]

Zapisz się do newslettera wypełniając pola poniżej. Będziesz na bieżąco ze wszystkimi wydarzeniami zwiazanymi z Silesia SEM i informacjami o marketingu internetowym w sieci. Nie spamujemy.

Zostanie wysłany do Ciebie e-mail potwierdzający: przeczytaj zawarte w nim instrukcje, aby potwierdzić subskrypcję.

Twój email:

 Zapoznałem się z polityką prywatności.

The following two tabs change content below.

Artur Strzelecki

Niezależny specjalista SEM, który upowszechnia wiedzę o marketingu w wyszukiwarkach internetowych. W wolnych chwilach doradza dużym i małym klientom.