Před pár dny jsem se účastnil SEO školení v h1. Chtěl jsem si ověřit, že to, co znám, je správně a neutíká mi nic podstatného. Jste si jisti, že máte technologickou stránku webu zcela v pořádku?

On page faktory

Váš web je to jediné, co máte plně pod kontrolou. Neovlivníte zcela, kdo a jak na vás odkazuje. Jak si o vás lidé povídají na sociálních sítích. Ale můžete co nejvíce usnadnit indexování vlastního webu, upravit navigaci, nadpisy, metaznačky. Odstranit duplicity, doplnit sitemapu. On page faktory prý dělají jen 15% z hodnocení webu, ale jsou jedinou věcí, kterou můžete ze 100% ovlivnit. Udělejte tak maximum pro optimální nastavení svého webu.

Duplicity

Duplicitní stránky jsou zlo, které se nám často nevědomky děje na našem webu. V ideálním případě by neměly být indexovány žádné dvě stránky, které mají stejný obsah. Taková duplicitní stránka vznikne třeba tím, že stejný výpis seřadíte podle jiného kritéria. Nebo neošetříte stránkování s hodnotou 1. Na mém webu existují minimálně tři ty samé stránky s různým URL:

Takové stránky by měly být přesměrovány na jednu jedinou variantu. Ideálně pomocí HTTP stavového kódu 301 (přesunuto trvale). 

Další chybu jsem odhalil, když jsem si procházel můj web přes operátor 'site:tomas-dvorak.cz' ve vyhledávání googlu. Robot googlu si naindexoval zhruba 10000 totožných stránek. Měnil parametr pro stránkování a stále zvyšoval jeho hodnotu. Tento web má celkem 12 stránek. To znamená, že tisíce url obsahovaly ten samý prázdný výpis. Vracely ale HTTP kód 200 (vše v pořádku) a pro robota tedy nebyl důvod myslet si, že je něco špatně.

Nespoléhejte na to, že google bude procházet jen adresy, na které vede nějaký odkaz. Podle toho, co jsem viděl, si hodnoty parametrů upravuje a zkouší je měnit. Projděte si seznam stránek, které u vás google naindexoval a ověřte, že nekouká, kam nemá. 

Vodítkem také může být stav indexu z webmaster tools. Pokud začne najednou index nevysvětlitelně bobtnat, je třeba hledat příčinu. Web který obsahuje necelých 200 článků by neměl mít naindexováno 11 000 stránek.

Nástroje pro webmastery - stav indexu

 

Seznam vs. Google

V našem malém rybníku na poli vyhledávání kralují dva vyhledavače. Seznam a Google. Žádný z nich není výrazně dominantní a každý má svou cílovou skupinu.

Seznam používají méně technicky zdatní uživatelé. Často ti, kteří nechtějí o angličtině ani slyšet a výsledky na doméně .com nebo .org je stejně nezajímají. Typickým uživatelem seznamu jsou starší lidé, maminky na mateřské a podobně. 

Google oproti tomu používají mladší generace, technicky zdatnější uživatelé. Ti, kteří proplouvají sociálními sítěmi, cizí jazyky jim nedělají problém. Nechtějí se omezovat jen na české stránky.

Ke každému z vyhledavačů tak patří jiná demografická skupina a je třeba to mít na paměti. Pokud provozujete eshop s počítačovými díly, pravděpodobně vás víc zajímají uživatele googlu. Můžete tak víc sil zaměřit na metatagy, inzerovat v AdWords a podobně. 

Robots.txt

Souborem robots.txt umístěném v kořenovém adresáři webu (v mém případě http://www.tomas-dvorak.cz/robots.txt) můžeme ovlivnit, jaké stránky budou roboti indexovat a jaké naopak ne. Pozor na to, že tento soubor kontrolují jen slušní roboti. Přesto, že zakážete indexaci určité části stránek, můžou se i nadále vyskytovat ve výsledcích hledání. 

Příkladem může být třeba výpis stránek webu klaboseni.cz. V robots.txt mají zakázáno indexování celého webu a přesto  google zná a vypisuje téměř 200 000 stránek ve výsledcích hledání.

Klaboseni.cz - procházení zakázáno pomocí robots.txt, přesto jsou ve výsledcích hledání

Proč je tomu tak, je vysvětleno v nápovědě pro webmastery. Ve zkratce - na stránky je odkazováno odjinud a proto jsou zaindexovány.

Rychlost načítání webu

Rychlost odezvy webu je jedno z hodnotících kritérií webu. Ve firmě h1 prý dodržují zásadu, že by se měla stránka načíst do 4 sekund. Mě to přijde poněkud hodně, i když záleží, co se měří. Pokud jsou to 4s se vším všudy, včetně designu, obrázků, videí a scriptů, pak je to celkem pěkný čas. 

Představu, jak rychle se načítá stránka, můžete získat třeba ve webmaster tools. Tam se ukazuje nejspíš jen čas načtení samotné HTML stránky (bez grafiky, scriptů a pod) tak, jak to trvá google botovi.

Čas načtení stránky tomas-dvorak.cz ve webmaster tools 

Detailní představu o tom, co a jak dlouho se na vašem webu načítá, může poskytnout třeba nástroj Pingdom Tools. Měří nejen stránku, ale i všechny její součásti. Umí do detailu rozepsat jednotlivé požadavky na server, zjistit, kde jsou problémy. Pingdom tools dovedou otestovat i cachování, poradit, jak vylepšit výkon.

Pingdom tools - výkon webu

Obdobnou službu provozuje google pod názvem PageSpeed Insights. Informace jsou velmi detailní včetně návodů, jak problémy řešit. V mém případě jsem zjistil, že se musím více zaměřit na cachování v prohlížeči a mohu optimalizovat (bezztrátová komprese) některé obrázky. Služba navíc umí zobrazit i doporučení pro mobilní/responzivní verzi webu, kde jsou požadavky a problémy mírně odlišné.

 PageSpeed Insights — Google Developers.png

Obdobná data, jako pingdom, můžete získat i pomocí vývojářských rozšíření v prohížečích. Ve firefoxu jde o Firebug, v Chrome developer tools

Před pár dny jsem narazil na pěkný seznam doporučení a optimalizačních technik pro web - browserdiet.com

Všechny stránky webu

Čas od času je dobré podívat se, jaké stránky a s jakými daty vidí roboti vyhledavačů. Nejjednoduší cesta je již zmíněný operátor site:nazev_domeny.tld - u mě tedy site:tomas-dvorak.cz. Tento operátor funguje jak pro seznam, tak pro google. Můžete tak zjistit počet stran, obsah titulků a popisků, tvar URL. U google pak můžeme ověřit i metadata stránky. 

Důkladnější analýza vyžaduje detailnější informace o maximu stránek na webu. Xenu je program pro průchod celým webem. Začne na domovské stránce a sleduje všechny odkazy z ní. Totéž provádí pro stránky odkazované z úvodky a tak pořád dokola, dokud existují další stránky. Sleduje titulek, popis stránky, dobu stažení, počet odkazů na stránku a ze stránky, HTTP stavový kód a mnoho dalších informací. Také ukazuje odkazy na neexistující stránky. Získáte tak kompletní obraz vašeho webu se všemi podstatnými daty pro analýzu.

Data z Xenu jsou exportovatelná do CSV, můžeme je tedy třídit a filtrovat v Excelu nebo Calcu z Open Office. 

Xenu je napsán pro Windows (.exe). Bez problémů běží pod emulatorem Wine na Linuxech, a měl by fungovat i pod emulátorem na Macu.

Xenu - průchod webem a analýza dat

Jazykové mutace webu

Pokud  vytváříte novou jazykovou verzi webu, je v zásadě několik typických možností, na jakou adresu ji posadit. Kdybych vytvářel německou verzi tohoto webu, rozhodoval bych se mezi

  • tomas-dvorak.de
  • de.tomas-dvorak.cz
  • tomas-dvorak.cz/de

Všechny dávají smysl a jsou běžně používané pro takové účely. Ale jen tomas-dvorak.cz/de využije to, co původní doména tomas-dvorak.cz buduje už roky. Zpětné odkazy, ranky, síla mateřské domény dovede jazykovou mutaci popohnat kupředu.

 

SEO texty

Byl jsem zvědav, zda se školení dotkne i často zmiňovaných a dle mého nesmyslných optimalizací webu ku prospěchu SEO. Napadají mě třeba tyto záležitosti kolem klíčových slov:

  • Co nejvíc klíčových slov v URL
  • Důsledná struktura nadpisů od h1 do h6, vždy naplněna těmi správnými výrazy pro vyhledavače
  • Ideální husota klíčového slova ve stránce

A lektor potvrzoval, v co jsem doufal. Dělejme stránky pro lidi a ne pro vyhledavače. URL ať je hezká a jednoduchá na zapamatování, nikoliv SEO optimalizovaná. Nadpisy používejte tak, aby vyznačovaly logický tok textu. A běda vám, pokud text prošpikujete klíčovými slovy tak, že se nedá vůbec číst. Doporučuji pěkný článek o SEO textech.

Strukturovaná data

Strukturovaná data, mikroformáty, rich snippets. Způsob, jak trochu vylepšit výpis svého webu na vyhledávací stránce googlu, pomoct robotovi pochopit, co na stránce vidí. Mikroformáty u nás používají třeba online kuchařky. Výpis výsledků hledání pak může vypadat třeba takhle:

Mikrodata v podobě receptu

Google podporuje strukturované úryvky pro tyto typy dat: recenze, lidé, produkty, firmy a organizace, recepty, události, hudba. Bližší popis je dostupný v nápovědě pro webmastery, testovat můžete v nástroji na testování strukturovaných dat

Pro svůj web jsem nedávno implementoval Google Authorship. Jde o propojení profilu na Google plus s mým blogem. Cílem je, aby se u nalezených stránek z mého webu zobrazila fotka, jméno autora a odkaz na profil, případně další články. Takhle pak vypadá záznam v hledání:

Google authorship

Pokud budete implementovat některé mikroformáty, vždy myslete na to, že to děláte pro lidi. Jde o to nalákat člověka ke kliknutí na odkaz v hledání, nejde o optimalizaci pro vyhledače.

Ke školení a lektorovi

Na školení jsem jel především proto, abych si ověřil, že mi neuniká nic důležitého. Že nedělám nějakou zásadní chybu a neradím lidem nesmysly. 

To se mi v zásadě potvrdilo. Lektor Pavel Ungr měl k optimalizacím postoj, který mě mile překvapil. Dělat věci jednoduše, kvalitně a hlavně pro uživatele a ne pro roboty. V tom duchu se neslo celé školení. Dělat web srozumitelný, snadno průchozí a logicky strukturovaný. Žádná magie a šamanské tipy. Na můj vkus by mohlo být školení víc technické a nezabývat se úplnými základy. Přece jen, co je robots.txt a sitemapa vím už řadu let. 

Pokud s webdesignem začínáte a pojmy z mého článku vám moc neříkají, školení si nenechte ujít. Jestli jste ale ostřílený webař a znáte vše, o čem jsem se tu zmínil, školení vám pravděpodobně nepřinese nové zásadní znalosti. Můžete si ale udělat celkový obraz o oblasti, zeptat se na své problémy a ověřit si, že vám neuteklo něco podstatného.

Tip na závěr: sledujte twitter účet Pavla Ungra, denně publikuje tipy, odkazy na články a nástroje z oblasti SEO a webů. 

Díky za fajn školení.