Co je indexace a proč je klíčová
Indexace je proces, při kterém Google prochází váš web, analyzuje obsah každé stránky a ukládá ho do své databáze — indexu. Teprve když je stránka zaindexovaná, může se zobrazit ve výsledcích vyhledávání.
Bez indexace neexistujete. Můžete mít nejkrásnější web na světě, nejlepší nabídku, dokonalý copywriting — pokud vás Google nemá v indexu, nikdo vás přes vyhledávání nenajde. To je realita, kterou mnoho firem podceňuje.
Jak Google funguje: Crawling, indexace a ranking
Celý proces má tři fáze. Pochopení každé z nich je zásadní pro úspěch vašeho webu ve vyhledávání.
1. Crawling — procházení
Googlebot (crawler) systematicky prochází internet. Sleduje odkazy z jedné stránky na druhou. Když najde novou URL, přidá ji do fronty na zpracování. Crawluje HTML, CSS, JavaScript, obrázky i videa.
Důležité: Googlebot má omezený crawl budget — množství zdrojů, které je ochoten věnovat vašemu webu. Velké a nepřehledné weby plné duplicit tento budget plýtvají. Malé, čisté weby ho využívají efektivně.
2. Indexace — uložení
Po crawlování Google analyzuje obsah stránky. Zkoumá text, nadpisy, obrázky, strukturovaná data a meta tagy. Pokud stránka splňuje kvalitativní kritéria, Google ji uloží do indexu. Pokud ne — ignoruje ji.
3. Ranking — řazení
Zaindexovaná stránka se objeví ve výsledcích vyhledávání. Ale kde? To určuje ranking — pozice ve výsledcích na základě stovek faktorů. Relevance, kvalita obsahu, rychlost, mobilní optimalizace, zpětné odkazy a desítky dalších signálů.
Google Search Console: Váš řídicí panel
Google Search Console (GSC) je bezplatný nástroj od Googlu, bez kterého se při správě indexace neobejdete. Je to přímá komunikační linka mezi vámi a Googlem — ukazuje, jak Google vidí váš web.
Co vám Search Console prozradí:
- Pokrytí indexu: Kolik stránek je zaindexovaných, kolik má chyby a kolik je vyloučených.
- Výkon ve vyhledávání: Kliknutí, zobrazení, průměrná pozice a CTR pro jednotlivé dotazy.
- Kontrola URL: Stav indexace konkrétní stránky — je zaindexovaná? Kdy byla naposledy crawlovaná?
- Sitemap: Odeslání a monitoring XML sitemapy.
- Core Web Vitals: Měření rychlosti a uživatelského zážitku.
XML Sitemap: Mapa pro Googlebot
XML sitemap je soubor, který Googlu říká: "Tady jsou všechny důležité stránky mého webu." Není to příkaz k indexaci — je to doporučení. Ale velmi silné doporučení.
Pravidla pro efektivní sitemapu:
- Pouze kanonické URL: Žádné duplicity, žádné přesměrované stránky, žádné stránky s noindex.
- Aktuální lastmod: Datum poslední úpravy musí odpovídat realitě. Googlebot si ověřuje, jestli neklamete.
- Maximálně 50 000 URL: Limit na jeden soubor. Větší weby potřebují sitemap index.
- Odeslaná v GSC: Po vytvoření sitemapu odešlete přes Search Console.
Robots.txt: Kdo kam smí
Soubor robots.txt je první věc, kterou Googlebot na vašem webu čte. Definuje pravidla — které části webu smí procházet a které ne. Je to základní nástroj pro řízení crawl budgetu.
Typické chyby v robots.txt:
- Blokování důležitých stránek:Nechtěný "Disallow" na klíčové sekce webu. Jeden špatný řádek = celá sekce neviditelná.
- Blokování CSS/JS: Google potřebuje renderovat stránku. Pokud zablokujete styly nebo skripty, nevidí web správně.
- Chybějící odkaz na sitemapu: Robots.txt by měl obsahovat cestu k vaší sitemapě.
Kanonické URL a duplicitní obsah
Duplicitní obsah je tichý zabiják indexace. Pokud má váš web stejný obsah dostupný na více URL (s www a bez, s lomítkem a bez, HTTP a HTTPS), Google neví, kterou verzi zaindexovat. Výsledek? Žádná nebude rankovat dobře.
Řešení je kanonický tag — <link rel="canonical">. Říká Googlu: "Tohle je hlavní verze této stránky." Každá stránka by měla mít kanonický tag ukazující na sebe nebo na preferovanou verzi.
Další opatření proti duplicitám:
- 301 přesměrování: Permanentní přesměrování z duplicitních URL na kanonickou verzi.
- Konzistentní interní odkazy: Vždy linkujte na stejnou verzi URL.
- Parametry URL: Řešte filtrování a řazení bez vytváření nových URL, nebo použijte kanonický tag.
Rychlost indexace: Jak ji urychlit
Nový web nebo nová stránka se nemusí zaindexovat okamžitě. Google prioritizuje důvěryhodné a často aktualizované weby. Pokud jste nový, budete čekat déle. Ale existují způsoby, jak proces urychlit.
- Požádat o indexaci v GSC:Funkce "Kontrola URL" → "Požádat o indexaci". Funguje pro jednotlivé stránky.
- Interní odkazy: Prolinkujte novou stránku z existujících, dobře indexovaných stránek.
- Zpětné odkazy: Odkaz z externího důvěryhodného webu je silný signál pro Googlebot.
- Sociální sdílení: Sdílejte nový obsah na sociálních sítích. Google to sleduje.
- Aktualizovaná sitemap: Přidejte novou URL do sitemapy a odešlete ji znovu v GSC.
Nejčastější problémy s indexací
Pokud vaše stránky nejsou v indexu, důvodů může být několik. Tady je checklist, který projděte:
- Meta tag noindex: Zkontrolujte, zda stránka neobsahuje <meta name="robots" content="noindex">. Vývojáři ho často zapomenou odstranit po přechodu z testovacího prostředí.
- Blokováno v robots.txt: Ověřte, že robots.txt neblokuje přístup ke stránce.
- Chybný kanonický tag: Kanonický tag ukazuje na jinou stránku? Google indexuje tu druhou.
- Nízká kvalita obsahu: Tenký, duplicitní nebo automaticky generovaný obsah Google přeskočí.
- Chyby serveru (5xx): Pokud server odpovídá chybou, Googlebot to po čase vzdá. Monitorujte dostupnost.
- JavaScript rendering: SPA (Single Page Application) framework může způsobit, že Googlebot nevidí obsah. Řešení: server-side rendering nebo pre-rendering.
Interní linking: Struktura, kterou Google miluje
Interní odkazy nejsou jen navigace pro uživatele. Jsou to signály pro Googlebot — říkají mu, které stránky jsou důležité a jak spolu souvisí. Dobrý interní linking zlepšuje crawlování i ranking.
Principy efektivního interního linkingu:
- Plochá architektura: Každá stránka by měla být dostupná maximálně na 3 kliknutí od homepage.
- Popisné anchor texty:"Naše služby webdesignu" je lepší než "klikněte zde".
- Kontextové odkazy: Odkazy v textu článku mají větší váhu než odkazy v patičce nebo navigaci.
- Konzistence: Neměňte URL strukturu bez přesměrování. Rozbité odkazy = ztracená hodnota.
Strukturovaná data: Bonus pro výsledky vyhledávání
Strukturovaná data (Schema.org markup) nepomáhají přímo s indexací, ale výrazně zlepšují zobrazení ve výsledcích vyhledávání. Rich snippety — hvězdičky, ceny, FAQ, breadcrumbs — zvyšují CTR o desítky procent.
Nejdůležitější typy strukturovaných dat:
- Article: Pro blogové články. Zobrazuje autora, datum, náhledový obrázek.
- LocalBusiness: Pro firmy s fyzickou adresou. Zobrazuje kontakt, hodiny, recenze.
- FAQ: Zobrazuje otázky a odpovědi přímo ve výsledcích.
- BreadcrumbList: Zobrazuje navigační cestu v snippetu.
Monitoring a údržba indexace
Indexace není jednorázový úkol. Je to průběžný proces, který vyžaduje monitoring. Google může stránky z indexu i odebrat — kvůli chybám, nízké kvalitě nebo technickým problémům.
Pravidelný audit by měl zahrnovat:
- Kontrola pokrytí indexu v GSC: Sledujte trendy — roste počet zaindexovaných stránek? Klesá?
- Audit crawlových chyb: 404 stránky, serverové chyby, přesměrovací smyčky.
- Kontrola rychlosti: Core Web Vitals v GSC. LCP, FID, CLS — tři metriky, které Google měří.
- Analýza logů serveru: Kdy Googlebot navštívil váš web? Jaké stránky crawloval? Jak často?
Závěr: Indexace je základ všeho
Než začnete řešit SEO, klíčová slova, link building nebo obsahovou strategii — ujistěte se, že Google váš web vůbec vidí. Indexace je základ. Bez ní je všechno ostatní zbytečné.
Nastavte Search Console. Vytvořte čistou sitemapu. Zkontrolujte robots.txt. Opravte kanonické tagy. Zrychlete web. A pak pravidelně monitorujte. Indexace není raketová věda — je to řemeslo, které vyžaduje pozornost k detailu a konzistenci.