Pokročilé filtrování indexovaných dat

Podceňování filtrování indexovaných dat je častým problém, se kterým se setkávají malé i velké společnosti a který může výrazně ztížit naleznutí problémů, které způsobují horší hodnocení ve vyhledávání. Dobrá analýza a správné filtrování nejen indexovaných, ale veškerých dat by mělo být hlavní prioritou a pomůže správně lokalizovat problémy, které přímo souvisí s umístěním webu ve vyhledávači.
 
Nástrojů, které k tomu můžeme použít je hned několik a my si zde zmíníme dva, které patří mezi ty nejlepší a nabízí možnost jednoduchého, přehledného a efektivního filtrování indexovaných dat.


 
Prvním nástrojem, který lze pro filtrování indexovaných dat využít je DeepCrawl, který nabízí jednoduché ovládání, mnoho funkcí a přesné výsledky. Druhým je pak Screaming Frog, který lze využít pro podrobnější analýzu a v případech, kdy je potřeba nástroj s detailnějším zaměřením.
 
Představme si několik způsobů, jak tyto nástroje použít a využít jejich potenciál pro SEO výsledky.
 
DeepCrawl
 
Indexované webové stránky
Začněme na úplném začátku. Potíže s kvalitou obsahu jsou problémem hned na několika úrovních a neměly by se na indexovaných stránkách objevovat v jakékoli podobě. V opačném případě mohou mít tyto potíže fatální následky a ovlivní přímo hodnocení webové stránky pro Google i jiné vyhledávače.
 
Pro začátek je tak dobré, filtrovat webové stránky podle toho, zda jsou indexované nebo nikoli. To samozřejmě neznamená, že je v pořádku, odsunout neindexované webové stránky na druhou kolej a jejich problémy se nezabývat. Jen je zkrátka dobré, zaměřit se nejdříve na ty s vyšší prioritou i dopadem.
 
Indexované webové stránky jsou navíc ty, které navštěvují uživatelé, a nikdy není dobré, když se uživatel setká s jakýmkoli problémem.
 
Málo obsahu v kombinaci s pravidelnými výrazy
Pro ty, kteří mají rádi regex (pravidelné výrazy) máme dobrou zprávu. DeepCrawl nabízí možnost filtrace i podle tohoto atributu, což usnadní práci a ušetří spoustu času. Možností, jak zkombinovat vyhledávání je hned několik a tím se otevírají dveře k přesné a rychlé analýze celého webu.
 
Zkombinovat můžete nejen indexované webové stránky a stránky, které obsahují pravidelné výrazy, ale také indexované webové stránky a adresy, které končí dvěma nebo třemi znaky. Další možností je vyhledávání podle počtu slov, kde lze zadat limit, který požadujeme, a nástroj poskytne jen webové stránky, které obsahují například počet slov pod sto. Jednoduše se tak dopátráme přesně zvolených částí webu, ale i adres, které mohou ovlivnit hodnocení.
 
Všeobecné problémy: Hlavička webu
Jedním z mnoha parametrů, které lze využít je i filtrování všeobecných tagů, které Googlu analyzuje a podle kterých přiřazuje webu hodnocení. Tyto tagy jsou častým problémem mnoha webových stránek a mnohdy jsou všechny tagy ignorovány kvůli několika málo, které jsou špatně vytvořené. DeepCrawl si s tímto problémem dokáže poradit a nabídne Vám všechny tagy, které se na vaší webové stránce nachází.
 
Identifikace zdroje chybové hlášky
Jakékoli chyby objevující se na webu snižují jak hodnocení, tak i spokojenost uživatele. I s tímto dokáže DeepCrawl pomoci a to zaměřením chyb (například 404s, 500s a jiné) a jejich příčin. Detailně tak můžete vystopovat důvody zobrazených chyb a vypořádat se s nimi v měřítku celého webu, ne jen jednotlivých adres.
 
Kontrola AMP adres: rel odkazy
Webové stránky, které využívají AMP, mohou pomocí nástroje DeepCrawl důkladně zkontrolovat všechny rel odkazy a jejich správné použití. Pomocí filtrace „amphtml“ jednoduše dohledáte všechny rel odkazy spojené s AMP a zkontrolujete jejich parametry.
 
Export analýzy do CSV
Data z provedené analýzy se hodí nejen v krátkodobém, ale i dlouhodobém měřítku a vyplatí se, exportovat si je do souboru pro další použití. DeepCrawl tuto možnost nabízí a to v podobě CSV souboru, který si stáhnete přímo v nástroji. Výsledky analýzy tak můžete procházet například v Excelu, případně je sdílet se svými kolegy nebo nadřízenými.
 
Screaming Frog
V případě Screaming Frog nejsou možnosti filtrace tak rozmanité. I tak ale tento nástroj nabízí zajímavé možnosti, díky kterým se vyplatí ho používat. Příkladem může být vyhledávání pomocí regex a to pro specifické adresy a znaky.
 
Jednou z mnoha výhod Screaming Frog je i to, že po zvolení adresy nebo skupiny můžeme jednoduše procházet i samostatné URL adresy a v nich filtrovat pomocí dostupných nástrojů.
 
Začít tak můžete například s všeobecnými tagy a poté přejít na ty, které využívají „noindex“.
 
Bohužel, Screaming Frog nenabízí jednoduchý export dat jako tomu je u DeepCrawl. Výsledky je ale možné kopírovat a vložit je například do Excelu. Kdo ví, možná se možnost exportu dat časem v nástroji objeví.
 
Mocný nástroj
Filtrovací nástroje jsou zkrátka mocným pomocníkem, který pomůže snadno lokalizovat problematické adresy a tím i snadno vyřešit problémy, které se na nich nachází. Při správném využití mohou ušetřit jak čas, tak i peníze a vyřešit i takové problémy, které by bez nich zabraly i týdny pátrání. V případě webových stránek s tisíci, desetitisíci i miliony adres jsou pak nezbytnou součástí analýzy a jejich pravidelné využívání přináší skvělé výsledky.