Re: Nástroj na hromadné zjištění zaindexovaných a neindexovaných stránek?

From: Pavel Ungr <necodymiconer (zavinac)>
Date: Fri, 12 Jul 2013 10:41:29 +0000
Tak to je pochopitelné, ale abych našel příčinu, musím vědět které URL jsou a nejsou zaindexované a najít v tom nějaké schéma nebo vzor. Ale v takto velkém množství to dělat manuálně je velice časově náročné.


Proto to chci udělat strojově. Takže důsledky jsou poměrně jasné ty znám - minimálně u Google. ale potřebuji najít příčinu a proto potřebuji zjistit které typy URL jsou zaindexované a které ne.


Nicméně jak jsem pochopil, tak žádné konkrétní doporučení na řešení neznáte.


Pavel Ungr





Od: Tomas Kapler
Odesláno: ‎pátek‎, ‎12‎. ‎července‎ ‎2013 ‎12‎:‎35
Komu: seo (zavinac) nawebu.cz


Neřešil, ale už jsem se s tím požadavkem několikrát v minulosti setkal a
vždy proto, že dotyčné weby měly problémy s duplicitami (typicky se jednalo
o eshopy, co přebíraly zboží od někoho jiného). Takže jsem jim vysvětlil,
že je blbost zjišťovat důsledky, když s tím stejně ničeho nedosáhnou a
mnohem lepší je odstranit příčiny.

Google i takovéhle množství stránek je schopen zaindexovat rychle, ale musí
pro to mít nějaký důvod a nesmí se jednat o nové weby, ostatně je téměř
nesmysl, aby někde z ničeho nic vzniklo několik milionů stránek, co mají
smysl a přidanou hodnotu pro uživatele. Seznam je pomalejší, ale i jemu se
dá pomoci.

Kdybych to chtěl nějak řešit, tak si porovnám indexované stránky třeba z
GWT s těmi reálnými a seznam bych řešil přes site:, pakliže bych tedy neměl
detailní historii návštěv robotů na mých stránkách.


Tomáš Kapler
Received on 12. 07. 2013, 12:41 CEST

Chcete se nauit vc? Navtivte nae odborn kolen

This archive was generated by PROGNAME VERSION on DATE and TIME