„Keresőrobotok” kategória archívum
2017.02.21.

Hallott már a Google feltérképezési büdzséről? Nos, ha nem, éppen itt az ideje!

Képzeljen el egy óriási webáruházat, aminek nagyon sok százezer, netán akár még millió feletti URL-je van; el lehet képzelni, hogy a Google feltérképezési sebessége ebben az esetben bizony nem lesz éppen a leggyorsabb. Ráadásul egy webáruház esetében folyamatos a fluktuáció, azaz folyamat esnek be újabb termékek. Vajon a Google megtalálja mindegyik erre vonatkozó új URL-t? Sőt (és ez egy igen fontos kérdés): ha igen, akkor még az előtt, hogy a konkurens oldalak ugyanolyan termékeivel tenné meg ezt a keresőcég? Nos, ezen a ponton érdemes tisztázni azt, hogy mi is az a feltérképezési büdzsé!

A Google, amikor látta, hogy ez a kifejezés milyen felkapott lett, mert egyre több helyen kezdtek el róla SEO-körökben (Search Engine Optimalization, azaz keresőoptimalizálási körökben) beszélni, külön cikkben magyarázta el, hogy miről is van szó feltérképezi büdzsé alatt. A keresőóriás már első körben igyekszik leszögezni, hogy nem olyan dolog ez, amit miatt a legtöbb weboldal tulajdonosnak izgulnia kellene. Amennyiben ugyanis egy adott oldalnak „csak” néhány ezer URL-je van, akkor a Google azt könnyedén fel tudja térképezni; ha pedig az új oldalakat a kaliforniai cég pár nap alatt feltérképezi, akkor szintén nincs miért aggodalmaskodni. Ha azonban valaki nagy oldalt menedzsel, akkor ott nyilvánvalóan lényeges lesz azt meghatározni, hogy a Google mit priorizáljon, mit indexeljen, amikor feltérképez.

 

A Googlebot, aki ezt a munkát végzi, a folyamat során úgy kéri le az adott weboldal URL-jeit, hogy azzal ne terhelje le a honlap mögött található szervert, mert azzal romlana a felhasználói élmény: lassulna az oldal stb. A Google esetében az ún. Crawl Rate Limit (ami egy határérték) határozza meg, hogy milyen sűrűn kérhetőek le egy oldal URL-jei. Magyarán ez szabályozza a lekérések számát, a lekérések között eltelt időt. Ez a határérték persze képes változni: ha az oldal gyorsan válaszol, akkor emelkedhet, ha lassan, akkor csökkenhet; emellett a Search Consolban lehetőség van a Crawl Rate Limitet beállítani is. Ez lenne tehát a feltérképezési határérték. Most nézzük a feltérképezési igényt!

 

A feltérképezési igényt, azaz a Crawl Demandot az határozza meg, hogy a népszerű URL-ek sűrűbben kerülnek feltérképezésre, mert azok mindig a lehető legfrissebbek kell lenniük, de számít az egyes URL-ek kora is, mert ilyenkor a rég nem feltérképezett URL-ek feltérképezése sürgősebbé válik a Googlebotnak.

 

És akkor most vissza a feltérképezési büdzséhez! A feltérképezési büdzsét a fent kifejtett feltérképezi határérték és a feltérképezési igény együttesen határozza meg – azt a számot, ahány URL-t a Google az adott oldalt tekintve fel tud és akar térképezni adott idő alatt.

 

Ügyelni kell arra, hogy az alacsony minőségű URL-ek rontják az indexelést és a feltérképezést! Ilyenkor a Google erőforrást pazarol olyan tartalmakra, melyek duplikáltak, melyek 404-es hibákat dobnak, s melyek akár spam-tartalommal vannak ellátva.

 

Szóval mit kell tennünk, hogy a feltérképezési büdzsénk rendben legyen? Semmiképpen sem árt, ha az oldalunk gyorsan lekérhető, azaz megfelelő kiszolgálón van, mert akkor a feltérképezés is gyorsabban tud megtörténni. (Az alternatív URL-ek szintén fogyasztják a feltérképezési keretet!)

 

Ami SEO szempontjából fontos, az az, hogy a feltérképezés, bár szükséges ahhoz, hogy a Google találati listáján ott tudjon lenni egy oldal, a rangsorolásnál már nem fog számítani! Ugyanakkor a rossz feltérképezés egyértelműen a gyenge oldalminőség jele, így nem lehet teljesen figyelmen kívül hagyni, ha ezzel szembesülünk.


Beküldve a(z) Keresőrobotok kategóriába | Szólj hozzá!

2009.03.13.

Keresőrobot statisztika

A sokak által kedvelt és használt Google Analytics kiváló webstatisztikát nyújt, ráadásul ingyenes, igazán nem szeretnék senkit lebeszélni a használatáról. Van viszont egy olyan vonatkozás, amiben nem lesz a segítségünkre, ez pedig a robot látogatások statisztikája, ugyanis a Google Analytics statisztika csak a human látogatókra vonatkozik. Igaz, a Google Webmester Eszközök megmutatja a feltérképezés gyakoriságát, de nem árulja el, hogy mikor pontosan merre járt az oldalon a Googlebot. Pedig a weboldalak optimalizálása során igen jó támpontot jelent, ha tudjuk mely URL -eket milyen gyakorisággal látogat a Googlebot és a többi keresőrobot. Létezik ingyenes eszköz amit erre a célra igénybe vehetünk. Akik szeretnének további információkat a robot látogatásokról, nekik ajánlom a CrawlTrack statisztika feltelepítését, jelenleg magam is ezt használom. Nagyjából 10-20 percet vesz igénybe a telepítés, viszont az elvesztegetett időért cserébe a CrawlTrack rengeteg plusz információval kárpótol. Egy telepítéssel akár több weboldal statisztikája is követhető, a statisztika lehet publikus, privát, vagy akár felhasználói fiókokat is lehet létrehozni az egyes weboldalak statisztikájához. A statisztikákról email értesítőt lehet beállítani, de ami a lényeg: ragyogó statisztikát ad a keresőrobotok aktivitásáról. Frissítés: készítettem néhány képernyőképet a statisztikáról a teljesség igénye nélkül.


Beküldve a(z) Keresőrobotok kategóriába | 3 hozzászólás

 Gyimesi András+ © 2008 H-Well Kft. Minden jog fenntartva.