„Keresőoptimalizálás” kategória archívum
2017.05.08.

Képregényből vett betűtípust használna az oldalán, de tart a hátrányos besorolástól? Nos, nem kell!

Mindenki látott már szövegszerkesztőt, mindenki ismeri azokat a fontokat, melyek viccesek, lazák, nem teljesen komolyak. Éppen ezek miatt merülhet fel a kérdés, hogy mi van akkor, ha valaki ilyet szerepeltet az oldalán: vajon a Google keresőoptimalizálási szempontból hátrányban részesíti-e azt a honlapot, amelyik így jár el?

Mint nagyon sok mindenre, úgy erre is John Mueller, a keresőóriás szóvivője adta meg a választ, amikor erről kérdezték. Elmondása szerint a Google egyáltalán nem figyel arra, hogy ki milyen betűtípust használ az oldalán, mivel ha olvasható a tartalom, akkor SEO (Search Engine Optimalization) szempontjából irreleváns az, hogy a szöveg Times New Romannel vagy éppen Comic Sans-szel lett írva. A Google csak azt nézi, hogy szerepel-e szöveg képen; mivel ilyenkor az olvasás nehézségekbe ütközik/ütközhet, az ilyet semmiképpen sem használják rangosorolásra.

 

Persze azért mégsem teljesen mindegy, hogy milyen típust szerepeltetünk az oldalunkon! Bár a Google-nél emiatt nem éri hátrány az embert, ám ha egy termékek, szolgáltatások értékesítését végző honlap esetében a betűtípus nem harmonizál a tartalommal, akkor az okozhat kellemetlenségeket! Kétségtelen ugyanis, hogy egy honlap megítélésében ma szerepet játszik az is, hogy a vizuális megjelenés mennyire van rendben; régen vége már azoknak az időknek, amikor egy site-nál csak a tartalom számított.

 

Szóval ha szeretnénk, hogy az oldalunkat komolyan vegyék, akkor a designnal kapcsolatos döntésünknél a megfelelő betűtípusra is ki kell térni - még akkor is, ha a SEO esetében ebből nem is származik közvetlen haszon!


Beküldve a(z) Keresőoptimalizálás kategóriába | Szólj hozzá!

2017.05.05.

Sebesség mindenek felett? Lassú oldalbetöltődési idő.

Hogy bizonyos oldalak betöltési ideje lassú, az a mai világban, amikor a netező társadalom hozzászokott már a villámgyorsan hozzáférhető tartalomhoz, egészen egyszerűen nem elfogadható; ha belegondolunk, hogy mi mennyire nem toleráljuk azt, hogy normális kapcsolat megléte mellett egy oldal lassan jön be, akkor máris láthatjuk, hogy mennyire lecsökkent az ingerküszöbünk ezen a téren.

A SEO (Search Engine Optimalization, azaz keresőoptimalizálás) terén igen lényeges tényező egy oldal betöltődési sebessége, az, hogy milyen gyorsan jön az be a netezőnek, hiszen rangsorolási faktorról van szó. No de mi számít gyorsnak és mi lassúnak a keresőóriás szemében, és mindennek mekkora a gyakorlati jelentősége? Lássuk!

Viszonylag régre nyúlik vissza a sebesség rangsorolási faktorrá emelése: 2010-ben jelentette be a Google, hogy immáron a gyorsaság is számít az egyes oldalak rangsorolásában. Mivel nagyon kevés olyan tényező van, amire a Google ki szokta mondani, hogy ez márpedig explicite számít, így a sebességet onnantól kezdve mindenki elkezdte nagyon komolyan venni. De van-e ok véresen komolyan venni a Google sebességre történő megjegyzését?

Manapság úgy tűnik, mégsem nem kell annyira komolyan venni mindezt. John Mueller, a Google szóvivője szerint ahol az egyes oldalak nem töltenek be elfogadható sebességgel, ott "van egy kis rangsorolási tényező a sebességre vonatkozóan". Másszóval: ha egy oldal gyors, akkor az nem kap pozitív elbírálást (valószínűleg azért, mert ezt a lécet ma már minden komolyan veendő oldal megugorja), ám ahol a site lassan töltődik csak be, ott van büntetés. Az igazsághoz tartozik, hogy lassú weboldalból (szerencsére) már egyre kevesebb található a neten, hiszen ma már mindenki olyan infrastruktúrát tesz a honlapja alá, amilyennel nem kell emiatt aggódni.

Egy dolog azonban még így is megválaszolatlan maradt: hogy pontosan mi is számít lassúnak a Google szemében. A szóvivő szerint válasza alapján csak az extrém lassú oldalak esetében jelentkezik büntetés, így ha egy oldal fél perc alatt tölt be teljesen, ott nem lesz retorzió - hiába érezni ma már azt is lassúscskának. Összegezve: a Google jelenleg csak a nagyon lassú oldalakat bünteti. Még.

 

Az érem másik oldala ugyanis az, hogy a mobil évről évre fontosabb lesz; s ha valahol, akkor a mobilnál nagyon nem mindegy, hogy mennyit kell várni arra, hogy egy oldal betöltődjön. (Annyiban sokkal komplexebb ez a téma, hogy nem mindegy se a telefon általános sebessége, se az, hogy milyen adatkapcsolat áll a mobilnetező rendelkezésére!) A Google-nél az új mobil indexelés során az egyes honlapok betöltődése tehát sokkal fontosabb faktor lehet, a sebesség alapját pedig az oldalak mobil változata határozza meg.

Szóval akkor fontos a sebesség vagy sem? Érdemes inkább praktikus oldalról megközelíteni a kérdést. A gyorsaság lényeges szempont az UX (user experience) szempontjából, mivel ha a felhasználói élmény nincsen a helyén, akkor a lassú oldal elriasztja a felhasználót - ami egyáltalán nem lesz jó. Honlapot üzemeltetve vegyük hát nagyon komolyan a sebességet, hogy ne legyen kellemetlen használni a site-ot, ám ne fetisizáljuk a gyorsaságot, mert annak önmagában nem lesz semmi értelme!


Beküldve a(z) Keresőoptimalizálás kategóriába | Szólj hozzá!

2017.05.03.

A Google is a Facebook útjára lép, és tesz a félrevezető oldalak ellen

Aki nyomon követi a nagy tech-cégek "életét" (már azt, amit ebből hellyel-közzel a nyilvánosság elé tárnak), annak nem lehet teljesen új az a helyzet, amibe a Facebook és a Google (nincs rá jobb szó) az elmúlt időszakban belenavigálta magát. Mind a két tech-cégre igaz az ugyanis, hogy az algoritmusaik adott népszerű oldalakat előnyben részesítenek a többivel szemben. Csak a Google-t nézve mindez eddig is ismert volt azok előtt, akik tudják, mi fán terem az a keresőoptimalizálás (SEO, azaz Search Engine Optimalization), hiszen pont azt használja ki a SEO, hogy a Google nem egyenlő mércével méri az oldalakat. Ennek az egyenlőtlenségnek volt köszönhető a legutóbbi amerikai elnökválasztáson például, hogy mind a keresőóriás találatai között, mind a közösségi oldalon igen nagyot mentek azok az oldalak, melyek minimum kétes híreket tettek közzé a kampány alatt. Ezek az úgynevezett "clickbait"-oldalak nyilvánvalóan a kattintásokra mennek rá, az ebből fakadó hirdetési bevételekre, s nem arra, hogy releváns tartalmat tegyenek le az asztalra, mely kimeríti a felelősségteljes újságírás összes kritériumát. Addig nincs is ezzel baj, ameddig olyan cikkekkel húzzák be az embereket, amely azt állítja, hogy még soha nem látott például ilyen édes macskát kajáért kuncsorogni; a probléma az agresszív, a félrevezető tartalommal van. Nos, ezt elégelte meg mára mind a Facebook, mind a Google, s lépett arra az útra, ahol az olyan tartalmak, melyek nem megfelelőek, negligálásra kerülnek - immáron humán munkaerő bevonásával. A Google-nél ez több, mint tízezer értékelőt jelent az egész világon.

 

A Google-nél maradva: aki keresőoptimalizálásban utazik, az alapvetően nem valószínű, hogy érintett lesz ebben, hiszen ha veszünk egy bármilyen termékkel vagy éppen szolgáltatással foglalkozó weboldalt, akkor ott kicsi a valószínűsége annak, hogy a feltüntetett tartalommal nem hozná azt a minimális elvárást, amit a keresőcég ilyenkor elvár. Létezik a Google esetében egy olyan útmutató, mely azoknak az embereknek íródott, akik értékelik a különféle weboldalakat, akik bele tudnak nyúlni a találati lista alakulásába. Az ún. "Search Quality Evaluator"-nek az a feladata, hogy ha mondjuk rákeres arra, hogy egy bizonyos telefont szeretne vásárolni, akkor a feldobott oldalak közül kiszűrje azokat a honlapokat, melyek például félrevezetőek, nem megbízhatóak. SEO-szemszögből azért fontos ez a dokumentum, mert remekül kiolvasható belőle, hogy a Google számára mi számít értéknek egy oldal esetében, s mi nem. Mivel ilyen doksi minden évben új íródik, így nyilvánvalóan nem ugyanazok a lényeges szempontok szerepelnek benne évről évre, hiszen az irányelvek egy része hangsúlyeltolódásokon megy át. Az idei évben annyit változtatott a Google, hogy az értékelők immáron jelezhetik, ha olyan tartalomra bukkannak, mely agresszív, lehangoló, pontatlan és gyűlölködő. (Egy politikai cikk, mely tele van csúsztatásokkal, s közben gyűlölködő is, máris kimeríti a fenti kategóriát.)

Jogos a kérdés: miért lehet mindez lényeges azoknak, akik szeretnék a keresőoptimalizálással megnövelni weboldaluk ismertségét? Nos, azért, mert bár a Google felmérése alapján azoknak a honlapoknak a száma, melyek beleesnek a szórásba, csak  0.1%-a az összes weboldalnak, mégis nagyon fontos dologról van szó! A Google algoritmusai elég jól dolgoznak, ám mivel nem tökéletesek, így szükség van arra, hogy emberek is közreműködjenek a kritikus tartalmak felismerésének munkájában.

Lényeges elem, hogy egyesek eleve az ilyen tartalmakat keresik, így a Google nem szeretné elrejteni ezeket az oldalakat, hiszen azok ugyanúgy részét képezik az internetnek, mint bármely más site. A Google azonban azt már igenis szabályozná, hogy az általános keresések során a kifogásolt honlapok ne jöjjenek fel találatként.

Összegzésként: ha gyűlöletre uszító egy oldal, ha faji alapon támadó egy oldal, ha explicit, durva képi tartalmat megjelenítő egy oldal, netán másoknak kárt okozó, akkor mostantól bizony nem kerül elő általános kereséskor. És így is van ez jól.


Beküldve a(z) Keresőoptimalizálás kategóriába | Szólj hozzá!

2017.04.20.

Új Fred Google algoritmus.

 Ismeri Fredet, aki felborzolta a kedélyeket a SEO-világában? Nem, nem egy valódi személyről van szó, hanem a Google új algoritmusfrissítéséről!

 

Egy hónappal ezelőtt, március hetedike és kilencedike között hajtotta végre a Google új algoritmusfrissítését.; ez a nem hivatalos keresztelőn a Fred nevet kapta. No de mit tud Fred, és miért volt szükség rá?

Kezdjük azzal, hogy a Google először hivatalosan nem is kommunikálta azt, hogy frissítette volna algoritmusát! A változás tényét azonban könnyen ki lehetett következtetni, hiszen a szakértők és az algoritmusfigyelő eszközök is jelezték a nagyon erős változást. Az első hírek még arról szóltak, hogy a változás a linkekkel és azok minőségével van összefüggésben; aki otthonosan mozog a keresőoptimalizálás (Search Engine Optimalization; SEO) világában, az tudja, hogy a linkek milyen fontos szerepet játszanak az egyes oldalak rangsorolásában. A változásokat Magyarországon is lehetett érzékelni. A Google szerint nem történt semmi különös, hiszen mindig változtatnak az algoritmuson, így most sem történt semmi kirívó. Aztán pár nappal később már úgy állt a helyzet, hogy lehet, hogy mégsem link alapú volt az az algoritmusfrissítés.

 

Amikor megtörtént a váltás, akkor az összes algoritmusfigyelő "kilengett", a váltás hordereje ugyanis akkora volt. A szakértők akkor még úgy látták, hogy a linkek minőségét vette alapul a változás - más jellegű módosítások mellett. Ennek a meglátásnak az volt az alapja, hogy elég komoly esés történt azoknál az oldalaknál, amelyek nem rendelkeztek erős linkekkel. Napokkal késő aztán beestek az első elemzések, amelyek már arról szóltak, hogy az új algoritmus, "Fred", elsősorban a reklámokkal teletömött, AdSense-fókuszú és/vagy gyenge beltartalommal operáló weboldalakat érintette. Szóval a Google új algoritmusa látszólag azokat a weboldalakat büntette, amelyek beleestek a fenti mintázatba. Ahogy az lenni szokott, rögvest érkeztek aztán olyan kommentek is, amelyek arról szóltak, hogy reklámokkal nem rendelkező, tartalomgazdag oldalak is szenvedtek el visszaesést. Ekkor már látszott, hogy itt bonyolultabb dologról van szó.

 

Egy szó, mint száz: a Google frissítése elég összetettre sikeredett, aminek szinte mindenki, minden oldal megitta a levét. Ugyanis volt olyan honlap, mely 10-15 éve működő, egyedi tartalommal üzemelő, kizárólag természetes linkprofilú weboldalként szenvedett el masszív hátrasorolást!

 

Mi történt?

 

Több lehetséges forgatókönyv is meghúzódik a Fred mögött. Valószínű, hogy a Google párhuzamosan indított több frissítést, ezért keveredtek a szignálok. Aztán az is valószínű, hogy a Fred a felhasználói viselkedést is figyeli, azt is nézi, amikor rangsorol. De az is benne van a pakliban, hogy a Google valami teljesen új dologgal kísérletezik, valamiféle mesterséges intelligencián alapuló algoritmussal, mely teljesen új logika mentén rangsorolja az oldalakat.

 

A Fred teljesen felbolygatta a SEO-piacot: olyan tartalomban gazdag, természetes linkprofillal működő oldalak szenvedtek el károkat, amelyek korábban az élmezőnyben voltak. Amikor egy oldalra több, mint 10 ezer link hivatkozik, amikor a honlapnak havi 10 millió feletti a látogatottsága, és azt az oldal mégis bünteti a Google, nos, az felettébb érdekes tud lenni. Utóbbi esetben természetesen fel sem merül a gondolat, hogy itt a linkekkel lenne valami gond. Magyarországon a PR-cikkes oldalakkal épített linképített honlapoknál nem keletkeztek komoly károk, a Fred a körükben nem rendezett véres aratást. Mindezek alapján az látszik, hogy a Fred, ez az új frissítés, valamiképpen a gépi tanuláson alapuló mesterséges intelligenciával van összefüggésben, mely nem egy-egy tényező alapján rangsorol, hanem sokkal összetettebb módon. A Fred így egyfajta büntető algoritmusnak is tekinthető, mely képes volt akár egyes oldalak forgalmát eltüntetni, lefelezni. Persze ez eddig is így működött: ami szembemegy a Google irányelveivel, azt a keresőóriás szankcionálja.

 

Zárszóként lássuk, hogy mire érdemes odafigyelni mostantól! Gyenge minőségű webáruházzal ne próbálkozzunk! Ha nagy a másolt tartalom aránya, ha a termékoldalak nagyon hasonlóak, ha sok hasonló jellegű termék van, eltérő URL-eken, minimális tartalommal, akkor ott büntetni fog a Google. Ugyanakkor az egyedi blog, a minőségi termékoldal megvédi az érintett honlapot a hátrasorolástól. Az AdSense célú weboldalak is érintettek, főleg azok, amelyek egy jól körülhatárolt téma köré csoportosulnak, ahol a cél egyértelműen az, hogy az oldal minél több organikus látogatót szerezzen magának - s ezzel minél több AdSense-hirdetési bevételre tegyen szert. Itt nem a gyenge minőség miatt büntet a Google, hanem amiatt, hogy ezeknek a honlapoknak a kialakítása egyértelműen olyan, hogy azok inkább a SEO céljait szolgálják, nem pedig a netezőkét. Aztán ott vannak még a "doorway pages"-oldalak, melyeket magyarul belépő oldalaknak lehet fordítani; ezek plusz forgalmat jelentenek bizonyos aloldalaknak. Ha ilyenből sok van, minimális eltérésekkel (mondjuk ugyanazt a szolgáltatást kínálja az oldal, csak más-más földrajzi területen, gyakorlatilag ugyanazzal a leírással), akkor azokat is bünteti a Google. Itt az jelenthet megoldást, ha az adott oldalon nem csak ilyen tartalom található, ráadásul kellően megvariálva; ekkor a honlap át tud csúszni a Google rostáján. Az úgynevezett túllinkelt oldalak érdekes módon nem kaptak olyan nagy visszasorolást, ám ettől eltekintve ajánlott óvakodni attól, ha egy-egy aloldal arányaiban nagyon sok, erősen kulcsszavas linkkel rendelkezzen! Azok a kulcsszavas menüpontok sem túl nyerőek, ahol túl sok a kulcsszó, ahol a menüpontok nem természetesek; ha az ilyen menü a keresőmotorok miatt olyan, amilyen, akkor azt szintén bünteti a Google.

 

Összességében: a Fred alaposan felkavarta a SEO-világát. Egy-két szempontból már most másképpen kell a SEO felé közelíteni, ám nem csodálkoznánk azon, ha a most formálódó szép új világ a későbbiekben még tovább árnyalódna.


Beküldve a(z) Keresőoptimalizálás kategóriába | Szólj hozzá!

2017.02.03.

Ha egyetlen kulcsszóra optimalizálna, azt inkább ne tegye!

Ha megkérdeznénk egy ügyfelet (akinek persze nincsen túl nagy rálátása a SEO-ra, azaz a keresőoptimalizálásra), hogy elégedett lenne-e azzal, ha egy kulcsszóra első helyre kerülne az oldala, akkor mindenki azt mondaná, hogy naná, hogy igen! Most elmagyarázzuk, hogy ez miért nem jó megoldás!

Amikor az ember megkeresnek egy SEO-szakértőt azzal, hogy el lehetne-e azt intézni, hogy a megbízó cége, a vállalkozása egy kulcsszóra első tudjon lenni a Google találati oldalán, akkor az egy teljesen szokványos kérdés; sőt a kérdések zöme pontosan erre irányul: hogy egy kulcsszóra el lehetne-e vinni az első helyet.  Pedig ezzel az elsődleges céllal akár véget is vethetünk egy oldal sikerességének!

 

 

Egyetlen kulcsszó ugyanis semmit nem fog érni. Legalábbis nagyon nagyon keveset. Hogy miért nem? Nos, azért, mert hosszú távon a long tail számít! A Wikipédiát idézve: a long tail „(…) a keresőoptimizálásnak az az ága, amelyik az összetett, több szóból álló kulcsszavakkal foglalkozik.” Magyarán: nem éri meg csak egyetlen kulcsszóval dolgozni. A fő kulcsszó nem lesz fontos, ha az oldal jól van felépítve; ekkor az a teljes forgalomnak csak egy nagyon kis részét fogja adni.

És ott van még az AdWords is, amiről szintén nem szabad megfeledkezni! A fontos kulcsszavak esetében ugyanis biztos, hogy számolni kell még AdWords hirdetésekkel is az organikus találatok előtt. (Amit a Google ad, azt a Google el is veszi…) Így pedig eleve kevesebben fognak eltalálni még arra az oldalra is, mely elöl található.

Szóval… Ha a fő kulcsszó csak a teljes forgalom egy elenyésző hányadát adja csak, akkor megéri-e arra felfűzni az egész honlapot, megéri-e alárendelni annak mindent? Nyilván nem. A fő kulcsszavakra iszonyatosan nagy a verseny, így ott nem éri meg labdába rúgni. Ráadásul a kiemelt kulcsszavak konverziója rosszabb, mint a long tail kulcsszavaké, mert utóbbit főleg azok követik el (azok használják őket a neten), akik tényleg komolyan keresnek valamit – nem ritkán már vásárlási szándékkal.

A megoldás tehát a long tail kulcsszavak megtalálásában rejlik! Mivel az organikus kulcsszavak csak a forgalom nagyon kis részét hozzák, érdemesebb inkább elmozdulni az összetett kulcsszavak felé!


Beküldve a(z) Keresőoptimalizálás kategóriába | Szólj hozzá!

« Régebbi bejegyzések
 Gyimesi András+ © 2008 H-Well Kft. Minden jog fenntartva.