Keresőrobotok, sütik
Van egy erotikus weboldalam. Minden oldalon működik egy PHP szkript ami ellenőrzi a cookie-kat. Ha van cookie, akkor nem történik semmi. Ha nincs, akkor a kezdőoldalra dobja a látogatót ahol egy figyelmeztető szöveg után a belépésre kattintva beléphet az oldalra. Ekkor megkapja a sütijét is. Ez eddig rendben van, de mi a helyzet a keresőrobotokkal? Ha nincs cookie, akkor magyarán a keresőrobot csak a kezdőlapot indexeli be ahol a figyelmeztető szöveg van – mert mindig oda dobja a fent említett PHP szkript. Tehát ez így nem jó megoldás SEO szempontjából ha jól értem. Használjak session-t? Ez a megoldás csak azért nem tetszik mert egy session az oldal kilépésekor törlődik tehát ha egy nap 100-szor indítja újra a böngészőjét a látogató, akkor 100-szor kell a belépésre kattintania. Használjak a cookie-hoz JavaScript-et mert azt figyelmen kívül hagyja a keresőrobot? Hogyan oldanátok meg ti ezt a problémát, hogy legális is maradjon a honlap, de a keresők is szeressék?
■
Ez a megoldás csak azért nem
Ez nem igaz. A session addig él, amíg a session cookie. Ha a session cookie 365 napig él, akkor addig él a session is (természetesen a szerveren megfelelő session beállítások mellett, ugyanis ezen is van gargabe collector).
Ez a megoldás csak azért nem
Minden sütit le lehet
Minden sütit le lehet
De
Ez így helyes
Usability szempontból pedig ha egy kereső egy oldalt meglátogat, az később a keresőben szerepel (gondolom ez a cél). Valaki megtalálja, rákattint, majd megkapja a főoldalt, hogy regisztráljon, esetleg fizessen és jelentkezzen be a tartalom megtekintéséhez. Szvsz a látogatók nagy része inkább elnavigál onnan kvázi örökre.
Javaslat:
Válaszd külön a publikus és a zárt oldalakat. A publikus oldalakon lehet session / cookie, de nem feltétel. A keresőket rá lehet venni arra, hogy ezeket bejárja, másokat pedig ne. Pl. generálsz egy sitemap-et, ezt a robotok tudják használni és azokat az oldalakat térképezik fel. A többi oldalról meg kitiltod.
Ha jól értem, nem arról szól
De a kereső robotokat szeretné beengedni, hogy ha valaki az adott témában keres, rátaláljon a lapjára.
Ha jól értem, nem arról szól
Google FCF
Más - szintén nem tökéletes - megoldás lehet a User-Agent szűrés. Pl a google két User-Agentet használ: GoogleBot és GoogleBot-Mobile. Vagyis ha nem ilyen kérés érkezik és nincs süti => redirekt, egyébként ki lehet renderelni az oldalt. Hátránya, hogy az User-Agent stringet a böngészőben át lehet írni és egy Internet tagozatos óvodás középső csoportban már ezt megtanulja.
User-Agent
Segítség sitemap generálásához
Ezt (ezeket) a robots.txt-ben tudod megadni, akár többet is valahogy így
Sitemap: http://valami.hu/publikus_tagok.xml
Sitemap: http://valami.hu/egyeb_oldalak.xml
Az xml felépítéséről itt találsz infót.
Köszönöm.
Ez így helyes
Hányan?
Hányan?
Költői :)