ugrás a tartalomhoz

Keresőrobotok, sütik

sosdaniel · 2012. Szep. 18. (K), 00.23
Van egy erotikus weboldalam. Minden oldalon működik egy PHP szkript ami ellenőrzi a cookie-kat. Ha van cookie, akkor nem történik semmi. Ha nincs, akkor a kezdőoldalra dobja a látogatót ahol egy figyelmeztető szöveg után a belépésre kattintva beléphet az oldalra. Ekkor megkapja a sütijét is. Ez eddig rendben van, de mi a helyzet a keresőrobotokkal? Ha nincs cookie, akkor magyarán a keresőrobot csak a kezdőlapot indexeli be ahol a figyelmeztető szöveg van – mert mindig oda dobja a fent említett PHP szkript. Tehát ez így nem jó megoldás SEO szempontjából ha jól értem. Használjak session-t? Ez a megoldás csak azért nem tetszik mert egy session az oldal kilépésekor törlődik tehát ha egy nap 100-szor indítja újra a böngészőjét a látogató, akkor 100-szor kell a belépésre kattintania. Használjak a cookie-hoz JavaScript-et mert azt figyelmen kívül hagyja a keresőrobot? Hogyan oldanátok meg ti ezt a problémát, hogy legális is maradjon a honlap, de a keresők is szeressék?
 
1

Ez a megoldás csak azért nem

Poetro · 2012. Szep. 18. (K), 07.00
Ez a megoldás csak azért nem tetszik mert egy session az oldal kilépésekor törlődik tehát ha egy nap 100-szor indítja újra a böngészőjét a látogató, akkor 100-szor kell a belépésre kattintania

Ez nem igaz. A session addig él, amíg a session cookie. Ha a session cookie 365 napig él, akkor addig él a session is (természetesen a szerveren megfelelő session beállítások mellett, ugyanis ezen is van gargabe collector).
10

Ez a megoldás csak azért nem

sosdaniel · 2012. Szep. 18. (K), 10.51
... és JavaScript-et lehet tiltani a böngészőben meg cookie-t is, de session cookie-t nem lehet ugye? Tehát magyarán ez az egy ami biztos mert a többi tiltható?
11

Minden sütit le lehet

Hidvégi Gábor · 2012. Szep. 18. (K), 11.15
Minden sütit le lehet tiltani.
14

Minden sütit le lehet

sosdaniel · 2012. Szep. 18. (K), 12.59
... de a session cookie-k nem a látogató gépén hanem a szerveren vannak vagy attól még le lehet tiltani?
15

De

janoszen · 2012. Szep. 18. (K), 13.01
A session cookiek a latogato gepen vannak. Te megkapod a suti tartalmat, az alapjan toltheted be a session adatokat a diskrol. Ergo igen, le lehet tiltani.
2

Ez így helyes

zforgo · 2012. Szep. 18. (K), 09.32
Tehát van egy oldalad, aminek a megtekintését belépéshez kötöd. Vagyis nem akarsz oda beengedni bárkit. Akkor a keresőket miért? Az Asimov-elméletet elhanyagolva miért bír több joggal egy robot, mint egy (f)elhasználhó?

Usability szempontból pedig ha egy kereső egy oldalt meglátogat, az később a keresőben szerepel (gondolom ez a cél). Valaki megtalálja, rákattint, majd megkapja a főoldalt, hogy regisztráljon, esetleg fizessen és jelentkezzen be a tartalom megtekintéséhez. Szvsz a látogatók nagy része inkább elnavigál onnan kvázi örökre.

Javaslat:
Válaszd külön a publikus és a zárt oldalakat. A publikus oldalakon lehet session / cookie, de nem feltétel. A keresőket rá lehet venni arra, hogy ezeket bejárja, másokat pedig ne. Pl. generálsz egy sitemap-et, ezt a robotok tudják használni és azokat az oldalakat térképezik fel. A többi oldalról meg kitiltod.
4

Ha jól értem, nem arról szól

eddig bírtam szó nélkül · 2012. Szep. 18. (K), 09.42
Ha jól értem, nem arról szól a dolog, hogy regisztrációhoz köti, pusztán megfelelne az EU-s v. magyar előírásoknak és belépés előtt figyelmeztetni akar, hogy 18-as karikával jelölt tartalomra tévedtél.
De a kereső robotokat szeretné beengedni, hogy ha valaki az adott témában keres, rátaláljon a lapjára.
6

Ha jól értem, nem arról szól

sosdaniel · 2012. Szep. 18. (K), 10.34
Így van. Tehát van egy belépsz kérdés amire igen-nel vagy nem-mel lehet válaszolni/kattintani. Az igen-re kattintásból lesz a cookie ami engedélyezi a lapok megtekintését.
12

Google FCF

zforgo · 2012. Szep. 18. (K), 11.28
Nem vagyok abban biztos, hogy ezt a problémát minden téren lefedi, de a GoogleBot-nak van egy ún. First Click Free (FCF) megoldása. Egy próbát megér. Sok problémát generál. pl: az erotikus tartalom miatt az előnézet letiltása. Valamint azt biztosítani kell a látogatónak, hogy ha találati oldalról jön, akkor popup / layer / redirect nélkül kell neki megjeleníteni az oldalt. Csak a többi kattintásnál lehet bármi mást az arcába tolni.

Más - szintén nem tökéletes - megoldás lehet a User-Agent szűrés. Pl a google két User-Agentet használ: GoogleBot és GoogleBot-Mobile. Vagyis ha nem ilyen kérés érkezik és nincs süti => redirekt, egyébként ki lehet renderelni az oldalt. Hátránya, hogy az User-Agent stringet a böngészőben át lehet írni és egy Internet tagozatos óvodás középső csoportban már ezt megtanulja.
13

User-Agent

Poetro · 2012. Szep. 18. (K), 11.54
Másik probléma is lehet ezzel, ugyanis pl. a Google nem szereti, ha mást mutatsz a GoogleBot-nak, mint egy általános asztali böngészőnek, és ezért hajlamos téged büntetni is.
5

Segítség sitemap generálásához

zforgo · 2012. Szep. 18. (K), 09.43
Hogy milyen oldalakat látogasson meg a robot, azt egy sitemap.xml-lel lehet szabályozni.
Ezt (ezeket) a robots.txt-ben tudod megadni, akár többet is valahogy így

Sitemap: http://valami.hu/publikus_tagok.xml
Sitemap: http://valami.hu/egyeb_oldalak.xml

Az xml felépítéséről itt találsz infót.
8

Köszönöm.

sosdaniel · 2012. Szep. 18. (K), 10.35
Köszönöm.
7

Ez így helyes

sosdaniel · 2012. Szep. 18. (K), 10.34
Nincs regisztráció/belépés.
3

Hányan?

Hidvégi Gábor · 2012. Szep. 18. (K), 09.35
Azt meg tudod mondani, hogy százalékosan kb. hányan nem használnak sütiket?
9

Hányan?

sosdaniel · 2012. Szep. 18. (K), 10.36
Nincs statisztikám. Induló oldalról van szó.
16

Költői :)

Pepita · 2012. Szep. 19. (Sze), 21.14
Költői kérdés volt, u.is elenyészően kevesen...