ugrás a tartalomhoz

vajon vétlen clocking-ra készülök-e?

kalamona · 2009. Okt. 12. (H), 12.59
Haligali,

abban sántikálok, hogy megkülönböztetem a böngésző-robotokat az emberektől, és ugyanazon az url-en ők mást kapnának.

Azt kell tudni, hogy nem akarok semmi fondorlatoskodást, a fekete kalap sosem állt jól nekem. A lényeg, hogy az oldal (inkább webalkalmazás) alapvetően masszívan ajaxos, viszont néhány oldalt rajta szeretnák indexelhetővé tenni a keresők számára.

Ezt szeretném, úgy megoldani, hogy megkülönböztetem őkegt valami úton módon a látogatóktól és az adott oldal statkus html változatával térek vissza számukra, amin egy az egyben ugyanaz a szöveg lenne mint amit az ajaxos kérés visszad, semmi kulcsszóhalmozás, vagy hasonló huncutság...

Kérdés#1: ez így teljesen rendeben van, mekkora a sanszom, hogy elásom magam a keresőkben?

Kérdés#2: Hogyan szokták ezt megvalósítani a gyakorlatban?
- url rewrite browser agent alapján?
- url rewrite ip alapján? van megbízható lista a robotok ip-jéről?
- egyéb

olvastam ezt, de ez még csak javaslat ha jól olvastam, lehet még a google sem cselekszik ennek szellemében, nem hogy a többiek.

Szóval... mi a véleményetek? Ezt ne, vagy de csak ne így, vagy mindegy, vagy hogyan szokták?

Köszönöm!
 
1

clocking?

Poetro · 2009. Okt. 12. (H), 15.47
Nem tudom mire gondolsz clocking alatt, mindenesetre a Google nem szereti az álcázást (cloaking), ezért ne is csináld. Úgy kell megoldani, hogy amennyiben a böngésző támogat JavaScript-et, akkor azzal plusz szolgáltatásokat adsz számokra (diszkrét JavaScript), és amennyiben nem, akkor hagyományosan HTML navigációval is elérhetővé teszed a tartalmat. Például azokat a linkeket amik AJAX-os tartalmakat szolgálnak ki, megcsinálod hagyományos oldalnak, és JavaScript-tel felüldefiniálod a működésüket.
Például ha az eredeti link /kapcsolat akkor azt mondjuk JavaScript-tel az ajax.php?page=kapcsolat oldalról töltöd.
2

hoppálá

kalamona · 2009. Okt. 12. (H), 16.48
Egyetlen betü és máris milyen viccess lesz minden. Valójában persze cloaking-ra gondoltam.
Meg is kérnék itt valakit, aki olvassa és fel van erre kenve, hogy javítsa ezt "cloaking"-ra. Elnézést kérek és köszönöm előre is.

Azért nem gondoltam, hogy ez annak minősülne, mivel ugyanazt adnám vissza az agent alapján rewrite-olt url-en is, mint az ajaxos hívás eredményeként. Lényegében a google általam linkelt cikke is hasonló módszerrel hozakodik elő.

jelenleg az urljeim ilyenek: http://xx.hu/#/pages/about.html

Köszi szépen az ötletet, végiggondolom a felvetésed, meg hogy mennyire lenne egyszerű kivitelezni, alapvetően a js kódok adottak, ebbe kell most belehegeszteni egy megoldást mely kiszolgálja a robotoknak is az oldalakat.
3

fordítva szokás

vbence · 2009. Okt. 12. (H), 17.43
Ahogy Poetro is leírta, általában a za szokás hogy az oldal váza, a legszükségesebb elemek síma, szkriptmentes HTML lapokra épül. Hogy konkretizáljm, a példád alapján:

A HTML forrásban ez jönne le:
<a href="/pages/about.html"> ...
... amit egy (diszkrét) JS, mondjuk a <body> végén, alakít át az általad leírtra, azaz "#/pages/about.html" -re.

A kontextusból úgy érzem, hogy elég l'art pour l'art módon használod az XMLHTTP-t. Persze lehetnek előnyök (villogásmantes navigáció, kisebb sávszéligény, szerverkímélés), de ezek az előnyök a mai viszonylatban nem billentik a mérelget az AJAX navigáció irányába. Persze javíts ki ha tévedek.