vajon vétlen clocking-ra készülök-e?
Haligali,
abban sántikálok, hogy megkülönböztetem a böngésző-robotokat az emberektől, és ugyanazon az url-en ők mást kapnának.
Azt kell tudni, hogy nem akarok semmi fondorlatoskodást, a fekete kalap sosem állt jól nekem. A lényeg, hogy az oldal (inkább webalkalmazás) alapvetően masszívan ajaxos, viszont néhány oldalt rajta szeretnák indexelhetővé tenni a keresők számára.
Ezt szeretném, úgy megoldani, hogy megkülönböztetem őkegt valami úton módon a látogatóktól és az adott oldal statkus html változatával térek vissza számukra, amin egy az egyben ugyanaz a szöveg lenne mint amit az ajaxos kérés visszad, semmi kulcsszóhalmozás, vagy hasonló huncutság...
Kérdés#1: ez így teljesen rendeben van, mekkora a sanszom, hogy elásom magam a keresőkben?
Kérdés#2: Hogyan szokták ezt megvalósítani a gyakorlatban?
- url rewrite browser agent alapján?
- url rewrite ip alapján? van megbízható lista a robotok ip-jéről?
- egyéb
olvastam ezt, de ez még csak javaslat ha jól olvastam, lehet még a google sem cselekszik ennek szellemében, nem hogy a többiek.
Szóval... mi a véleményetek? Ezt ne, vagy de csak ne így, vagy mindegy, vagy hogyan szokták?
Köszönöm!
■ abban sántikálok, hogy megkülönböztetem a böngésző-robotokat az emberektől, és ugyanazon az url-en ők mást kapnának.
Azt kell tudni, hogy nem akarok semmi fondorlatoskodást, a fekete kalap sosem állt jól nekem. A lényeg, hogy az oldal (inkább webalkalmazás) alapvetően masszívan ajaxos, viszont néhány oldalt rajta szeretnák indexelhetővé tenni a keresők számára.
Ezt szeretném, úgy megoldani, hogy megkülönböztetem őkegt valami úton módon a látogatóktól és az adott oldal statkus html változatával térek vissza számukra, amin egy az egyben ugyanaz a szöveg lenne mint amit az ajaxos kérés visszad, semmi kulcsszóhalmozás, vagy hasonló huncutság...
Kérdés#1: ez így teljesen rendeben van, mekkora a sanszom, hogy elásom magam a keresőkben?
Kérdés#2: Hogyan szokták ezt megvalósítani a gyakorlatban?
- url rewrite browser agent alapján?
- url rewrite ip alapján? van megbízható lista a robotok ip-jéről?
- egyéb
olvastam ezt, de ez még csak javaslat ha jól olvastam, lehet még a google sem cselekszik ennek szellemében, nem hogy a többiek.
Szóval... mi a véleményetek? Ezt ne, vagy de csak ne így, vagy mindegy, vagy hogyan szokták?
Köszönöm!
clocking?
Például ha az eredeti link
/kapcsolat
akkor azt mondjuk JavaScript-tel azajax.php?page=kapcsolat
oldalról töltöd.hoppálá
Meg is kérnék itt valakit, aki olvassa és fel van erre kenve, hogy javítsa ezt "cloaking"-ra. Elnézést kérek és köszönöm előre is.
Azért nem gondoltam, hogy ez annak minősülne, mivel ugyanazt adnám vissza az agent alapján rewrite-olt url-en is, mint az ajaxos hívás eredményeként. Lényegében a google általam linkelt cikke is hasonló módszerrel hozakodik elő.
jelenleg az urljeim ilyenek: http://xx.hu/#/pages/about.html
Köszi szépen az ötletet, végiggondolom a felvetésed, meg hogy mennyire lenne egyszerű kivitelezni, alapvetően a js kódok adottak, ebbe kell most belehegeszteni egy megoldást mely kiszolgálja a robotoknak is az oldalakat.
fordítva szokás
A HTML forrásban ez jönne le:
A kontextusból úgy érzem, hogy elég l'art pour l'art módon használod az XMLHTTP-t. Persze lehetnek előnyök (villogásmantes navigáció, kisebb sávszéligény, szerverkímélés), de ezek az előnyök a mai viszonylatban nem billentik a mérelget az AJAX navigáció irányába. Persze javíts ki ha tévedek.