Weblap eltérítés a keresők indexelőiben
Claus Schmidt a múlt héten publikált egy érdekes technikát, melyet szerinte egyelőre főleg ártatlanul, és tudatlanul alkalmaznak bizonyos webmesterek. Ám leírásából úgy tűnik, hogy legalábbis néhányan már előre megfontolt szándékkal is kiaknázták ezt a keresők megvalósításában rejlő rést, mely a HTTP protokoll leírásának korrekt megvalósításából következik. A kihasználható hiba lehetővé teszi, hogy webhelyünk bármely címe alatt egy másik weboldal tartalmát indexeltessük le a keresőkkel, ezzel növelve webhelyünk keresők által számolt rangját, legalábbis Claus szerint.
A technika a 302-es HTTP válaszkód használatát igényli, melynek értelmezése a W3C dokumentációja szerint:
Tehát a kért erőforrás ideiglenesen másik webcímen érhető el, de az eredetileg használt webcímet kell tárolni az ideigelenes cím helyett a későbbi lekérések használatához. Ezt kihasználva, ha a webhelyünkön található valamely szkript egy 302-es kódú válasszal irányít el mondjuk egy népszerű híroldalra, akkor a saját címünk alatt fogja a kereső indexelni a céloldalt, a webhelyünk köré épülnek az oldalon található kulcsszavak adta előnyök, stb.
Mindez persze csak addig működik, amíg a kereső le nem idexeli a céloldalt, akkor ugyanis (elméletileg) gyanús duplikátumot talál. Az, hogy ezt pontosan hogyan kezeli, és milyen algoritmus alapján dönti el, hogy melyik változatot tartsa meg, nem tudni, Claus állítólag látott már olyat, hogy magas rangsorral rendelkező webhely is elvesztette keresőbeli megjelenését és alacsony rangsorú weboldallal szemben, tehát nem biztos, hogy a rangsor számít. Az mindenesetre eléggé ijesztő, hogy ilyen egyszerűen elveszthetjük keresőbeli megjelenésünket.
Felteszem, hogy olvasóinkban végülis nem az a kérdés merül fel, hogy miképpen tudják kihasználni ezt a hibát, hanem hogy miképpen tudnak az ellen védekezni, hogy mások ellenük használják ezt fel. Nos, Claus leírásában erre is javasol megoldásokat - amíg a keresők nem adnak gyógyírt a probléma gyökerére. Megtehetjük, hogy minden beérkezett kérést 301-es kóddal irányítunk vissza saját magunkra, ezzel módosítva a beérkezett kérés állapotkódját, de ez persze egy kicsit több munkát ad a kiszolgálónak, és valahogy ellenőriznünk is kell, hogy ténylegesen a saját átirányításunkról érkezett vissza a felhasználó.
Ennél működőképesebb javaslat, hogy használjunk
■ A technika a 302-es HTTP válaszkód használatát igényli, melynek értelmezése a W3C dokumentációja szerint:
The requested resource resides temporarily under a different URI. Since the redirection might be altered on occasion, the client SHOULD continue to use the Request-URI for future requests.
Mindez persze csak addig működik, amíg a kereső le nem idexeli a céloldalt, akkor ugyanis (elméletileg) gyanús duplikátumot talál. Az, hogy ezt pontosan hogyan kezeli, és milyen algoritmus alapján dönti el, hogy melyik változatot tartsa meg, nem tudni, Claus állítólag látott már olyat, hogy magas rangsorral rendelkező webhely is elvesztette keresőbeli megjelenését és alacsony rangsorú weboldallal szemben, tehát nem biztos, hogy a rangsor számít. Az mindenesetre eléggé ijesztő, hogy ilyen egyszerűen elveszthetjük keresőbeli megjelenésünket.
Felteszem, hogy olvasóinkban végülis nem az a kérdés merül fel, hogy miképpen tudják kihasználni ezt a hibát, hanem hogy miképpen tudnak az ellen védekezni, hogy mások ellenük használják ezt fel. Nos, Claus leírásában erre is javasol megoldásokat - amíg a keresők nem adnak gyógyírt a probléma gyökerére. Megtehetjük, hogy minden beérkezett kérést 301-es kóddal irányítunk vissza saját magunkra, ezzel módosítva a beérkezett kérés állapotkódját, de ez persze egy kicsit több munkát ad a kiszolgálónak, és valahogy ellenőriznünk is kell, hogy ténylegesen a saját átirányításunkról érkezett vissza a felhasználó.
Ennél működőképesebb javaslat, hogy használjunk
base
elemet az oldal elején, ezzel megadva a további linkek alap célpontját, illetve mindig teljes webcímeket használjunk, ezzel magunknál tartva a tovább mutató linkek rangját. Végül a legegyszerűbb megoldás, hogy mindig változtassuk az oldalunk tartalmát, azaz jelentessünk meg valamilyen aktuális információt, és így a kereső indexelések között eltelt idő miatt nem tekintik majd duplikátumnak a mi eredeti példányunkat.
Re: Weblap eltérítés
Attila
hihi