Jó-e és ha igen, akkor milyen mértékű legyen a kiszervezés?
Az utóbbi években sok olyan szolgáltatás jelent meg, melynek használata webes megoldások esetén sok gondot levesz az ember válláról. De éppen ezen szolgáltatások használata az, ami alkalom adtán fejtörést okozhat.
Olyan dolgokra gondolok, mint például a képek Flickrön való tárolása, majd a saját webes megoldásunkban onnan való hivatkozása, ugyanez videók esetén a YouTube-nál megoldva stb. Sok ilyen példát lehetne hozni.
Ezen megoldások egyik hátrányát abban látom (a nyílvánvaló előny mellett), hogy minél több ilyen külső függésre tesz szert site-unk, annál kisebb a kontroll, annál jobban ki vagyunk téve a külső szolgáltatás szeszélyeinek (pl. lassú elérés), valamint az üzemeltető cégnek.
Ha a webhelyünk hobbi megoldás (pl. egy személyes blog), akkor nem olyan nagy gond, ha mondjuk nem elérhető vagy lassú a Flickr szerver. De ha éppen egy olyan profitorientált honlapot üzemeltetünk, mely erősen támaszkodik például a Google Mapsre (mert térkép alapú megoldásról beszélünk), akkor ott már nem kis fejfájást, okozhat egy kis üzemzavar, vagy éppen a Google részéről egy érdekes döntés az API-t illetően.
Persze lehet erre mondani az említett példánál maradva, hogy a Google az a Google, de ettől még lehet elérhetetlen, vagy éppen lassú a szolgáltatásuk. Mivel ingyenes megoldásról van szó, esélyünk sincsen az esetleges reklamációnknak jogalapot találni.
■
Szerintem minél idő- és
A másik elv meg nyilván az, hogy minél nagyobb mértékben támaszkodik a webes megoldásunk egy szolgáltatásra, annál kockázatosabb kiszervezni.
Aztán ott van még a biztonság kérdése is: minél szélesebb felhasználói körnek adjuk meg pl. a képfeltöltés lehetőségét /akár ideiglenesen is/, annál érdemesebb az ilyen képkezelést külső forrásra hárítani szerintem.
Egyébként egyre többször futok bele olyanba is, hogy teljesen feleslegesen alkalmazzák ezeket a szolgáltatásokat az üzleti honlapok. Külön bosszantó, amikor csak azért nő a betöltési idő a duplájára, mert arra várunk, hogy betöltsön az "itt van a cégünk!" feliratú google map, ami lehetne mondjuk egy kép is, ami alá behivatkozzuk a google térképet.
Videó, email
Ez persze ezen igények mértékétől is függ, hogy mennyire éri meg kiszervezni valamelyik szolgáltatást. Ha csak kicsiben csináljuk, akkor nem igazán éri meg kiszervezni szerintem ezeket, mivel a saját dedikált szerverünk valószínűleg a töredékéért meg tudja oldani, habár ilyenkor a karbantartás feladata ránk hárul.
Presztizs kérdés
Ennek fényében tessék mindenkinek eldönteni, hogy megéri-e. További ellenérvek:
Mellette szól viszont:
Ergó tanácsként azt mondanám: Ha nincsenek érzékeny adataid, indíts külső szolgáltatóval, legyen backupod a cuccokról és másik szolgáltató, akire át tudsz állni, ha para van. Ha lehet, akkor fizess elő, még akkor is, ha nem használod ki. Amikor eléred azt a szinted, hogy az igényeid, információid megérnek annyi pénzt, fizess meg egy vagy több szakembert (nem Webszerver Üzemeltető Weboldakészítő Egyszemélyes István Bt-t), aki megépíti Neked a rendszeredet. Ez nem lesz olcsó és nem lesz gyors.
Kis szőrszálhasogatás
Általában 200 vagy afeletti a ping usa-ba, ritkán 170-180, de nekem még nem sikerült 100 körüli szervert találnom, legalábbis abban a játékban, amivel régen toltam.
Maga a téma szerintem érdekes, meg az ellenérvek is. Nem gondoltam, hogy ilyen sok van belőlük...
Szőrszálak
Jaja, USA-Európa válogatott
Tök érdekes, hogy a tizedmásodpercek mennyire számítanak ezekben a játékokban, és normálisan mennyire nem...
Yepp, ezek a távolsági vonalak minőségre sem a legjobbak, sok a lag meg a packetloss, bár ez weblapoknál annyira talán nem zavaró...
Zavaró
Egyébként weboldalnál akkor zavaró, ha sok a statikus elem vagy mondjuk videót szolgálsz ki.
nem (csak) a kabel miatt van,
http://en.wikipedia.org/wiki/Latency_(engineering)#Packet-switched_networks
Latency is largely a function of the speed of light, which is defined to be 299,792,458 meters/second in a vacuum. This would equate to a latency of 3.33 microseconds for every kilometer of path length. Because the index of refraction of most fiber optic cables is about 1.5, light travels about 1.5 times as fast in a vacuum as it does in the cable. This works out to about 4.9 microseconds of latency for every kilometer. In shorter metro networks, the latency performance rises a bit more due to building risers and cross-connects and can bring the latency as high as 5 microseconds per kilometer. It follows that to calculate latency of a connection, one has to know the distance traveled by the fiber, which is rarely a straight line, since it has to traverse geographic contours and obstacles, such as roads and railway tracks, as well as other rights-of-way. Due to imperfections in the fiber, light degrades as it is transmitted through it. For distances of greater than 100 kilometers, either amplifiers or regenerators need to be deployed.
http://www.akamai.com/html/technology/dataviz2.html
europabol keleti part (Becs - Boston) idealis routeolassal 105ms, a "normal" utvonalat kovetve 156ms.
ugyanez Los Angeles fele (nyugati part 158ms vs 185ms)
btw. nem a counter strike a legjobb eszkoz a halozati latency meresere. :)
Tyrael
btw. nem a counter strike a
:D :D :D