ugrás a tartalomhoz

Szerverek, előzetes tervezés

fchris82 · 2009. Jan. 31. (Szo), 03.07
Adva van egy nagyobb projekt, tervezési fázisban. Befektetőt szeretnénk hozzá találni, ehhez viszont előre, a lehetőségekhez mérten pontosan becsülni kellene a költségeket. Megvan, hogy mikor hány ember kell, mennyi a fizetésük, stb, stb. De a szervernél elakadtunk, mármint inkább elakadtam.

Biztosan kell egy fejlesztői szerver, amin majd futnak a tesztelések, szerintem erre egy 1 CPU-s (4 magos Xeon), 2-4 GB RAM-mal és SATA-s merevlemezzel bőven megfelel. Vagy még talán sok is :?

A gond az, hogy vhogy kalkulálnom kellene, mennyi és milyen vas kell majd az éles rendszer alá! Ezt hogyan becsülhetném, ha egyszer az alkalmazásról még csak azt tudjuk, mit kell csinálni, azt még nem, hogyan fogja csinálni? Ja, és hogy sokan fogják használni a világ különböző pontjain.

Eredetileg úgy gondoltuk, hogy minden szervert megduplázunk, ha az egyik kiesne, egy másik vegye át a helyét. De jobban végig gondolva, lehet érdemes lenne azt csinálni, hogy ha mondjuk van 10 gép a világ különböző pontján, akkor ezek mellé veszünk még 2-3 tartalékot, és azok figyelnék, kiesett-e vmelyik. De akkor ezeknek meg 5-5 adatbázissal kell szinkronban lenniük :-/

A másik, hogy most nem világos, mekkora költséget kell számolnom egy-egy szerver fenntartásához... Van itt áram, meg sávszél, meg hogy most állóházas vagy rack... Van ez ügyben tapasztalata vkinek? 30-40-50 ezer? Egyébként állóházasat vagy rack-et érdemes inkább?

Rengeteg kérdés, és nekem meg mondanom kéne vmit, hogy "blokkonként" 1 millió a szerverek és 100 ezer a fenntartásuk havonta. Kb.
 
1

Nem tudod előre

janoszen · 2009. Jan. 31. (Szo), 10.47
Lehet próbálkozni mindenféle technológiával, de az hogy mindenhová leraksz egyet-egyet, az nem túl üzembiztos. Mondom, hogy miért. (Feltételezve, hogy webes a szolgáltatás. Ha nem, akkor a kliensbe nyilván tudsz failovert építeni.)

Leteszed BUD Sztakiban a gépedet. Leteszed mondjuk Amerikában a másikat. A Sztakiban betáp-karbantartás van, áramszünet. Az US gép észreveszi, hogy nincs magyar gép. És mit csinál? Az IP-t nem tudja magára húzni, max át tudja tekerni a DNS-t, hogy most ne arra, hanem erre menjetek. Ennek viszont az a hátránya, hogy random szolgáltatók random DNS szerverei pont leszarják a TTL beállításodat, főleg ha alacsony, plusz ha load balanceolni is szeretnél, akkor ugye valami jól kitalált DNS szervert is kell üzemeltetned, persze úgyszintén failoverezve. És ugye ez ellen nem véd az sem, hogy két gépet teszel be egy helyre.

Ez ellen sajnos csak az véd, hogy saját dolgokat építesz ki pl áramforrás terén. Nyilván ez a mostani költségvetésetekbe kissé combos tétel lenne, szóval talán a legértelmesebb megoldás a DNS failover plusz rendszeres és alapos backupok plusz monitorozás (Ha Linux, akkor Nagios, Munin, Monit, SMS értesítés és hasonló finomságok. Rendszeres mentés, stb az már csak természetes ekkora projekthez.

Ha több infót szeretnél, akkor picit le kéne írnod, hogy miféle projektről van szó, mert vakon tervezni elég nehéz. :) A terhelés kérdést meg még inkább.

Szerk: ja és persze ha ilyet szeretnél, akkor a programozóknak nem kicsit érteniük kell az elosztott rendszerekhez, ezen valszeg még webstúdiókban megöregedett veteránok is elgondolkoznak. Bár valszeg erről Felhő lényegesen többet tud mondani, én ugyanis csak egy évet fejlesztettem PHP-ban ilyen környezetre (most meg rendszergazda vagyok egy ilyenben. :) )
2

amazon ecc

vbence · 2009. Jan. 31. (Szo), 11.27
Nézz utána a dolognak. Költséghatékony, skálázható megoldás ahol sok terhet leveszneka váladról. Plusz, ha bebukik a szolgáltatás, nem állsz ott sokmilliónyi hardverrel :)
3

+1

janoszen · 2009. Jan. 31. (Szo), 12.12
Ott legalább a hardverhibával se Neked kell foglalkozni, szóval +1. Ha meg kinövöd magad, vehetsz még gépet tetszés szerint.
4

Költség

janoszen · 2009. Jan. 31. (Szo), 12.26
Még reflektálok a költséges kérdésedre: valamennyiért veszel hostingot, ebben általában benne van mondjuk 500W-ig az áramfogyasztás, elhelyezés n belföldi és kb n/30 nemzetközi sávszél. Ha van pénzed, érdemes rackes vasat venni, mert ott tudsz a hosting díjból alkudni egy keveset. Nyilván itt ugye az alkatrész-utánpótlás egy izgalmas kérdés.

Én havonta egy nem túl nagy hardverű vas üzemeltetésére kb 50e Ftot számoltam azzal együtt, hogy 2-3 évente cserélni kell a gépet is.
5

Előzetes tervezés

Poetro · 2009. Jan. 31. (Szo), 12.40
Ahogy én indulnék:
  • Hardveres load balancer, azokban ritkább a harverhiba, mivel nem tartalmaznak mozgó alkatrészt, hacsak a hűtésben nem.
  • 3 azonos gép, kezdetben az egyiket kinevezheted fejlesztőinek, és ha növekedik a terhelés, akkor raksz be egy új fejlesztői szervert, és az régi fejlesztőit meg hozzácsapod az éleshez.
  • 2 adatbázisszerver.
  • CDN bérlés a statikus tartalmakhoz, és anonymous felhasznaloknak, akiknek ugyis mindig ugyanaz a tartalom megy ki, mondjuk 2-10 perces frissítsi ciklussal. CDN szolgáltatókból mostanában van már bőven, lehet válogatni, akár igény szerint váltani is menet közben.
6

Hááát...

janoszen · 2009. Jan. 31. (Szo), 21.23
Ismered a projektet? Én nem mernék csak úgy mondani egy számot, hogy hány adatbázis szerverre lesz szüksége. Vagy úgy gondoltad, hogy minimum? Ha meg nem minimum, akkor ugye ott van az, hogy az alkalmazást Master-Slave replikációra illik fölkészíteni. (Több connection, RAND-ot nem használunk ész nélkül, stb.)
7

Ők ismerik a projektet?

Poetro · 2009. Jan. 31. (Szo), 21.29
Ők sem ismerik a projektet, ez amolyan hasraütés volt, ami egy amolyan minimum, ami havi pár-százezer felhasználót még el tud látni megfelelő cachelés mellet. Persze az is sokat változtathat a dolgon, hogy miben írják meg, mert pl. C++-ban valószínű teljesen másként teljesítene, mintha mondjuk Ruby-ban, vagy Perl-ben írnák.
8

Hmmm...

fchris82 · 2009. Jan. 31. (Szo), 23.59
Először is köszönöm mindenkinek a hozzászólásokat. Nézegettem az Amazon WS-t és a Google AE-t.
Egyelőre úgy képzelem el, hogy:
1. Fejlesztés ideje:
- 1 fejlesztői szerver (full DB ezen)
- AWS (S3 + EC2)
2. Béta teszt:
- 1 európai DB szerver (Az Amazon adatbázis szolgáltatása egyelőre nem tűnik használhatónak nekünk, bár még az is lehet, hogy jó lesz legalább részben, alább kifejtem...)
- AWS (S3 + EC2)
3. Éles üzem: Béta teszt függvényében talán:
- 2-2 saját DB szerver: EU, Ázsia, USA (1 éles, 1 tartalék)
- AWS (S3 + EC2) + GAE tartalék, ha leállna az Amazon (nem használnánk, csak a tárhely után kellene fizetni havonta)

Egyébként Pythonban fog történni a fejlesztés. Az adatok egy része nagyon gyakran és gyorsan változik. Ezeken bonyolultabb műveleteket is végrehajtunk. A többi adaton valszeg nem, így felmerült, hogy MySQL helyett "SQLite-ba" (gyorsabb, mint a MySQL) vagy Amazon SimpleDB-be kerülnének a "sima" adatok (ezeknek az is jónak tűnik), és a kényesebbekre végszükség esetén C++-ban íratnánk egy saját célszoftvert... Ott ugyanis tényleg gyorsan kell nagy mennyiségű adatot feldolgozni, folyamatosan. Persze lehet, hogy aztán kiderül, már verébre lövök ágyúval :D

A lényeg, hogy a kényes résznek valszeg kell(enek) majd a saját szerver(ek), a többinek viszont jó az AWS. A statikus tartalom szinte tuti, hogy oda fog felkerülni.

A fent vázolt esetben: 1 ("gyengébb fejlesztői") + 6 szerver kell, sok memóriával és gyors CPU-val, "pár" GB-os HDD-vel (akár SATA is jó, RAID-ben)

Ez így szerintetek jó és "reális" elképzelésnek tűnik? Feleslegesen túlbiztosított vagy éppen alul?
9

Technológia

janoszen · 2009. Feb. 1. (V), 01.54
Mint mondtam fent, tök jó, hogy elmondasz mindenféle technikai részletet, csak éppen azt nem, hogy ez mit fog csinálni. Nem lehet úgy tervezni, hogy ha nem tudod, hogy mit tervezel. Próbáld meg úgy föltenni a kérdést, ahogy a feladat szól, ne úgy, ahogy Te meg szeretnéd oldani.

Nem lehet ugyanis pl azt megmondani, hogy SQLite-al, MySQL-lel vagy egészen mással jársz jobban. A gyorsabb relatív fogalom, kérdés hogy pár millió adatnál is gyorsabb-e, stb. A rövid életű adatokra egyébként sem biztos, hogy a relációs adatbázis a legjobb tárolási forma, stb.

Szerintem, ismerkedj meg (vagy a rendszergazdádat ugraszd rá) a platformodnak megfelelő HA megoldásokra, nézz utána a hosting áraknak, hálózatoknak, stb. Anélkül nem fog menni. Húzzátok föl az egész kiválóságot virtuális gépek halmazában, teszteljetek, csináljatok performance teszteket, stb. aztán agyaljatok azon, hány gép kell.
10

Jogos minden észrevételed, de ... :)

fchris82 · 2009. Feb. 1. (V), 03.37
A feladatot nem fogalmazhatom itt meg, mert üzleti titok :) Ez van :( Rendszergazdánk pont nincs a "csapatban", egyelőre, sajnos. Nekünk most egy előzetes kalkulációt kell végeznünk az első 3 évre. Én programozó vagyok, és bár webre dolgozok, a vasat sosem én tettem a rendszer alá, így fogalmam sincs, hogy egy x, y, z képességekkel rendelkező szerver mennyi felhasználót tud kiszolgálni és azt milyen terhelés mellett.

Szóval ez úgy néz ki, hogy csinálunk egy előzetes kalkulációt, hogy az ötlet megvalósításához kell X összeg. Aztán ha ezt megkaptuk, akkor kezdjük el a projekt megvalósítását, emberek felvételét, és végül sorra kerül majd pár hónap múlva a rendszergazda is, akivel nyilván újra fogjuk gondolni a dolgot, de addigra már lesz béta verzió, lesz tapasztalat, és lehet min mérni.

Az a lényeg, hogy nekem írnom kell vmit az üzleti tervbe, hogy pl 10 millió/év < [szerver költség] < 30 millió/év . Aztán még vhogy indokolnom kell a két végletet, hogy miért gondolom azt, amit...

Ez egy bizonytalan, homályos becslés, de akkor is, kell két szám, már csak a nagyságrend miatt is. Hogy nem évi 20 000 Ft-ról van szó, de nem is 500 milliós tétel.

Eleve, 3 évre tervezni, elég vakmerő dolog. Elméletileg a befektetőnek az alap - kezdeti - rendszer felépítését kéne "fedeznie", a növekvő forgalomból adódó költség növekedést, ha minden jól megy, akkor fedezni fogják már a bevételek.
11

Nem tudsz

janoszen · 2009. Feb. 1. (V), 10.59
OK, de ne várd tőlünk azt, hogy ilyen feltételek mellett akár megközelítőleg is mondjunk egy felelős összeget. Nézz utána a technológiáknak és döntsd el magad. Én úgy érzem, hogy az 1-2 gép lerakása országonként szívás forrása lesz, mert hardverhiba esetén ki kell kolbászolni oda. Inkább kevesebb, nagyobb cluster, mert akkor a fizikai jelenlétet kívánó feladatokat egy füst alatt el lehet intézni.

Az is egy koncepció lehet, hogy itthon vesztek sok nemzetközi sávszélt és Európát innen szolgáljátok ki, valahol USA-ban ugyanez oszt csókolom. Igen, aranyáron mérik, de legalább kézben tarthatóak a karbantartási feladatok. Két site-ot még nem olyan életveszélyes szinkronban tartani. Egyébként meg vegyetek CDN-t a statikus tartalmakra, az jó dolog és sok sávszélt megspórol.

Semmiképp ne úgy rakjátok oda a megrendelő / főnök elé, hogy ez az ár, hanem úgy, hogy ha ezt szeretnénk, akkor ennyi, ha ezt, akkor ennyi. Ne Te dönts, amikor igazából közöd se nagyon van a rendszergazdai oldalhoz, hacsak nem szeretnéd utána elvinni a balhét. Vegyetek föl egy elosztott webes rendszerekben jártas rendszergazdát. (Nem lesz olcsó.)

Ja és persze azt is tedd hozzá az árkalkulációdhoz, hogy mondjuk évente kétszer ki kell menni a külföldi clusterekhez és 3 évente cserélni kell a gépet (ld. amortizáció). Ennek fényében számold ki, hány gép bírja el a terhelést, számolj bele egy pár HA megoldást, backupot és mondj egy számot. Lehetőleg valami komolyabb rackes vassal számolva. (8 magos 2005-ös Intelek RMM modullal rulez, valahol 1 misi per darab ha jól tudom.)

Egyébként szigorúan a magánvéleményem, hogy az ilyen jellegű projektek, hogy előbb tudjuk, milyen technológiát és szervert használunk, mint hogy lennének fejlesztőink, bebukás-veszélyesek. Barmi nehéz manapság a szakmájához jól értő, egy ilyen elosztott rendszerrel elbírni képes fejlesztőt találni. Nem elég fölvenni néhány webprogramozót, mert ez egészen új feladatokat hoz.

Off: örülök, hogy nem csak én szenvedek alvászavarban. :D
13

Miért pont CDN?

fchris82 · 2009. Feb. 1. (V), 18.48
Miért más a CDN, mint az Amazon szolgáltatása? Egyébként arról sehol nem találok árat :-/

Külföldi szerverek:
A jelenlegi koncepció szerint a külföldi szervereket hosting szolgáltatóktól bérelnénk, (fizikai) karbantartással együtt. Ez nem feltétlenül drágább, mint ha nekünk kéne utazgatni és karbantartani őket, a bérlés 3 évre szól általában, stb, stb... Persze lehet, hogy később mégis veszünk sajátot és utazgatni fogunk :)
De jelenleg úgy látom - szóljatok ha rosszul gondolom -, a bérlés bár hosszabb távon lehet, drágább, mégis kényelmesebb megoldás. Van más különbség is?

Egyébként nem csak itt kérdezgetek, folyamatosan olvasok is a technológiákról, még mielőtt vki szóvá tenné, hogy "google" :D
15

Ezt is lehet

janoszen · 2009. Feb. 1. (V), 21.06
Ezt is lehet, de 99.99%-os rendelkezésre állást ne várj tőle mert ott csak egy vagy a sok ügyfél közül. Vannak országok, amikben persze kulturáltabb a hozzáállás, de ezekkel nem rossz tisztában lenni. Egyébként szép mérnöki kihívás a különböző szerverek között szinkronban tartani az adatokat.
22

van már SLA

Hodicska Gergely · 2009. Feb. 2. (H), 16.57
Amazon SLA-k: EC2 az 99,95%, az S3 pedig 99,9%. ;)
21

S3 vs CDN

Hodicska Gergely · 2009. Feb. 2. (H), 16.55
Az S3 egy tárhely szolgáltató. Annyit csinál, hogy biztonságosan és redundánsan tárolja az adataidat. Elvileg ki tudod választani, hogy fizikailag hol legyen az adat (pl. USA vagy Európa), de utána bárhonnan kérik le az adataid, erről a helyről lesz kiszolgálva.

Egy CDN ezzel szemben igyekszik a felhasználhoz közel eső szerverről kiszolgálni a kérést. Vannak origin szerverek, te ide teszed fel a cuccod (vagy épp te vagy az origin), és az edge-ek innen rángatják le kérés esetén a cuccot, és cache-elik a megadott ttlnek megfelelően.

Van az Amazonnak is már CDN-je: CloudFront, az S3-on található cuccaid elérhetővé tudod tenni ezen keresztül, jelenleg USA-ban, Európában és Ázsiában vannak edge-ek.
12

konkrétum helyett jelleg

Hodicska Gergely · 2009. Feb. 1. (V), 18.44
A feladatot nem fogalmazhatom itt meg, mert üzleti titok :)
Nem kell leírnod, hogy pontosan miről is van szó, de attól még leírhatod, hogy kb. milyen jellegű adatokkal, milyen mennyiségben kell foglalkozni. Bár ha ezt megteszed, akkor is jobb esetben egy jó érzékű becslést fog talán valaki mondani, ami nem biztos hogy fedi a valóságot.

Az a lényeg, hogy nekem írnom kell vmit az üzleti tervbe, hogy pl 10 millió/év < [szerver költség] < 30 millió/év . Aztán még vhogy indokolnom kell a két végletet, hogy miért gondolom azt, amit...
Az baj, hogy gondolatkísérlettel eléggé mellé lehet lőni. Amiben segíthet, hogy a folyamatban a rázós részeket azonosítsd, de utána ezekre érdemes lenne egy kis tesztet csinálni, és akkor sokkal jobb és pontosabb tervet tudnál csinálni. Az elég rosszul veheti ki magát a befektető fele, ha már egyből az elején bukik az terv. Jó dolog a gondolat kísérlet, csak néha végül köszönőviszonyban sincs a valósággal, mert kiderül, hogy xy dolog nem pont úgy működik, mint ahogy (akár logikusan) feltételezné az ember.

Eleve, 3 évre tervezni, elég vakmerő dolog. Elméletileg a befektetőnek az alap - kezdeti - rendszer felépítését kéne "fedeznie", a növekvő forgalomból adódó költség növekedést, ha minden jól megy, akkor fedezni fogják már a bevételek.
Ez eléggé projekt függő. Nem biztos, hogy egyből úgy fog jönni a bevétel, ahogy az elején el van tervezve, de pl. az sem ritka ugye wbes alkalmazások esetén, hogy nagyon megugrik a látogatottság (és a bevételek nem biztos, hogy ezzel egyidőben egyből realizálódnak), ami követni kell szerver parkkal, amihez szintén kell pénz.
14

Teszt

fchris82 · 2009. Feb. 1. (V), 19.54
Valóban, a legkritikusabb részfeladatra tudok tesztet írni, még ha el is tart pár napig. Neki is kezdek... :)
17

A teszt alfa verziója

fchris82 · 2009. Feb. 2. (H), 03.53
A probléma kicsit játékosan:
Vannak szobák (~100 000). A szobákban emberek vannak (~200/szoba). A szobában lévő embereknek vannak tulajdonságaik (~20 tulajdonság/ember) és azok hatással vannak egymásra. A szobákban lévő emberek néha átmennek más szobákba, találkoznak a másik emberrel és ettől mindkét félnek változik a tulajdonsága. Egyfajta szimulátorról van szó.

Tehát végső esetben ez egy 20 millió soros tábla (100 ezer szoba x 200 ember/szoba), amit ha nem is tized másodpercenként, de gyakran be kell járni (~10s) és a változásokat végrehajtani. Csak az egymáshoz közel lévő emberek vannak egymásra hatással.

A tesztkörnyezet: WinXP, MySQL 5.0.41, 2.2 GHz-es Intel Core Duo E2200, 2 GB RAM, vmi basic merevlemez...

Namost, a tesztben először generáltam egy 14 000 soros táblát, és ezen futtattam egy egyszerűsített szimulációt (5 UPDATE, ebből az egyikben "join"-oltam önmagával a táblát). 0,86 s. Felduzzasztottam a táblát 115 ezer sorra, a szimuláció ideje felugrott 98,23 s-ra :-/ Tehát több, mint 100-szorosra, ami érthető is. Kisebb optimalizálások után ezt az értéket le tudtam tornászni 55 s-ra. A szűk keresztmetszet egyébként a merevlemez volt, mert a proci "mysql-es" magja kb 60%-on dolgozott.

Ez pedig elég rossz eredmény. Jött olyan ötlet, hogy minden szoba legyen külön tábla, hátha attól gyorsabb lesz, van is benne vmi, mert most valszeg azért nő négyzetesen (10x annyi adat, 100x annyi idő), mert az "egymásra hatásnál" mindenkit összevet mindenkivel. Gondolom én. De a más szobában lévőket nem kell összevetni, így sztem átváltana lineáris növekedésbe, de elég "csúnya" megoldásnak tűnik nekem, hogy lesz egy adatbázis, amiben van 100 000 tábla. Persze ezek szétoszthatók gépenként. Másrészt az se szimpi, hogy kb 6 MB adatról van szó, az innoDB fájlja mégis 120 MB-ra hízott a sok indextől... De ekkor jött megint az az ötletem, hogy ezeket a műveleteket nem adatbázisban végeznénk, hanem C-ben vagy Assembly-ben :D íratnánk rá egy célprogramot. Az a 20 tulajdonság kb 50 byte. Bedobáljuk a memóriába őket, a szobák szerint rendezve és ott bejárjuk őket. Van még egy érdekesség, ami miatt megoldható, hogy mondjuk óránként írjuk csak ki a memória tartalmát, esetleges leállás miatt ugyanis nem fog adatveszteséget okozni (az adatok visszaállíthatók maradnak, ebbe most nem megyek bele miért is). Kb 1 GB adatról van szó így. Ezt szét lehet osztani gépek között, mindegyik kap mondjuk 10 000 szobát (100 MB), nem hiszem, hogy ne végeznének 1 "körrel" tized másodpercek alatt, szóval a 10 s-os határon belül lennénk bőven.

Az Amazon szolgáltatása egyre szimpatikusabbnak tűnik. S3-ban tárolom a "szobákat", mondjuk 10 MB-os "csomagokban", és ahogy nő a rendszer, úgy ezeket küldözgetem ki EC2-es szervereknek, hogy "játszadozzanak" velük.

Vélemény a gondolatmenettel kapcsolatban?
18

Ez így nem megy

janoszen · 2009. Feb. 2. (H), 10.32
Ezt a problémát így nem tudod megoldani. Nem véletlenül iszonyatosan nehéz pl MMORPGt írni. Vagy particionálnod kell, vagy saját, specializált adatbázist írni. Jó az általános adatbázis, csak nem mindenre. Úgyhogy szvsz a költségvetésbe számoljatok bele valami profibb C programozót is. Persze ez csak az én meglátásom.
19

mmorpgés társai

vbence · 2009. Feb. 2. (H), 11.52
Nekem is az MMORPG problémája jutot eszembe. Amit én csinálnék: az adatokat a memóriában tárolnám és csak backupként működne az adatbázis. Gondolom a szimiulációs részhez nincs szükség az adott ember előfizetői adataira, szemszínére, utolsó bejelentkezésének IP címére stb, ezért lényegesen csökkenthető az aktívan elért adatok mennyisége.

Megnéznék néhány tesztlekérdezésedet, tábládat, hátha az indexekkel van baj (elvileg megfelelő indexekkel megoldható a soksok tábláshoz hasonló sebesség).

Az, hogy leválasztod a szimulációhoz nem szükséges adatokat (azaz egy másik táblába teszed) DB esetén is sebességnövekedést eredményezhet.

A sharding-ot szokták még alkalmazni nagyonnagyon sok adat esetén. Azaz nem minden szoba külön tábla, de egy DB szerveren mondjuk csak 1000 szobát tárolsz (ahol valószínűbb, hogy lesz átjárás).
20

A hasonlat jó

fchris82 · 2009. Feb. 2. (H), 13.33
A hasonlat tök jó, ez eddig eszembe se jutott. Csak van egy olyan probléma, hogy az MMORPG-nél a számítások egy részét ki tudom osztani a játékosok gépének is, de ezt a mi esetünkben nem tudjuk megtenni.
Cserébe itt azért nem is kell olyan gyorsan számolgatni. Bár igazság szerint nem tudom, hogy ott hogyan kell számolgatni és mit, ezt végig kéne gondolnom :? :D

Köszönöm a tanácsokat, C programozó felírva.
23

Objektumok

janoszen · 2009. Feb. 2. (H), 21.03
Eszembe jutott egy régi egyetemi előadás a middlewarekről. Arról volt szó, hogy néha komplett ágensek mozognak. Az jutott eszembe, hogy a felhasználó lehetne egy ilyen entitás, amit egy perzisztensen nyitva tartott kapcsolaton oda lehetne adni az adott szobát kiszolgáló szervernek módosításra. Innentől már csak egy lokátor szervert kell fent tartani. Persze nem tudom, hogy a Te feladatodra ez mennyire ráhúzható, de ez így hirtelen bevillant.
16

ec2

vbence · 2009. Feb. 1. (V), 22.46
Lehet, hogy én tudom rosszul, de én úgy tudom, hogy az ec2-ben virtuális gépeket kapsz amik image fájlokból működnek (tehát klónozhatók). Így egy tetőleges időpillanatban beállíthatsz új gépet a meglévők mellé. (Nem tudom a tarifáik mennyire rugalmasak, azaz van-e értelme, de elvileg azt is meg tudod csinálni, hogy a csúcsidőre, teszemazt 10 és 16 óra között megduplázod a szervereid számát).

Mint ilyen az adatbázis szervereid is lehetnek ugyanúgy az ec2-ben erre összeállított rendszerek.

Ha ez így van, akkor összehasonlíthatatlanul jobb megoldás, mint az, hogy több kontinensen cégek tucatjaival legyetek kapcsolatban.