ugrás a tartalomhoz

Archívum - Feb 26, 2012 - Fórum téma

Cookie olvasása HTML keretben (PHP)

femark · 2012. Feb. 26. (V), 23.28
Sziasztok!
A következő lenne a problémám: Van egy HTML fájlom, miben van egy keret. A keretben egy PHP fájl van. A keretben lévő PHP fájl nem tudja olvasni a böngésző COOKIE-át.
Mit lehetne csinálni, hogy tudja olvasni?
 

web oldal mentésének tiltása hogyan?

fulton · 2012. Feb. 26. (V), 18.47
sziasztok

Egy olyan problémám merült fel, miszerint Nekem a weblapom 1 html fájl, és jónéhány külső js, css. Van arra valami kód hogy megakadályozzam a "böngésző-> fájl ->oldal mentése" parancs eredményét? Magyarán hogy így ne lehessen menteni az oldalt?
 

WYSIWYG HTML email küldéshez

zzrek · 2012. Feb. 26. (V), 01.27
Sziasztok!

Weblapon, (sablon alapján) szerkesztett HTML emailt kell kiküldetnem.
Melyik javascript WYSIWYG HTML szerkesztőt javasoljátok? TinyMCE?

Szívesen vennék bármilyen tapasztalatot, milyen buktatókra számíthatok?

Köszönöm!
 

Időzített futtatás cronból (sokszor)

cSuwwi · 2012. Feb. 26. (V), 00.33
Sziasztok,

Egy ideje fejlesztek php/mysql-ben egy rss olvasót, mert böngészőst szeretnék, de nem találtam olyat ami tetszene. Mindegy :)
A kód saját szerverről fut, hozzáférek mindenhez, tehát nem a környezet hátráltat.

Ez elképzelésem az volt (és ez is valósult meg), hogy a megadott rss fájlokat lementem lokális cachebe (sima filecachebe), majd onnan kiparseolom ami kell, azt mentem db-be.
Egyrészt lesz keresés, másrészt szerintem gyorsabb, mint mindig előszedni és kiparseolni, harmadrészt pedig a folytatólagosság is szempont.

Az rss fájlok ugye limittel vannak, ha egy hétig nem töltöm le, akkor kiesnek a régi bejegyzések. Mivel nem szeretnék ilyen lyukat, ezért fut a cron, ami letölti az rss fájlokat, és átrakja a db-be, amire szükségem van. Az utolsó 200 bejegyzést tartom meg, így lyuk sincs, és visszamenőlegesen is jó időre megvan minden.

A db-ben mentem, hogy mikor volt utoljára lekérve, a cron csak akkor tölti le, ha régebben mint 5 perc. Az oldal betöltéskor csak a db tartalmát jeleníti meg, nincs ilyenkor letöltés, mert erősen lassít, ha sok feedet kell feldolgozni. Az oldalak cachelve vannak, 5 perc után nyúl a db-hez.

A problémát ott látom, hogy több mint 100 feedet követek, és 5 perces a késleltetés. A cronos script úgy fut (percenként), hogy megnézi mennyi feed van összesen, ezt elosztja 5-el (esetünkben 100/5=20) és abban a percben 20 feedet kér le, és dolgoz fel (a lekérés random megy, tehát elméletben 5 perc alatt mind a 100 feed frissülni fog). Ez 100 feednél meg elmegy, de mondjuk 20 embernél fejenként 100 feeddel: 2000 feednél már percenként 400 lesz, ami gond. Persze ez a véglet, hogy mindenkinél más feed van.

Remélem nagyjából érthető.
5 perc szerintem még kibírható késleltetés. Hogy oldható meg, hogy nagyobb számú feednél is le tudjam kérni úgy hogy a szerver se dől össze? Vagy egyéb ötlet a megvalósításra? Nem mondom hogy ez a tökéletes megoldás, de jobb nem jutott eszembe.
A több vas alárakása egyelőre nem opció.