Archívum - Feb 26, 2012 - Fórum téma
Cookie olvasása HTML keretben (PHP)
Sziasztok!
A következő lenne a problémám: Van egy HTML fájlom, miben van egy keret. A keretben egy PHP fájl van. A keretben lévő PHP fájl nem tudja olvasni a böngésző COOKIE-át.
Mit lehetne csinálni, hogy tudja olvasni?
■ A következő lenne a problémám: Van egy HTML fájlom, miben van egy keret. A keretben egy PHP fájl van. A keretben lévő PHP fájl nem tudja olvasni a böngésző COOKIE-át.
Mit lehetne csinálni, hogy tudja olvasni?
web oldal mentésének tiltása hogyan?
sziasztok
Egy olyan problémám merült fel, miszerint Nekem a weblapom 1 html fájl, és jónéhány külső js, css. Van arra valami kód hogy megakadályozzam a "böngésző-> fájl ->oldal mentése" parancs eredményét? Magyarán hogy így ne lehessen menteni az oldalt?
■ Egy olyan problémám merült fel, miszerint Nekem a weblapom 1 html fájl, és jónéhány külső js, css. Van arra valami kód hogy megakadályozzam a "böngésző-> fájl ->oldal mentése" parancs eredményét? Magyarán hogy így ne lehessen menteni az oldalt?
WYSIWYG HTML email küldéshez
Sziasztok!
Weblapon, (sablon alapján) szerkesztett HTML emailt kell kiküldetnem.
Melyik javascript WYSIWYG HTML szerkesztőt javasoljátok? TinyMCE?
Szívesen vennék bármilyen tapasztalatot, milyen buktatókra számíthatok?
Köszönöm!
■ Weblapon, (sablon alapján) szerkesztett HTML emailt kell kiküldetnem.
Melyik javascript WYSIWYG HTML szerkesztőt javasoljátok? TinyMCE?
Szívesen vennék bármilyen tapasztalatot, milyen buktatókra számíthatok?
Köszönöm!
Időzített futtatás cronból (sokszor)
Sziasztok,
Egy ideje fejlesztek php/mysql-ben egy rss olvasót, mert böngészőst szeretnék, de nem találtam olyat ami tetszene. Mindegy :)
A kód saját szerverről fut, hozzáférek mindenhez, tehát nem a környezet hátráltat.
Ez elképzelésem az volt (és ez is valósult meg), hogy a megadott rss fájlokat lementem lokális cachebe (sima filecachebe), majd onnan kiparseolom ami kell, azt mentem db-be.
Egyrészt lesz keresés, másrészt szerintem gyorsabb, mint mindig előszedni és kiparseolni, harmadrészt pedig a folytatólagosság is szempont.
Az rss fájlok ugye limittel vannak, ha egy hétig nem töltöm le, akkor kiesnek a régi bejegyzések. Mivel nem szeretnék ilyen lyukat, ezért fut a cron, ami letölti az rss fájlokat, és átrakja a db-be, amire szükségem van. Az utolsó 200 bejegyzést tartom meg, így lyuk sincs, és visszamenőlegesen is jó időre megvan minden.
A db-ben mentem, hogy mikor volt utoljára lekérve, a cron csak akkor tölti le, ha régebben mint 5 perc. Az oldal betöltéskor csak a db tartalmát jeleníti meg, nincs ilyenkor letöltés, mert erősen lassít, ha sok feedet kell feldolgozni. Az oldalak cachelve vannak, 5 perc után nyúl a db-hez.
A problémát ott látom, hogy több mint 100 feedet követek, és 5 perces a késleltetés. A cronos script úgy fut (percenként), hogy megnézi mennyi feed van összesen, ezt elosztja 5-el (esetünkben 100/5=20) és abban a percben 20 feedet kér le, és dolgoz fel (a lekérés random megy, tehát elméletben 5 perc alatt mind a 100 feed frissülni fog). Ez 100 feednél meg elmegy, de mondjuk 20 embernél fejenként 100 feeddel: 2000 feednél már percenként 400 lesz, ami gond. Persze ez a véglet, hogy mindenkinél más feed van.
Remélem nagyjából érthető.
5 perc szerintem még kibírható késleltetés. Hogy oldható meg, hogy nagyobb számú feednél is le tudjam kérni úgy hogy a szerver se dől össze? Vagy egyéb ötlet a megvalósításra? Nem mondom hogy ez a tökéletes megoldás, de jobb nem jutott eszembe.
A több vas alárakása egyelőre nem opció.
Egy ideje fejlesztek php/mysql-ben egy rss olvasót, mert böngészőst szeretnék, de nem találtam olyat ami tetszene. Mindegy :)
A kód saját szerverről fut, hozzáférek mindenhez, tehát nem a környezet hátráltat.
Ez elképzelésem az volt (és ez is valósult meg), hogy a megadott rss fájlokat lementem lokális cachebe (sima filecachebe), majd onnan kiparseolom ami kell, azt mentem db-be.
Egyrészt lesz keresés, másrészt szerintem gyorsabb, mint mindig előszedni és kiparseolni, harmadrészt pedig a folytatólagosság is szempont.
Az rss fájlok ugye limittel vannak, ha egy hétig nem töltöm le, akkor kiesnek a régi bejegyzések. Mivel nem szeretnék ilyen lyukat, ezért fut a cron, ami letölti az rss fájlokat, és átrakja a db-be, amire szükségem van. Az utolsó 200 bejegyzést tartom meg, így lyuk sincs, és visszamenőlegesen is jó időre megvan minden.
A db-ben mentem, hogy mikor volt utoljára lekérve, a cron csak akkor tölti le, ha régebben mint 5 perc. Az oldal betöltéskor csak a db tartalmát jeleníti meg, nincs ilyenkor letöltés, mert erősen lassít, ha sok feedet kell feldolgozni. Az oldalak cachelve vannak, 5 perc után nyúl a db-hez.
A problémát ott látom, hogy több mint 100 feedet követek, és 5 perces a késleltetés. A cronos script úgy fut (percenként), hogy megnézi mennyi feed van összesen, ezt elosztja 5-el (esetünkben 100/5=20) és abban a percben 20 feedet kér le, és dolgoz fel (a lekérés random megy, tehát elméletben 5 perc alatt mind a 100 feed frissülni fog). Ez 100 feednél meg elmegy, de mondjuk 20 embernél fejenként 100 feeddel: 2000 feednél már percenként 400 lesz, ami gond. Persze ez a véglet, hogy mindenkinél más feed van.
Remélem nagyjából érthető.
5 perc szerintem még kibírható késleltetés. Hogy oldható meg, hogy nagyobb számú feednél is le tudjam kérni úgy hogy a szerver se dől össze? Vagy egyéb ötlet a megvalósításra? Nem mondom hogy ez a tökéletes megoldás, de jobb nem jutott eszembe.
A több vas alárakása egyelőre nem opció.