Archívum - Jan 2008
január 16
Sun acquires MySQL
Érdekesen kezdődik az idei év, 1 milliárd dollárért kelt el a cég.
■ Automatikus letöltő script
Elősször is a lényeg: Vannak olyan oldalak, ahol a delikvens, ha ingyen akar letölteni, akkor bizonyos kényelmetlenségeket raknak az útjába. Ilyen a rapidshare, és a magyar fsx.hu is. Ez utóbbira szeretnék egy olyan scriptet csinálni, ami megkímél attól a szenvedéstől, amit az elszalasztott szálak jelentenek, végig megy egy linkekkel teli oldalon, ahol csupa fsx.hu-s link van és ezeket szépen sorjában letölti. (A http://sorozatok.co.nr-ről töltögetnék egyébként). Nah most én windowson mocorgok, és ezért, ha már fennt van alapon, a PowerShell-t használtam, ha már egyszer van .NET, akkor használjuk is...
Gyártottam is egy scriptet, ami majdnem működik. A gond csak az, hogy a második, vagy harmadik frissítésnél valamiért azt mondja nekem a szerver, hogy lecsúsztam a sorról, miközben még kb. 10 percig biztos hogy ilyen nem következhet be. Szóval közzétenném a scriptet, és ha valakinek van valami ötlete, azt szívesen várom. Tudom, hogy nem teljesen ennek az oldalnak a témája, de hátha akad valaki, aki tud segíteni.
[code]
$wClient = new-object System.Net.WebClient
$wClient.Headers.Add("user-agent", "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.0.3705;)")
$index_page = $wClient.DownloadString("http://seriesfree.users.smsbase.hu/letoltes.php?id=10978");
$pattern_matches = [regex]::matches($index_page, "<a href='(.*)' target", "IgnoreCase")
foreach ($match in $pattern_matches) {
$dlURL = $match.Groups[1].value
$pm = [regex]::matches($dlURL, "http://.*/(.*)", "IgnoreCase")
$fileName = $pm[0].Groups[1].value
$wClient.Headers.Add("user-agent", "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.0.3705;)")
$pageText = $wClient.DownloadString($dlURL)
$sID = $wClient.ResponseHeaders['Set-Cookie']
echo $sID
$wClient.Headers.Add("user-agent", "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.0.3705;)")
$wClient.Headers.Add("cookie", $sID)
Gyártottam is egy scriptet, ami majdnem működik. A gond csak az, hogy a második, vagy harmadik frissítésnél valamiért azt mondja nekem a szerver, hogy lecsúsztam a sorról, miközben még kb. 10 percig biztos hogy ilyen nem következhet be. Szóval közzétenném a scriptet, és ha valakinek van valami ötlete, azt szívesen várom. Tudom, hogy nem teljesen ennek az oldalnak a témája, de hátha akad valaki, aki tud segíteni.
[code]
$wClient = new-object System.Net.WebClient
$wClient.Headers.Add("user-agent", "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.0.3705;)")
$index_page = $wClient.DownloadString("http://seriesfree.users.smsbase.hu/letoltes.php?id=10978");
$pattern_matches = [regex]::matches($index_page, "<a href='(.*)' target", "IgnoreCase")
foreach ($match in $pattern_matches) {
$dlURL = $match.Groups[1].value
$pm = [regex]::matches($dlURL, "http://.*/(.*)", "IgnoreCase")
$fileName = $pm[0].Groups[1].value
$wClient.Headers.Add("user-agent", "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.0.3705;)")
$pageText = $wClient.DownloadString($dlURL)
$sID = $wClient.ResponseHeaders['Set-Cookie']
echo $sID
$wClient.Headers.Add("user-agent", "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.0.3705;)")
$wClient.Headers.Add("cookie", $sID)
Opera "double image" bug (?)
sziasztok,
egy rejtélyes hibával szembesültem és nem tudok rájönni, hogy vajon mi okozhatja? talán Ti tudtok segíteni! :)
Opera "double image" bug?
ez az oldal rendesen működik IE és FF alatt, azonban az Opera a második dobozban valamiért - számomra érthetetlen módon - megduplázza a képeket.
a kiváltó a "<br>" sortörés, de egyszerűen nem tudok rájönni, hogy hol lehet a hiba?
vagy ez vmi egyedi Opera-hiba lenne?
előre is köszi minden segítséget, Deck
■ egy rejtélyes hibával szembesültem és nem tudok rájönni, hogy vajon mi okozhatja? talán Ti tudtok segíteni! :)
Opera "double image" bug?
ez az oldal rendesen működik IE és FF alatt, azonban az Opera a második dobozban valamiért - számomra érthetetlen módon - megduplázza a képeket.
a kiváltó a "<br>" sortörés, de egyszerűen nem tudok rájönni, hogy hol lehet a hiba?
vagy ez vmi egyedi Opera-hiba lenne?
előre is köszi minden segítséget, Deck
hogy neveznétek: oldalméretű űrlap/képnéző
Azt kellene kitalálni, hogy mi a neve annak a feature-nek, amikor pl űrlap kitöltéshez áttetsző lesz az egész oldal, és azon jelenik meg az űrlap. Vagy ha képet nézek meg, az ugyanígy nem pop-upban ugrik fel, hanem marad az oldalon és ott jelenik meg ezen a felületen, ott lehet továbbgörgetni, vezérelni.
bocs a gagyi kérdésért, de nem tudok rájönni hogy mi a neve, milyen néven keressek rá. Egyáltalán: miből van? :)
sry
■ bocs a gagyi kérdésért, de nem tudok rájönni hogy mi a neve, milyen néven keressek rá. Egyáltalán: miből van? :)
sry
Egy táblában a GROUP BY és az összes rekord logikai különbsége.
Ha egy táblában, tételezzük fel egy rekord, azonosítóból, vezetéknévből és keresztnévből áll, egy GROUP BY keresztnev lekérdezéssel megkapom, hogy hány különböző keresztnév található a táblában.
Nekem olyan lekérdezést kellene lefuttatnom, ami az összes rekord és a GROUP BY keresztnév logikai különbsége, tehát azokat az azonosítókat adja eredményképpen, amelyekből több van.
pl.:
|azonosito|vezeteknev|keresztnev|
| 1 | Anda | Balázs |
| 2 | Balla | Tamás |
| 3 | Horváth | Jenő |
| 4 | Takáts | Balázs |
| 5 | Óh | László |
| 6 | Petroff | Jenő |
| 7 | Querty | Balázs |
Eredmény (azonosito):
1,4,7,3,6
De még az is jó lenne, ha minden azonosból az első azonosítót mekapnám, tehát:
1,3
Ha beleteszek egy COUNT(azonosito)-t a lekérdezésbe, akkor a rekord hordozza az információt, hogy a feltétel szerint belőle egy, vagy több van, csak ebben az esetben minden megfelelő rekord benne lesz a találatban, nem csak a többször előfordulók.
s_volenszki
■ Nekem olyan lekérdezést kellene lefuttatnom, ami az összes rekord és a GROUP BY keresztnév logikai különbsége, tehát azokat az azonosítókat adja eredményképpen, amelyekből több van.
pl.:
|azonosito|vezeteknev|keresztnev|
| 1 | Anda | Balázs |
| 2 | Balla | Tamás |
| 3 | Horváth | Jenő |
| 4 | Takáts | Balázs |
| 5 | Óh | László |
| 6 | Petroff | Jenő |
| 7 | Querty | Balázs |
Eredmény (azonosito):
1,4,7,3,6
De még az is jó lenne, ha minden azonosból az első azonosítót mekapnám, tehát:
1,3
Ha beleteszek egy COUNT(azonosito)-t a lekérdezésbe, akkor a rekord hordozza az információt, hogy a feltétel szerint belőle egy, vagy több van, csak ebben az esetben minden megfelelő rekord benne lesz a találatban, nem csak a többször előfordulók.
s_volenszki
8 More Design Mistakes with Account Sign-in
Gyakori tervezési hibák felhasználói azonosításnál
■ január 16
Fájl feltöltés a szerverre - de hogyan
Sziasztok!
A kérdésem az lenne, hogy hogyan tudok egy fájt HTML űrlapon és PHP-n keresztül feltölteni az egyik honlapom könyvtárába a szerveren. Azért kérdezem, hogy nem kell-e valahogy bizonygatni a szervernek, hogy jogosult vagyok a könyvtárba írásra és ha kell, akkor ezt hogyan tegyem?
Előre is köszi mindenkinek!
■ A kérdésem az lenne, hogy hogyan tudok egy fájt HTML űrlapon és PHP-n keresztül feltölteni az egyik honlapom könyvtárába a szerveren. Azért kérdezem, hogy nem kell-e valahogy bizonygatni a szervernek, hogy jogosult vagyok a könyvtárba írásra és ha kell, akkor ezt hogyan tegyem?
Előre is köszi mindenkinek!
CSS tömörítés YUI Compressorral
Sasvári József CSS strukturálási jegyzetéhez érkezett hozzászólások között igen jól körvonalazódott az a felismerés, hogy sokan – noha a közösség nem feltétlenül hű reprezentációja az aktív webfejlesztőknek – még mindig úgy törekednek a stíluslapok szerkesztésére, hogy az kompakt legyen, módszertanukban nem tesznek különbséget a forrásfájlok írása és azok későbbi felhasználásra szánt formátuma között. Egyszerűen csak lehet, hogy nem ismerik a YUI Compressort.