ugrás a tartalomhoz

Archívum

december 19, 2020

HTTP

inf · 2020. Dec. 19. (Szo), 12.42
Érdemes átnézni az oldal által tárolt adatokat, és megváltoztatni, ha már HTTP-vel megy az egész. Én pl kaptam ma egy ransomot az itt használt jelszóval, igaz más helyeken is használtam már azt a jelszót, szóval nem tudni honnan szivárgott ki, de a lényegen nem változtat, hogy itt titkosítatlanul megy minden... Lassan itt hagyom én is az oldalt.
 

december 5

Docker - nem csak én vagyok paranoiás (?)

mind1 valami név · 2020. Dec. 5. (Szo), 17.22
https://www.admin-magazine.com/News/Canonical-Launches-Curated-Container-Images

Gondolok itt erre: "You never know if you're going to pull down an image that contains vulnerabilities or malware."
Ez valahogy mindig bennem van, valahányszor nem tudok valamit alpine-ra magam bekonfigolni és egy az adott szoftverhez készült image-et töltök le és indítok el.
 

december 4

postgres - insert into ... select - megadott sorrendben

mind1 valami név · 2020. Dec. 3. (Cs), 23.22
Na ezzel mit kezdjek?
Van egy táblám, másodperc alapú timestamp mezővel, plusz egy olyan mező, ahol ugyan van egy sorszám, de ez a táblát író program újraindulásakor resetelődik.
Ha időrendben akarom látni a sorokat, akkor SELECT * FROM ... ORDER BY timestamp,sorszam; paranccsal tudom lekérdezni azokat. (A sima timestamp nem elég, mert másodpercenként több sor is keletkezhet)

Az a gondom, hogy felvennék a táblához egy BIGSERIAL típusú mezőt, de ugye ezt egy sima ALTER TABLE ... ADD COLUMN nem töltené fel. Jobb ötlet hiányában létrehoznék egy új táblát, a meglévő oszlopokkal+a bigserial mezővel és egy
INSERT INTO ujtabla SELECT * FROM regitabla ORDER BY timestamp,sorszam; paranccsal vinném át az új táblába. Gyönyörűen feltölti a bigserial oszlopot, csakhogy a sorrend nem stimmel, hiába az order by az insert selectjében. Olyan, mintha csak a timestamp alapján rendezne.
Hogy tudnám átmasolni a sorokat úgy, hogy jó sorszámokat kapjanak a másolatok?
Tényleg muszáj programot írni rá?
 

november 28

Érdemes volt docker-re váltani...

mind1 valami név · 2020. Nov. 28. (Szo), 14.52
https://www.docker.com/blog/what-you-need-to-know-about-upcoming-docker-hub-rate-limiting/
Rosszindulatú vagyok, ha feltételezem, higy rövidesen használhatatlanná válik a legtöbb szolgáltatás az anonim userek és a regisztrált, de nem fizető userek számára?

Most ugye beállítottak egy átlagos, fejlesztéssel nem nagyon foglalkozó felhasználó számára elfogadható limitet.
Valamiért úgy érzem, ezek a limitek lassan egyre szűkebbek lesznek.

Ráadásul, dilettantizmus csúcsa: ha jól értem, ők az anonim felhasználókat IP cím alapján azonosítják. Ergo, ha van mondjuk tíz-tizenöt natolt ügyfél egy szolgáltatónál, azok könnyen szopóágra kerülhetnek már most is, főleg, ha különböző image-eket próbálgat valaki.
 

november 21

Mobilra háttérben futó push notification

inf · 2020. Nov. 21. (Szo), 10.45
Az érdekelne, hogy FCM-en kívül van e valami alternatív megoldás mobilra? Nagyjából 10 percenként kéne lekérni egy IP címről, hogy volt e event. Az alkalmazást csak én használnám, úgyhogy nem látom értelmét, hogy emiatt domaint és SSL-t regisztráljak, meg még franc tudja, hogy mi minden kell neki...
 

november 18

console.log() függvény nem fut

TheQuest · 2020. Nov. 18. (Sze), 16.49
Javascript

A console.log() függvény működésére van szükségem.

Forrás Kód:

<!DOCTYPE html>
<html>
<head>
<meta charset= "utf-8">
<title> hello </title>
</head>

<body>

console.log("Hello World!");

</body>
</html>


Egyetlen böngészőben(Chrome) sem fut, csak kiírja a teljes sort

"
console.log("Hello World!");
"

Mi lehet az oka?
 

november 17

Android mobilt usb-vel csatlakoztatva idegen PC-hez biztonságos

Atomi · 2020. Nov. 17. (K), 17.53
Üdv!


Ma a telefonomon lévő pdf-et rá kellett tennem egy munkahelyi gépre, usb kábellel csatlakoztam, beállítottam a file átvitelt, bementem a letöltés mappába és onnan kinyomtattam valamit. Ilyenkor ugyebár írási-olvasási jog van egyes mappákhoz.

A kérdésem, hogy mihez fér hozzá ilyenkor a PC?

Azaz lehet, hogy titokban a fényképeket átmásolja a rendszer a telefonról?


Vagy ami még durvább lenne: az emaileket meg tudja nézni, a jelszavát le tudja szedni, vagy ezek zárt területen vannak egy usb-s csatlakozás során?

Egyrészt az érdekel, hogy egy Windows 10-es alaphelyzetben mihez fér így hozzá.

Másrészt, ha van valami program a PC-n, akkor az mihez (nyilván elvileg bármihez, ha olyan jó a program, de...)
 

november 13

regex YML file-ban, adatként

mind1 valami név · 2020. Nov. 13. (P), 17.17
Hogy a ...ba lehet yml fájlba adatként írni speciális karaktereket tartalmazó sorokat?

Van egy fájlom, ami harminc-negyven python által feldolgozható regex-t tartalmazó sorból áll.
Szeretném áttenni az egészet egy yml formátumú konfig fájlba, de nem megy, mert a yaml parser hülyét kap tőle.

^... .. ..:..:.. \S+ nat: apply nat rules \(/tmp/nat_rules_ppp0_eth0\),
^... .. ..:..:.. \S+ rc_service: check_watchdog 269:notify_rc restart_watchdog$,

Ilyesmi adatok vannak benne.
Ilyet szeretnék:

host-neve:
filter:
- ^... .. ..:..:.. \S+ nat: apply nat rules \(/tmp/nat_rules_ppp0_eth0\)
- ^... .. ..:..:.. \S+ rc_service: check_watchdog 269:notify_rc restart_watchdog$

Amiből szeretném, ha kapnék egy tömböt, ami a host nevekből áll, amelynek vannak filter nevű tömb elemei, amelyek a fenti sorokat tartalmazzák:
eredmeny_tomb['host-neve']['filter'] = ['^... .. ..:..:.. \S+ nat: apply nat rules \(/tmp/nat_rules_ppp0_eth0\)','^... .. ..:..:.. \S+ rc_service: check_watchdog 269:notify_rc restart_watchdog$']
Amíg csak sima textfájlban tartom ezeket, addig semmi gond, de mivel teli vannak spec. karakterekkel, köztük aposztróf, idézőjel, backslash, kettőspont, mínusz jel...
Nem igazán tudom úgy formázni, hogy a yaml parser elfogadja.

Van valakinek ötlete?
Az egyik érzékeny pontja a :, de ezt sem \:, sem :: formában nem eszi meg.
Idézőjelbe és aposztrófok közé sem tehetem a teljes sort, akkor a \ miatt sír és a \\ sem jó neki.
 

november 1

PostgreSQL - használja valaki?

mind1 valami név · 2020. Nov. 1. (V), 09.39
Háttér: a log szerveremmel, merő hobbiból, adatbázisba akarom pakolni a logjaimat. Nézegetem a különböző opciókat (mysql, postgresql, illetve a nosql adatbázisokat) és bár sokan ajánlották korábban a nosql irányt, valahogy nem győzött meg amit eddig láttam.

Szóval postgres... Mivel a szekvenciális írás nem elsődleges szempont egy RDBMS esetében, nekem szent meggyőződésem volt, hogy minden adatbázis kezelő úgy tárolja az adatokat, mint az oracle(tette régen, manapság nem tudom, mi a jellemző) : hagy helyet az egyes lapokon a későbbi update-ek számára. Hát a postgres nem...

Mennyire jellemző, hogy aki postgresql-t használ, a create table-nek megad storage paramétert? Ugyanis most szembesültem azzal, hogy a postgres 100%-os töltést használ default paraméterekkel. Magyarán, ha egy sor adatait modosítani kell, akkor az egész sort át kell helyezni fizikailag.
SSD-k korában persze ennek csak az update-nél van komolyabb jelentősége, de hdd-ken tárolt adatbázisoknál rengeteg plusz I/O művelettel járna.
 

október 26

5.5.65-MariaDB kérések várakoznak, nem teljesülnek

sandrosdj · 2020. Okt. 26. (H), 14.55
Sziasztok!

Adott a 5.5.65-MariaDB adatbázis szerver (CloudLinux repo-ból, CentOS7).
Több féle szerveren is fut, különböző beállításokkal, de a közös az, hogy gyakran leáll az egész és csak "killall -9 mysqld" használata után lehet újra elindítani, mert a systemd le sem tudja állítani.

Ilyenkor a process list tele van "Opening tables" és "Waiting for query cache lock" státusszal rendelkező sorral/kéréssel.

Egyszerűen nem találok rá megoldást sehol. Minap találtam egy lazy drop problémát, de nem vagyok bele előrébb, mert 5.5.30-tól az már javítva van.

Mit próbáljak meg, hogy megoldódjon ez a probléma?

Full alap CentOS konfigja van a szervernek, akkor is előjön ez az issue.

Egyébként ez a "custom" konfig, amivel ki van egészítve és így is előjön (pedig bíztam benne hogy az innodb_buffer_pool megoldja):

[mysqld]
join_buffer_size = 8M
table_open_cache = 1000
open_files_limit = 65536
max_connections = 800
wait_timeout = 600
interactive_timeout = 600
max-allowed-packet = 1G
max-connect-errors = 10000000
symbolic-links = 0
tmp_table_size = 8M
max_heap_table_size = 8M
skip-name-resolve
key_buffer_size = 8M
innodb_buffer_pool_instances = 2
query_cache_size=256M
query_cache_type=2
query_cache_limit=16M
innodb_buffer_pool_size=6G