ugrás a tartalomhoz

Archívum - Feb 23, 2012

Understanding technical debt

Joó Ádám · 2012. Feb. 23. (Cs), 22.41
A technológiai adósság
 

Letölthető a vadiúj Apache 2.4 webkiszolgáló

Hidvégi Gábor · 2012. Feb. 23. (Cs), 21.06
Jelentős előrelépést igér a teljesítmény és a rugalmasság terén
 

Akadálymentes súgószöveg űrlapmezőkhöz

Szántai Károly · 2012. Feb. 23. (Cs), 21.05
Hogyan lehet egy űrlapmező és a hozzá tartozó súgószöveg akadálymentes kapcsolatát megteremteni?
 

node szerü tartalom mentése db-be

Kubi · 2012. Feb. 23. (Cs), 10.54
Sziasztok!

Ezt inkább vitatémának szánom, mert tudok rá megoldást, kettő megoldást (ha valaki tud egy harmadikat, ne tartsa magában) és megtudom találni melyik a legjobb :)

A cél: csm tartalom mentése adatbázisban, a cms oldalon lévő "slotokat" a felhasználó adhatja meg admin felületen, úgy mint szöveges mező, cím mező, kép mező, szám mező stb. A megadott template-el ezek lesznek megjelenítve.

A form/template/tipus megvalósítását most hagyjuk, adatbázisban az egyes oldalak elmentésére koncentrálok.

két lehetséges megoldáson gondolkozok, a 2-at részesítem előnyben:

1. megoldás, fő tábla node, erre vannak adattípusonként csatolva táblák, úgy mint node_string, node_integer, node_real, node_text, node_date, node_datetime stb.

előny: db-ben kevesebb helyet foglal a 2. megoldáshoz képest
hátrány: keresés megvalósítása bonyolultabb, egyes slot tipusoknál tárolnom kell, hogy milyen adattipus tartozik hozzá (bonyolítja a megvalósítást, 2. megoldásnál elég csak validálni az adatot)

2. megoldás, fő tábla node, erre van egy tábla node_content csatolva, amiben egy longtext mező tárolja az adatot és fulltext index van rátéve a kereséshez.

előny: nagyon egyszerű és gyors a keresés
hátrány: kisebb adatok (pl: szám, dátum) is egy longtext mezőbe írjuk bele, adatbázisban tárolás szempontjából ez így csúnya
----

mindkét esetben kérdéses a sebesség, leginkább a keresés sebessége, tesztelni fogom mondjuk 1 millió adattal (200.000 node, mindegyikhez 5 adattipus), fulltext search miatt a 2. talán gyorsabb lesz, nem tudom ekkora adat mennyiségnél hogy viselkedik...