PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Datenredundanz , gibts da eine Weltformel ?



JoelH
30-11-2001, 10:48
Ab wann sind redundante Daten sinnvoll, gibts ein Formel like :
sinnvollgrad = CPUspeed*aufrufe - Datenmenge/Speicherplatz
ein Beispiel :
Ich hab eine Seite Statistik, die wird 100x im Monat aufgerufen, diese seite erzeugt sehr viel Belastung für den SQL Server und den php Interpreter, weil eine Statistik darüber erzeugt wird welcher User wieviel Beiträge insgesamt erstellt hat. Diese werden jedesmal neu berechnet durch abzählen in der DB. Eine Möglichkeit die Last zu reduzieren wäre es eine Tabelle an zu legen mit der Anzahl der Beiträge der User . Diese müsste dann von der Statistikpage nurnoch sortiert werden. Allerdings ist da die Frage ob es sich lohnt, erstmal braucht es, at least, eine Spalte mehr in der Userliste und jedesmal wenn ein Beitrag erstellt wird ist ein Ausruf mehr in der DB, diese Zahl ist ja recht hoch im vergleich zur Anzahl der Aufrufe der Statistikpage.
Was mich jetzt interessieren würde ist eben die theoretische Anzahl von Aufrufen die man haben muss um die Extradatenmenge zu rechtfertigen, bzw. ab wann ist die Performace da um die Daten zu rechtfertigen ?
Esd gibt doch für alles irgendwelche Formeln von irgendwelchen irren Benchmarkern, gibts das auch hier ?

geronet
30-11-2001, 13:41
Wie wärs mit einer eigenen Statistik-Tabelle, die du regelmäßig aktualisierst (cron-job). Die ist dann nicht 100% aktuell, aber wenn du nur 1xtäglich aktualisierst, kannst du die Belastung bereits auf 1/3 reduzieren.
Bei Statistikabfragen durch die user gibts du dann nur die Tabelle aus, das geht sehr schnell.

JoelH
30-11-2001, 14:07
nun, ja bei einem Liveboard ist das ein wenig doof, naja und es ist halt noch genau die Frage was besser ist, ich meine das war ja nur ein Beispiel, es geht mir allgemein darum was wann sinnvoller ist, was weiss ich, zB. ab 10000 Datensätzen pro Aufruf ist eine eigene Tabelle performanter wenn die Userzahl nicht gegen unendlich geht.

Mir gehts mehr um die wissenschaftliche Theorie des ganzen Themenbereichs. Denn es ist nunmal so dass man Daten eigentlich durch die Normalisierung der Tabellen 'einzigartig' halten soll, nur ist es eben so dass manchmal eine paar Daten doppelt die Arbeit vierteln. Naja und da such ich irgendwie Anhaltspunkte für point even.