Ich habe hier eine MySQL 4.0.24 Datenbank mit über 4 Millionen Einträgen in 37 Tabellen laufen.
Diverse Perl-Scripte arbeiten damit und machen teilweise auch html-Ausgaben, die sehr groß sein können.
Bestimmte Anfragen dauern dabei sehr lange, allerdings weiß ich nicht ob das die Datenbank, das Script oder der Browser schuld ist.
Beispiel: Eine Menge Infos holen, in einer Schleife zu einer html-tabelle machen und diese zeilenweise ausgeben.
Ich habe zwar gelesen dass Mysql mit sehr fetten Daten umgehen kann, allerdings muss das nicht bedeuten, dass Mysql dabei auch noch schnell ist.
Würde sich ein Wechsel zu Postgres 7.4.7 geschwindigkeitsmäßig lohnen?
(Neuere Versionen sind bei Debian stable nicht dabei)
Wir wollen auch mehr Ausfall-Sicherheit durch Replikation auf mehreren Rechnern haben. PG und Mysql können das, allerdings konnte ich noch nicht ausmachen, wie gut das bei den beiden klappt, da ich bei PG keine Doku dazu gefunden habe.
Kann dazu jemand was sagen?
Wie gut klappt die Migration? Bei PG ist ein Tool dabei, das von Mysql die Daten portiert, habe ich gelesen. Hat schon jemand damit gearbeitet?
Lesezeichen