AEK18: Große Datenmengen (Theodor Weidmann)

Letzte Änderung am 31. Oktober 2015 by Christoph Jüngling

Wie groß ist “groß”? Bei Datenbanken ist in der Regel die Anzahl an Datensätzen relevant. Ein Problem könnte dabei die 2-GB-Grenze sein. Theodor spricht über Access-Datenbanken mit Dateigrößen von 1, 50 und über 800 MB. Megabyte! Da wundert es sehr, dass in einem Buch die Aussage steht, Access würde immer zuerst alle Daten von einer Serverdatenbank lokal herunterladen und erst dort die Auswertung durchführen. Offenbar ist dies auch eine in Managementetagen oft gehörte Begründung, weswegen Access auf keinen Fall zum Einsatz kommen könne. Statt dessen lädt auch Access diese Informationen sehr gezielt, indem es zunächst über den Index die erforderlichen Datensatzkennungen ermittelt und dann nur diese Menge über das Netzwerk lädt. Das kann natürlich nur dann funktionieren, wenn für jedes Feld, über das eine Abfrage filtern will, auch tatsächlich ein Index existiert. Insofern ist — wie erwartet — das Datenbankdesign entscheidend für die Geschwindigkeit. Hier gibt es die beiden favorisierten Modelle “Star” (eine zentrale Tabelle, viele davon abhängige) und “Snowflake” (“zerfaserte” Struktur).

Gerade beim Anlegen einer Tabelle, was bei Import von Textdateien in neue Tabellen regelmäßig vorkommt, legt Access aufgrund seiner Voreinstellungen automatisch gewisse Indizes an. Um dies zu kontrollieren, sollte entweder die Tabelle strukturell bereits vorbereitet sein, oder die entsprechende Automatik in den Optionen abgeschaltet werden. Beim Import großer Datenmengen kann es überdies vorteilhafter sein, die Indizes einer Tabelle vorab zu löschen, um sie nach erfolgreichem Import wieder zu aktivieren. Auch regelmäßiges “Reparieren und Komprimieren” könnte eine sinnvolle Vorgehensweise sein.

Ähnliche Artikel:

Schreibe einen Kommentar

Deine Email-Adresse wird nicht veröffentlicht.

18 + 16 =