Kein Gut wächst schneller als Information, mehr als 5 Exabyte kommen jährlich neu hinzu, eine Menge, die dem 37000fachen der 17 Millionen Bände starken amerikanischen Library of Congress entspricht [1]. Deshalb sind Datenbanken als virtuelle Hochregale allgegenwärtig - in ihren Fächern lagern riesige Mengen unterschiedlichster Wissensware. Konservierte Artikel und solche mit kurzen Verfallszeiten, empfindliche, teure, seltene, geheime.
Umso wichtiger ist die Logistik. Es gibt auch im Open-Source-Bereich zahlreiche erprobte Systeme für die Daten-Lagerhaltung. Einer der prominenten Mitbewerber, ProstgreSQL, präsentierte gerade seine jüngste Release mit zahlreichen neuen Features. Darunter bessere Raumausnutzung, ein höherer Automatisierungsgrad, wirksamere Vorbeugung vor Lagerverlusten. Ausführliches dazu im Beitrag ab Seite 30.
Backup auf Bandroboter
Scanner lesen Barcodes vom Rücken der Bandkassetten, ein Maschinenarm steuert surrend einen Slot unter Hunderten an, pickt sich zielgerichtet ein Gigabyte-schweres Informationspäcken und füttert damit eins von Dutzenden Laufwerken. Nirgends wird das Bild vom Datenlager greifbarer als beim Blick in eine moderne Tape Library. Damit die Datenbank mit ihrem physischen Backend (dem Bandroboter) kommunizieren kann, bedarf es jedoch spezieller Software. Am Beispiel von Oracle stellt der Beitrag ab Seite 40 drei Module für das Online-Backup auf Bandsilos vor.
Übersetzungskünstler
Das ist der Alptraum jedes Lageristen: alles umräumen. Für einen Artikel ist das neue Fach zu schmal, für einen anderen lässt es sich gar nicht erst finden, ein dritter verliert sich in seiner Ablage. Ähnliches passiert, wenn ein Admin Datenbanken migrieren muss: Die Spaltentypen sind nicht ohne weiteres kompatibel, gleiche Namen stehen für verschiedene Formate. Ein neues Tool übernimmt die Rolle eines Dolmetschers für SQL-Idiome und verspricht Daten über die Sprachbarriere zu heben. Was es in der Praxis halten kann, verrät der Test ab Seite 52.
Je mehr Informationen auf Lager liegen, desto schwieriger wird das Wiederfinden. Vor allem kostet es Zeit. Wie man die Suche in den Beständen bereits mit Bordmitteln erheblich beschleunigen kann, untersucht der Artikel über das Oracle-Tunig ab Seite 44.
Der Einlagensicherung bei Datenbanken widmet sich der Beitrag ab Seite 36. Cluster verhelfen MySQL zu der Ausfallsicherheit, die in vielen Produktionsumgebungen erwartet wird. Zwei Produkte stellten sich dem Test.
In eine eigene Dimension entführt schließlich der Artikel ab Seite 55: Wissenschaftler am Deutschen Klimaforschungszentrum betreiben unter Linux eine Datenbank mit 120 Terabyte Volumen. Und das soll noch nicht das Ende der Fahnenstange sein, jetzt nehmen sie die Petabyte-Grenze in den Blick.