Die Verwendung einer MS VSS zur versionierten Datensicherung halte ich für eher suboptimal. Die VSS funktioniert so lange es sich um kleinere Dateien im Homedir des jeweiligen Users kümmert und so lange eine gewisse Menge an Speicherplatz auf der Festplatte frei ist. Die VSS überschreibt ungefragt Dateien, wenn der Plattenplatz knapp wird, auch ist der Ordner "SystemVolumeInformations" in dem die VSS Kopien liegen, einer der ersten Angriffspunkte für Viren, eben weil sie wissen, dass dort die VSS Kopien liegen. Ich bin kein grosser Freund der VSS. So lange diese für jemanden funktioniert, kann sie ruhig weiter verwendet werden, aber aus persönlicher Erfahrungen heraus, kann ich diese Art der Datensicherung nicht empfehlen.
Da das jetzige System noch ziemlich neu ist, kann ich noch nicht so viel über die Datensicherung sagen, bislang wurde diese nämlich noch nicht gebraucht, *auf Holz klopf*

Momentan arbeite ich mit den Standardkonfigurationen für die Backups. Zum einen läuft der Server (Ubuntu 14.04 LTS auf Intel Xeon E3-1230 mit 8GB EEC-DDR3) auf einem Raid5 mit 5 Festplatten, hierdurch ist die Konsistenz des Systems gewährleistet. Hierzu läuft ein Skript das einmal im Monat den SMART Zustand der Festplatten abfrägt und zur Auswertung durch den Admin per Mail weiter leitet. HIerdurch kann ein Festplattendefekt frühzeitig erkannt werden. Zusätzlich läuft jede Nacht ein Backup des kompletten TM Ordners, momentan ca. 20 GB. Dieses Script komprimiert und verschlüsselt (GPG) die Daten, so dass diese auf zwei externen Festplatten abgelegt werden können. Die Datengrösse des Backup beläuft sich momentan auf nicht mal 7 GB pro Tag. Es werden die täglichen Backups aufbewahrt und zwar für das komplette Quartal. Zusätzlich stehen monatliche Backups der letzten 10 Jahre zur Verfügung. Die Kosten für Speicherplatz auf Festplatten sind einfach sehr viel günstiger als die Rekonstruktion von defekter Hardware durch Spezialfirmen. SSDs verwende ich liebend gerne, aber in den Clients. Momentan verwende ich Intel NUC Mini PCs mit SSD, die sind günstig zu bekommen und haben Leistung satt. Bieten alles was ich von einem Client erwarte und sind easy schnell neu aufgesetzt.
Momentan ist die Backup Strategie noch nicht optimal. Ich persönlich sehe hier noch einiges an Optimierungsbedarf. Als kommenden Schritt werde ich das Backup selber teilen. Daten die sich nicht ändern, wie die gescannten Dokumente sollen ein eigenes inkrementelles Backup bekommen. An den gescannten Dokumenten ändert sich nichts, weil entweder nur Dateien hinzu kommen oder weg fallen, aber in den Dateien ändert sich nichts. Mir schwebt hier eine wöchentliche Komplettsicherung und eine tägliche inkrementelle Sicherung vor. Dies ist auch der Bereich im Backup, an dem am meisten Platz gespart werden kann.
Die praxis.db sollte unter gar keinen Umständen inkrementell gesichert werden. Diese Art der Sicherung darf nur dann auf Datenbanken angewandt werden, wenn man in der Sprache der Datenbank sichert, also z.B. SQL bei einer MySQL Datenbank. Eine Datenbank wie die von Turbomed ist aber zu komplex um hier nur die Änderungen an der Datei zu sichern. Von der praxis.db werde ich auch in Zukunft, nur komplette Sicherungen aufbewahren, täglich.
Die Problematik mit den Viren im Backup ist mir bekannt und wurde auch schon mehrfach durchdacht, nicht nur hier sondern auch in anderen Umgebungen. Hierbei hat sich ein etwas seltsam anmutender Ansatz heraus kristalisiert. Dieses wird auch für jede Umgebung anders realisiert. Grundsätzlich laufen auf jedem Windows Client Virenscanner. Zusätzlich prüft der Linux Server selber bei jedem Zugriff nochmal mit einem Scanner und einer wöchentlichen Prüfung. Da niemals ein 100%iger Schutz zu gewährleisten ist wird man jetzt etwas risikoreich. Die allermeisten Viren, Würmer und Trojaner infizieren ausführbare Dateien oder versuchen über Schwachstellen im System, also z.B. MS Office Dokumente, einzudringen. Mit diesem Wissen und natürlich noch viel viel mehr Erfahrung, kann man jetzt die Backups vor dem zurück spielen auf die gesäuberten Systeme erstmal durchsuchen und entsprechend nur Daten zurück kopieren, die prinzipiell als sicher anzusehen sind. Hierzu zählt u.a. die praxis.db sowie die gescannten Dokumente, diese sind jpg und tif und diese Dateitypen können erstmal als sicher angesehen werden. Natürlich ist es in der Praxis nicht ganz so einfach, wie es sich hier erstmal darstellt. Aber die meiste Arbeit bei einem Virenbefall ist meist das Neueinrichten der einzelnen Arbeitsplätze und nicht die Entseuchung der Backups.
Es gibt für diesen Punkt noch eine Ausnahme und zwar die aktuell immer häufiger auftretenden "Erspressungs-Trojaner" die die Daten verschlüsseln und dann Geld erpressen zum entschlüsseln. Diese infizieren nicht die ausführbaren Dateien sondern legen sofort los, löschen u.a. die VSS Kopien und überschreiben die Festplatten. Während dessen schaut das System erstmal relativ normal aus für den User, die grosse Überraschung kommt häufig erst nach einem Neustart, also am nächsten Tag. Hier nützt nur ein konsequentes tägliches Backup, sofern die Datenmengen dies zu lassen. Mir ist leider ein Fall bekannt in dem es um ca. 20 TeraByte an Daten ging, da stossen auch die besten Backup Szenarien an ihre Grenzen.
So, jetzt hab ich mal wieder meine komplette Mittagspause hier geschrieben. Hoffe es ist verständlich und merkt was gemeint ist. Eins noch, meine Überlegungen sind natürlich auch nicht der Weisheit letzter Schluss und gerade das Thema Datensicherung ist ein sehr schwieriges. Es kommt immer auf das jeweile System vor Ort an, was am besten geeignet ist und ich freue mich immer über Verbesserungsvorschläge zu der von mir gewählten Taktik
