Seite 5 von 5
Verfasst: Montag 30. Juli 2007, 22:56
von lapins
@hw cachen auf laptop zu hause:
mangels doku weiß ich nicht wie tm den zugriff auf die daten durchführt, wenn man es als EIN-Platz System fährt. (Grundeinstellungen MEHRPLATZBETRIEB=NEIN)
Das Cachen - wie beschrieben- funktioniert mit MEHRPLATZBETRIEB=JA.
Dazu muss auch auf dem Laptop zu Hause der Fastobject-prozess gestartet
sein.
Nach dem Befehl rödelt es eine Weile bis die DB geladen ist und dann zischen alle Auswertungen.
Bislang gab es trotz automatischer täglicher shutdowns + start in der Nacht und versehentliche Strom-weg-vorfälle keine Datenverluste.
Alternative, wenn der PC oder Laptop zu Hause leider nicht genug Memory
besitzt also ca 256 + db-größe :
-Schnelle USB Sticks kaufen (Speedvergleiche siehe
http://www.alternate.de/html/shop/produ ... USB-Sticks&)
zb 4GB mit 15MB/s write um ca 56€
- praxisdb dorthin kopieren
- ptserv.cfg ändern wie folgt wenn g: zb der USB Stick ist
...
name=C:\TurboMed\Dictionary
[databases\PraxisDB]
name=g:\TurboMed\PraxisDB
[databases\PraxisBackup]
name=g:\TurboMed\PraxisDB\Backup
[schemata\StammDict]
...
und dann ebenfalls staunen, wie schnell die erweiterten Suchen funktionieren können.
Der Geschwindigkeitsvorteil ergibt sich, wie in diesem Forum bereits beschrieben aus der "fehlenden" Zugriffszeit, also keine
Armbewegungszeit und keine Rotationsverzögerung,
wie es bei Platten auftritt, wenn nicht schon alles gecached ist.
Mfg RLapins
Verfasst: Sonntag 24. Februar 2008, 08:18
von a_engels
Sehr geehrte Kollegen,
Ich habe mir das Backupscript hier im Forum angesehen. Aufgrund der Wichtigkeit der Daten kann ich davon nur dringend abraten.
Warum?
1.) Es wird nicht überprüft, ob sich die Datenbank in einem Zustand befindet, der ein konsistentes Backup zulässt (man stelle sich vor, dass sich die Parameter für TMAdmin ändern, die Datenbank aktiv ist und sich während es Backups ändert..).
2.) Die kopierten Dateien werden nicht dahingehend überprüft, ob sie mit dem Original identisch sind.
3.) Es wird keine Warnmeldung verschickt, falls etwas schief gegangen ist. Stellen Sie sich vor, Sie verlassen sich über Jahre auf einen Backupmechanismus, der gar nicht funktioniert.
Wir haben eine Software selbst programmiert, die folgende Schritte ausführt. Es wird jeder Schritt auf Erfolg überprüft:
1.) Stoppe den Datenbankdienst.
2.) Überprüfe, ob ptserv32 noch läuft -> Datenbankkonsistenz
3.) Verbinde mit Remotecomputer (smb Protokoll)
4.) Kopiere Dateien
5.) Erstelle MD5 Prüfsumme von Original und Ziel und vergleiche. Hier werden CPU, RAM und Festplatte des Quell- und Ziel-PCs überprüft. Wir haben durch diesen Test schon einen Hardwarefehler aufspüren können.
6.) Starte Datenbank
7.) Überprüfe, ob Datenbank läuft
Alle Schritte werden permanent in eine Logdatei geschrieben. Sollte ein Fehler auftreten, so wird eine Email verschickt.
Bestünde Interesse an der Software in diesem Forum? Wir setzen diese Software seit mehreren Jahren erfolgreich ein.
Viele Grüße
Verfasst: Sonntag 24. Februar 2008, 08:43
von Geigenberger
... dann habe ich wohl über Jahre Glück gehabt. Ich habe schon mehrmals die kopierte Datenbank auf einen anderen Rechner übertragen: Funktionierte stets problemlos.
Der Vorteil dieser Datensicherung ist ja gerade die Tatsache, dass im _laufenden_ Betrieb Datensicherungen vorgenommen werden können.
Theoretisch könnte man also alle 2 Stunden eine Datensicherung automatisiert während des Sprechstundenbetriebes ablaufen lassen. Und wenn es doch 'mal schiefgehen sollte, dann nehme ich eben bei der evtl. nötigen Rücksicherung die Daten von vor 4 Stunden. Ist meist immer noch aktueller als die Sicherung des Vortags.
Bin schon gespannt, was die Experten dazu sagen.
A. Geigenberger
Verfasst: Sonntag 24. Februar 2008, 09:28
von a_engels
Hallo Herr Geigenberger,
Das Script ansich ist auch in Ordnung, die Kritik ist nur, dass an keiner Stelle auf Erfolg überprüft wird.
z.B. könnte sich der Pfad von TMadmin.exe oder dessen Parameter beim nächsten Update ändern. Das Script würde einfach weiterlaufen, ohne zu meckern -> hier müsste man schauen, ob TMadmin einen Status zurückgibt und diesen auswerten. (Wir beenden den Datenbankserver, prüfen, ob der Prozess nicht mehr existiert und können dann von einem konsistenten Momentbild ausgehen - es spricht aber nichts gegen TMAdmin mit Statusauswertung).
Oder irgendeine Komponente ist fehlerhaft (da gibt es unzählige Möglichkeiten..CPU, RAM, HDD, ..) und die Zieldatei stimmt überhaupt nicht mit der Quelle überein.
Oder noch ein Beispiel: der Netzwerkpfad ändert sich und sie denken nicht daran, das Script umzustellen.
Bei den oben genannten Konstellationen sind dann mitnichten nur ein paar Stunden Arbeit verloren sondern eben bis zu dem Zeitpunkt der letzten erfolgreichen Sicherung.
Pause-Befehl am Ende der Backup-Batch
Verfasst: Montag 25. Februar 2008, 07:05
von wahnfried
Hallo,
ein Pause-Befehl am Ende der backup-Batch mit TMAdmin führt dazu, daß das DOS-Fenster mit den Meldungen offen bleibt, bis man es mit einem Tastendruck schließt.
Vorher kann man die Meldungen lesen. Wenn zuletzt fünfmal das korrekte Beenden des Backupmodus für die Datenbanken gemeldet wird, ist die Spiegelung korrekt abgelaufen, was den Datenbankzustand betrifft. Sollte dort ein Fehler gemeldet werden, weil ein weiterer Arbeitsplatz gleichzeitig gespiegelt hat (hier bisher einmal in einem halben Jahr aufgetreten), läßt man die Spiegelung einfach nochmal laufen.
Auch kann man sehen, ob sich eine Datenbank fälschlicherweise vor der Spiegelung im Backupmodus befand und ob dies beim Beenden von TMAdmin behoben worden ist (falls nicht: Rechner herunterfahren...)
Weiter oben in den Meldungen wird berichtet, wieviel Dateien kopiert wurden, da werden auch Fehler gemeldet.
Wenn man "blind" arbeiten möchte, weil die Helferinnen es sonst zu kompliziert finden, kommentiert man die Pause aus oder entfernt den Befehl, kann sie bei Bedarf wieder aktivieren oder hinzufügen...
Die Überprüfung der korrekten Übertragung ist allerdings interessant, wenn auch aus meiner Erfahrung nicht dringend erforderlich, sofern ich den Clienten auch im Einzelplatzmodus benutze (dann fällt die fehlende Konsistenz sofort auf).
Ihre Software kostet?
Viele Grüße, Wahnfried
Verfasst: Montag 25. Februar 2008, 11:55
von a_engels
Ich hatte an 20 €/Lizenz gedacht, weil ich schon noch etwas Zeit investieren müsste, um die Software "massentauglich" zu machen.
Verfasst: Dienstag 26. Februar 2008, 18:24
von uro_fs
@a_engels:
Das Problem Ihrer Lösung ist, dass in dieser Zeit NICHT gearbetet werden kann, d.h. ein Backup ist NUR nach Feierabend möglich - denn keine Praxis kann es sich leisten, alle 2 Stunden 10 Minuten die Arbeit am PC einzustellen.
Aber genau das geht mit TMadmin sehr wohl automatisiert, so dass kontinuierlich gesichert werden kann und ein Datenverlust dadurch minimal wird.
Am Abend kann man dann Ihr Skirpt nehmen oder auch die TM-eigene Backup Lösung wählen, welche auch die Sicherung noch prüft.
Gruss
fs
und mit
robocopy c:\daten f:\backup /MIR /MON:5
kann man robocopy ohne nennenswerten Ressourcenverbrauch dazu bewegen, z.B. den Dokumenteordner zu überwachen und 5 (bzw. gewählte Anzahl von Änderungen diese zu aktualisieren
so würde im Extremfall
robocopy c:\daten f:\backup /MIR /MON:1
jede neue Datei gleich auf einen anderen Rechner spiegeln können ohne Benutzereingriff
Verfasst: Mittwoch 27. Februar 2008, 03:35
von a_engels
@uro_fs: Offensichtlich liegt hier ein Missverständnis vor. Ich sagte bereits, dass gegen die "TMAdmin Methode" nichts einzuwenden ist, solange ein Statuscode überprüft wird. Dies allein reicht aber für ein konsistentes Backup auch nicht aus. Ich hatte die Punkte aufgezählt.
Ich habe die TMAdmin-Methode übrigens inzwischen in meine Software integriert, da ich sie auch für sehr sinnvoll erachte.
Verfasst: Mittwoch 27. Februar 2008, 03:59
von a_engels
Ich habe für das Utility einen eigenen Thread mit Beschreibung und Screenshots eröffnet:
http://www.vondoczudoc.de/viewtopic.php?t=998
Re: USB-Stick
Verfasst: Samstag 4. Januar 2014, 14:45
von tom.stein
uro_fs hat geschrieben:mein Stick hat einen Durchsatz von 12 Mb/Sek. - ein 100Mbit-Netzwerk schafft meist effektiv zwischen 6 und 8 Mbit/s Durchsatz.
12 MB/s Schreibgeschwindigkeit ist schon ein sehr guter und schneller Stick - viele Sticks machen da (dann oft aus guten Gründen) leider keine vernünftigen Angaben.
Das Netzwerk schafft natürlich
6-8 MB/s (Megabyte/s) oder
bis zu ca. 10% der Nominalleistung. Kabelqualität/Kabellängen, Qualität und Auslastung der Switche und Netzwerkkarten sowie sonstiger Netzwerkverkehr beeinflussen dies natürlich etwas. Üblicherweise sind Gigabit-Switche selbst in 100-Mbps-Netzwerken schneller als 100-Mbps-Switche (besserer Chip/Prozessor), aber in den meisten Netzwerken ist das nicht mehr relevant.
uro_fs hat geschrieben:Im TM-Betrieb "zieht" ein Arbeitsplatz zwischen 0.04 und 0.1 Mbits/s (aus Trafficüberwachung ermittelt), d.h. der maximale Datendurchsatz ist nicht das Problem, sondern die Zugriffszeit und die liegt bei optimalen Platten bei 5 ms, bei normalen Platten bei ca. 9-11 ms, und bei "einfachen" USB-Platten bei 13+ ms. Die Zugriffszeit eines Sticks ist etwa 500x geringer - und keine mechanischen Teile!
Bei einer Datenbank im Speicher ist die Zugriffszeit der Festplatte kein Thema. Wichtiger wird da das Caching - das ist für USB-Sticks normalerweise ausgeschaltet, und dann wartet die Datenbank auf das Ende des Schreibvorgangs! Lieber eine USV nehmen und verbieten, den Stick ohne "Auswerfen" zu ziehen - und dann den Schreibcache aktivieren. Bei USB-Festplatten ist das Caching oft bereits aktiviert (wenn die Festplatte sich als Festplatte und nicht als Stick zu erkennen gibt).
Zu erwähnen wäre noch, das normale USB-Sticks nur eine relativ geringe Anzahl Schreibzugriffe zulassen - durch interne Maßnahmen des Controllers sind es effektiv ja mehr Schreibzugriffe, je größer der Stick (bzw. der nicht ständig neu beschriebene Teil) ist. Und inzwischen ist natürlich USB 3.0 unbedingt empfehlenswert.
Aus heutiger Sicht kann ich jedem Anwender nur raten, die Datenbank auf eine interne SSD zu legen und genügend Hauptspeicher einzubauen - da findet Turbomed seinen Turbo wieder.
Tom