crowi wrote:welche Vorteile bringt die -c Flag gegenüber Timestamp/Größe?
Verlangsamt das bilden der Checksummen nicht den ganzen Kopierprozess?
Der Vorteil ist, daß du hinterher auf beiden Systemen tatsächlich den gleichen Datenbestand hast.
Und irgendwie ist das ja auch der Sinn eines Backups
Im Ernst: Timestamp/Größe ist kein 100% sicheres Kriterium.
Das erste Mal ist mir das bei einem Truecrypt-Container aufgefallen.
In älteren Truecrypt-Versionen behielt der Container immer das gleiche Dateidatum, und die Größe bleibt bei TC-Containern immer gleich, d.h. der Container wurde nur ein einziges Mal gebackupped, wenn der Parameter -c bei rsync nicht gesetzt war.
In späteren TC-Versionen konnte man es dann konfigurieren, ob ein TC-Container nach dem Aushängen ein neues Dateidatum bekommen sollte.
Die Problematik kann aber z.B. auch bei Fotos auftreten. Hier setzt man gerne das Dateidatum auf das Aufnahmedatum des Bildes. Wenn man dann die EXIF oder IPTC Daten der Bilder verändert (Verschlagwortung), dann hat man hinterher eine Datei gleicher Größe und gleichen Datums, aber unterschiedlichem Inhalt. Auch für diverse Datenbanksysteme könnte diese Szenario zutreffen.
Das kann man zwar alles als Sonderfälle betrachten, aber meiner Erfahrung nach, können einem diese Sonderfälle echte Probleme bereiten, wenn man sie nicht beachtet. Besonders, wenn man Systemkopien anlegen möchte.
Es ist übrigens keine spezifische rsync-Macke, das Problem haben sämtliche Dateikopierprogramme (auch xcopy, robocopy und Konsorten).
Wenn ich große Datenbestände abgleichen möchte, mache ich idR einfach zwei rsync-Durchläufe. Einen ohne den -c Parameter, und einem mit diesem Parameter.
Natürlich dauert das dann insgesamt länger, aber das hängt auch davon ab, ob man die Features von rsync richtig nutzt.
Dabei ist von Belang, auf welches Medium man abgleicht.
Wenn ich z.B. auf eine lokale USB-Platte abgleiche, dann muß beim zweiten Durchlauf der Rechner tatsächlich
beide Dateisysteme vollständig lesen und miteinander vergleichen. Dabei würde man aber auch fehlerhaft abgespeicherte Daten entdecken (meine Meinung zu USB-Festplatten dürfte bekannt sein). Dennoch ist die Methode besser, als alles komplett neu rüberzuschieben. Außerdem kann man so immer noch hocheffektive Backups mit Hardlinks durchführen.
Gleicht man aber gegen ein NAS ab, auf dem ein rsync-Server läuft, dann arbeiten beide Systeme Hand-in-Hand, und das geht erheblich schneller (weil beide Systeme den eigenen Bestand checken, und dann nur die Prüfsummen übers Netz gehen).
Mit der Methode (2xDurchlauf) nutze ich den Vorteil einen immens schnellen Abgleichs, der 99,9999% der Dateien betrifft, und habe mit dem 2. Durchlauf (den ich bei Bedarf auch einfach mal abbrechen kann) eine 100% Abdeckung. Damit brauche ich mir dann auch keine Gedanken darüber machen, ob irgendwelche Anwendungen auch immer der Dateidatum updaten.
Das ist natürlich auf ein Worst-Case Szenario ausgerichtet. Wenn man
absolut exakt weiß, daß Timestamp/Größe als Kriterium ausreicht, dann geht das auch ohne den -c Parameter. Aber dafür muß man sich tatsächlich damit auseinandersetzen.
Hupps, das ist schon wieder etwas lang geworden, deswegen spare ich das Thema Datenreduzierung lieber mal aus
Grüße
Princo