- nur noch Teile einer gesamten Datei müssen gesendet werden
- dies ermöglicht bzw. verbessert auch das Co-Authoring bei Office-Dokumenten
- durch kleinere Datenpakete werden die I/O Muster geglättet
- es wird realisiert, dass Schreib-„Kosten“ proportional zur Größe der Änderungen sind
- es werden weniger Änderungen an den SQL gesendet, was die Transaction Logs verkleinert und damit die Backup-Performance erhöht
- es werden nur noch Änderungen gespeichert, nicht erneut die gesamte Datei Sicherheit
- jedes Datei-Chunk wird einzeln verschlüsselt
- es ist nun schwieriger eine gesamte Datei mit einem PowerShell-Befehl auszulesen
- x > 12.5% der durchschnittlichen Dateigröße = mehr Schreiboperationen
- 6% < x < 12.5% = 10% auf Leseoperationen
- 3% < x < 6% = 20% auf Leseoperationen
- x < 3% = 50% auf Leseoperationen
- Gibt es viele (konkurrierende) Transaktionen?
- Wird Versionierung genutzt?
- Gibt es viele Microsoft Office Dokumente?
- Wird das Co-Authoring genutzt?
- Gibt es I/Ops und/oder Netzwerk Probleme?
- Gibt es viele sehr große Dateien (4+ MB)?
- Werden solche großen Dateien versioniert?
- Gibt es SQL Storage Probleme?
- Müssen Content-DB Backups schneller durchgeführt werden?
- Gibt es gleiche Dateien in mehreren Bibliotheken (und Deduplication soll genutzt werden)?