Shredded Storage – Was passiert jetzt mit dem SharePoint RBS?

Seit Microsoft den Shredded Storage für SharePoint 2013 herausgegeben hat, kursieren bei IT-Administratoren verschiedene Mythen und Gerüchte über Best Practices und die kombinierte Anwendung mit dem Remote BLOB Storage (RBS). So kommt es mitunter vor, dass RBS als Synonym für Shredded Storage verwendet wird. Man hört auch immer wieder, dass aufgrund der kleinen Datei-Chunks, der RBS-Grenzwert nie berührt wird, oder aber, dass Shredded Storage den RBS gar obsolet machen soll.
In diesem blog post soll mit einigen dieser Mythen aufgeräumt und Best Practice Empfehlungen gegeben werden, wie der Shredded Storage, auch in Kombination mit RBS , im Idealfall konfiguriert werden soll.
Wie der Name schon sagt, soll der RBS die Binary Large Objects (BLOB) aus dem SQL Server auslagern. Solche BLOBs lagen bisher als Image mit einem Dateilimit von 2GB in den Datentabellen des SQL. Seit Einführung des External BLOB Storage (EBS) und später des RBS, werden diese großen Daten im varbinary Format abgelegt. Ein Größenlimit wäre daher zwar nicht mehr nötig, aber aus Performance-Gründen behält Microsoft weiterhin das 2GB Limit für SharePoint Datenbanken bei.
Die Reduzierung der Datenbankgröße durch Auslagerung von Daten und die damit einhergehende Performance-Verbesserung waren Ziele des RBS. Nicht zuletzt, da der SQL Storage sehr teuer und ressourcen-hungrig ist. Die Idee dahinter war daher, große Dateien auf günstigere SANs, NAS‘ oder andere Datenträger auszulagern. Bis zur Einführung des Shredded Storage war das auch ein sehr guter Ansatz. Ein Grenzwert von 1MB galt dabei als Best Practice, um Dateien, die größer als dieser Grenzwert waren, aus dem SQL auszulagern.
Bei der Entwicklung des Shredded Storage hatte Microsoft sich hingegen folgende vier Ziele gesetzt:
1. Bandbreitenoptimierung
- nur noch Teile einer gesamten Datei müssen gesendet werden
- dies ermöglicht bzw. verbessert auch das Co-Authoring bei Office-Dokumenten
- durch kleinere Datenpakete werden die I/O Muster geglättet
- es wird realisiert, dass Schreib-„Kosten“ proportional zur Größe der Änderungen sind
- es werden weniger Änderungen an den SQL gesendet, was die Transaction Logs verkleinert und damit die Backup-Performance erhöht
- es werden nur noch Änderungen gespeichert, nicht erneut die gesamte Datei Sicherheit
- jedes Datei-Chunk wird einzeln verschlüsselt
- es ist nun schwieriger eine gesamte Datei mit einem PowerShell-Befehl auszulesen
- x > 12.5% der durchschnittlichen Dateigröße = mehr Schreiboperationen
- 6% < x < 12.5% = 10% auf Leseoperationen
- 3% < x < 6% = 20% auf Leseoperationen
- x < 3% = 50% auf Leseoperationen
- Gibt es viele (konkurrierende) Transaktionen?
- Wird Versionierung genutzt?
- Gibt es viele Microsoft Office Dokumente?
- Wird das Co-Authoring genutzt?
- Gibt es I/Ops und/oder Netzwerk Probleme?
- Gibt es viele sehr große Dateien (4+ MB)?
- Werden solche großen Dateien versioniert?
- Gibt es SQL Storage Probleme?
- Müssen Content-DB Backups schneller durchgeführt werden?
- Gibt es gleiche Dateien in mehreren Bibliotheken (und Deduplication soll genutzt werden)?
Robert Mulsow is VP of TSP EMEA at AvePoint, and a Microsoft P-TSP. Together with his previous experience at Microsoft, he specializes in SharePoint infrastructure and peripheral technologies SQL, Windows Server and Active Directory. As a Microsoft MVP and Certified Trainer for Office servers and services, he brings extensive experience in the field of consulting, implementation and troubleshooting.
View all posts by Robert Mulsow
Share this blog