• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Die Bildungsoffensive hier im Forum geht weiter! Jetzt sollen Kreativität und technische Möglichkeiten einen neue Dimension erreichen. Das Thema in diesem Monat lautet - Verkehrte Welt - Hier geht es lang --> Klick

Größe Time Machine Disk wenn mehrere Nutzer über Mountain Lion Server backup

saschabur

Goldparmäne
Registriert
30.11.09
Beiträge
569
Ich hatte schon einmal die Frage gestellt, ob das Erstellen eines Bundles mehrerer Festplatten zur Erzeugung eines großen Timemachine-volumes sinnvoll ist. (Jein, weil ja doppelte Hardware die Ausfallwahrscheinlichkeit erhöht)

Dann frage ich mich aber, wie die großen Firmen ihre Timemachine-Volumes bereitstellen.
2 konkrete Fragen:

1) Ist es richtig, dass Mountain Lion Server selbst beim Anschließen mehrerer Harddisks als Timemachines nur *einen* Speicherort im Netz bereitstellt? Es geht also *nicht*, was alle meine Probleme lösen würde: User A backupt über den Server auf Drive A, User B auf Drive B?

1b) Wenn das so ist, wie verteilt Mountain Lion Server denn dann die Disks auf die Nutzer?

2) Wenn das nicht geht, wie bitteschön soll denn dann eine Firma 10 Usern eine Timemachine via Mountain Lion Server zur Verfügung stellen, wenn jeder 2 Terabyte sichern soll?

Danke für Eure Antwort
 
Zuletzt bearbeitet:
Ist es richtig, dass Mountain Lion Server selbst beim Anschließen mehrerer Harddisks als Timemachines nur *einen* Speicherort im Netz bereitstellt?

Nein. Die einzige Beschränkung, die es gibt, ist, dass es nur genau ein Time Machine-Ziel pro Freigabe geben kann. Die Anzahl der Freigaben ist aber unbegrenzt und Freigaben können beliebig auf Festplatten verteilt werden.

wie verteilt Mountain Lion Server denn dann die Disks auf die Nutzer?

Jeder lokale Administrator eines Clients kann auswählen, welches Sicherungsziel er für Time Machine auf diesem Computer verwenden will. Das kann eine lokale Platte oder eben irgendeine Time Machine-Freigabe auf irgendeinem Server sein. Danach sichert der Client-Computer auf dieses Ziel. Nutzer-Accounts spielen keine Rolle.
 
Danke für die Antwort. Hast Du das mal konkret so eingerichtet?
 
Bei Firmen gibt es sogenannte Cluster, auf denen ein LVM (Logical Volume Management) zum Einsatz kommt. Das heißt, es können x-beliebige (abhängig von der Hardware) Platten verbaut werden, deren Speicherplatz diesem LVM zugeordnet werden kann. Dadurch kann eine Freigabe auch im laufenden Betrieb an Größe gewinnen. ZFS ist z.B. ein Dateisystem, welches RAID-Funktionalität und ein Logical Volume Management mit sich bringt. ZFS unterstützt z.B. eine Größe des Dateisystems von 16 Exbibyte.

Gruß,

GByte
 
Ich hatte schon einmal die Frage gestellt, ob das Erstellen eines Bundles mehrerer Festplatten zur Erzeugung eines großen Timemachine-volumes sinnvoll ist. (Jein, weil ja doppelte Hardware die Ausfallwahrscheinlichkeit erhöht)

das Thema war speziell JBOD - das mit einem vernünftigen RAID-Level zu realisieren spricht nix dagegen. Kurz: wo TC als Ziel nicht mehr ausreicht, mache ich genau das mit QNAP-Devices. 4, 6, 8, 10, 12 Platten rein und per RAID-5 verschaltet und schon hast reichlich Platz für TimeMachine.

1) Ist es richtig, dass Mountain Lion Server selbst beim Anschließen mehrerer Harddisks als Timemachines nur *einen* Speicherort im Netz bereitstellt? Es geht also *nicht*, was alle meine Probleme lösen würde: User A backupt über den Server auf Drive A, User B auf Drive B?

Unterscheide TM für den Server und TM für die Clients bereitgestellt durch den Server! Ersteres ist tatsächlich genau ein Ziel weil via Systemeinstellung/TimeMachine eingestellt. Den Clientrechnern kannst - wie Marcel schon schrub - via Freigabe ein beliebiges TM-Ziel vorgeben (und via WGM auch remote managen).

2) Wenn das nicht geht, wie bitteschön soll denn dann eine Firma 10 Usern eine Timemachine via Mountain Lion Server zur Verfügung stellen, wenn jeder 2 Terabyte sichern soll?

Wenn Du eine zentrale Struktur qua Server unterhälst, stellt sich für mich die Frage, warum jeder der User 10 TB Daten auf seiner lokalen Maschine hat und wie viel davon redundant ist :o?

Der »übliche« Weg wäre IMHO:
* Homefolder kommen vom Server (-> zentrale Instanz die gesichert wird, kein Bedarf für lokale TM-Sicherung)
* gemeinsame Arbeitsdaten landen in entsprechenden Freigaben (-> wiederum: kommen vom Server, Server sichert)
* System und Programme liegen lokal. Wenn die Installationen (schon aus Supportgründen) halbwegs ordentlich standardisiert und normalisiert sind, reicht dafür eine »Masterplatte« die einmal aufgesetzt, regelmässig upgedatet und gepflegt wird um daraus bei Desaster einen Rechner per CCC wieder neu hochzuziehen.

Gruß Stefan
 
...um daraus bei Desaster einen Rechner per CCC wieder neu hochzuziehen.
Wofür gleich wieder bietet ein OS X Server die Funktionen "NetRestore" bzw "NetInstall"/"NetBoot" an?
Um sie durch 3rd-Party Toys zu ersetzen?
 
Der »übliche« Weg wäre IMHO:
* Homefolder kommen vom Server (-> zentrale Instanz die gesichert wird, kein Bedarf für lokale TM-Sicherung)

Grundsätzlich stimme ich zu und ich würde in allen Systemversionen vor 10.8 auch dazu raten.

Aber Mountain Lion besitzt im Moment leider mehrere kritische Bugs bezüglich zentraler Privatordner (ohne akzeptable Workarounds), so dass ich Verständnis habe, wenn man davon weggeht.
 
Hallo, vielen Dank für die ganzen ausführlichen Antworten.

Alle Daten zentral auf dem Server (MacMini) zu lassen, ist bei uns viel zu lahm. Wir haben momentan nur zwei MAcBookPro, die auf alle Daten zugreifen müssen. Es geht in erster Linie um Bildbearbeitung : da ist jedes Bild 12 MB gross, jeden Monat kommen davon mehrere Hundert dazu.. Der Katalog von Lightroom ist 1 GB groß, die Vorschaubilderdatei 100 GB : das ist in unserem Netzwerk viel zu viel. Die TM-Sicherung dagegen auch mal ein Nacht durchrattern lassen, das geht schon, und einer der beiden MBP wird hervorragend von der Timemachine ständig auf dem Server gesichert. Nur ist kein Platz für die Sicherung des anderen MBP, das wird mit einer ext Platte gesichert - leider viel zu selten, weil man das eben immer anschliessen muss.

Im übrigen sollen die Daten auch unterwegs zugreifbar sein, alleine deswegen geht das mit der zentralen Verwaltung der Daten auf dem Server schon nicht.


Das mit dem Zuweisen User A -> Timemmachine1 am Server und User B -> Timmeachine 2 am Server werde ich jetzt nochmal probieren, beim ersten Einrichten vor Monaten kann ich mich aber nicht erinnern, irgendwo eine Zuweisung "Welcher USer kommt auf diese erste Timemachine" vorgenommen zu haben.

Ich habe bis jetzt jetzt gezögert, einfach auszuprobieren, weil ich ja beim Anschliessen der externen TM-Platte des zweiten MBPs am Server die Platte neu formatieren muss und damit alle Sicherungen des zweiten MBP kaputt mache.

Denn die Timemachine-Sicherung als direkt am MBP angeschlossenes Laufwerk ist ja vom Server nicht weiterverwendbar, der will sich ja dieses sparesbundle anlegen und alles neu sichern.

Und bei allen meinen Recherchen im Net hatte ich nur Posts gefunden von Leuten, die eben niemals
User A -> TM A und User B-> TM B mit MOuntain Lion Server hinbekommen haben.

Aber ihr habt mich zu neuen Tests ermutigt , danke ;-)
 
Alle Daten zentral auf dem Server (MacMini) zu lassen, ist bei uns viel zu lahm. Wir haben momentan nur zwei MAcBookPro, die auf alle Daten zugreifen müssen. Es geht in erster Linie um Bildbearbeitung : da ist jedes Bild 12 MB gross, jeden Monat kommen davon mehrere Hundert dazu.. Der Katalog von Lightroom ist 1 GB groß, die Vorschaubilderdatei 100 GB : das ist in unserem Netzwerk viel zu viel.

so wie ich das verstehe, kopierst du da dateien zum book und wieder zurück.
du verwendest also den server als "auslagerung".
du solltest dir einmal klar sein, wie du deinen workaround in zukunft aufbaust.
wenn es so ist, wie ich glaube, arbeitest du ein wenig....wie im letzten jahrtausend.

alle arbeitsdaten gehören auf den server. immer!
nicht auf den client kopieren!
du bist ein bissl im aberglauben, mit der netzwerkgeschwindigkeit.
soferne du keine SSD in deinem book hast, wird der speed über das gigabit ausreichend sein.
oder was glaubst du, was deine interne platte "drückt"?

die home verzeichnisse am server würde ich wohl auch aussen vor lassen.
hab schon öfter gehört, das es mit MLS da massive brösel geben soll.

die TM geschichte ist eigentlich auch schon besprochen.

einzig......adobe will nicht so richtig mit den lightroom katalogen "mitspielen"

aber ich frage mich gerade, was du mit "großer firma" und "2 books" meinst SCNR
 
so wie ich das verstehe, kopierst du da dateien zum book und wieder zurück.
du verwendest also den server als "auslagerung".
du solltest dir einmal klar sein, wie du deinen workaround in zukunft aufbaust.
wenn es so ist, wie ich glaube, arbeitest du ein wenig....wie im letzten jahrtausend.

alle arbeitsdaten gehören auf den server. immer!
...
einzig......adobe will nicht so richtig mit den lightroom katalogen "mitspielen"

aber ich frage mich gerade, was du mit "großer firma" und "2 books" meinst SCNR

Hallo, nein, ich sagte doch, die Computer müssen ständig mobil bleiben, das Netzwerk soll eben nur Timemachine spielen und manchmal Zugriff auf eine alte FEstplatte mit alten archivierten Daten bieten.

Und mit große Firma meinte ich natürlich nicht mich. Ich fragte nur, wie die das eben in großen Firmen machen, wenn schon bei uns Winzlingen die TM aus allen Nähten platzt. Das wurde mir ja aber zwischenzeitlich erklärt.

Danke an alle für die Antworten!
 
Dadurch kann eine Freigabe auch im laufenden Betrieb an Größe gewinnen. ZFS ist z.B. ein Dateisystem, welches RAID-Funktionalität und ein Logical Volume Management mit sich bringt.

hat eigentlich schon irgendwer ZFS mit dem ML server....z.b. für die TM versucht?
 
ok....aber dann ist jetzt eh alles klar...oder?