• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Viele hassen ihn, manche schwören auf ihn, wir aber möchten unbedingt sehen, welche Bilder Ihr vor Eurem geistigen Auge bzw. vor der Linse Eures iPhone oder iPad sehen könnt, wenn Ihr dieses Wort hört oder lest. Macht mit und beteiligt Euch an unserem Frühjahrsputz ---> Klick

Mac OS X Server für kleines Unternehmen

McTom

Empire
Registriert
27.12.06
Beiträge
89
Hallo!

Für einen gemeinnützigen Verein möchte ich einen Server mit 5-10 Arbeitsplätzen einrichten. Dabei habe ich an folgende Konfiguration gedacht:

Der Server soll ein Mac mini Server mit Mac OS X 10.6 Server sein. Die Clients sollen ebenfalls Mac mini sein. Die Home-Verzeichnisse der Mitarbeiter sollen auf dem Server liegen, so dass die Arbeitsplätze flexibel eingesetzt werden können. Für die Verwaltung der Daten von ca. 5000 Kunden soll FileMaker eingesetzt werden. Der Server soll außerdem als Adressbuchserver so wie Kalenderserver dienen. Insgesamt soll das Budget von ca. 10.000 EUR nicht überschritten werden.

Nun meine Fragen:

1. Ist ein Mac mini Server eventuell zu klein dimensioniert um bis zu 10 Home-Verzeichnisse und deren gleichzeitigen Zugriff zu verwalten?

2. Wie kann man mit Mac OS X Server am besten Heim-Abreitsplätze realisieren? Gibt es eine Möglichkeit auf das eigene Home-Verzeichnis auf dem Server von zu Hause über das Internet zuzugreifen?

Zur Info: Ich beschäftige mich seit einiger Zeit mit Mac OS X Server im Heimbereich und habe bisher Erfahrung mit den Diensten AFP, DHCP, DNS, iCal, OpenDirectory, SMB und VPN.

Gruß, Tom
 

drlecter

Wöbers Rambur
Registriert
04.11.06
Beiträge
6.442
1. Der Mini Server ist für solche Fälle ideal und dafür auch auf den Markt gebracht worden. Das einzige was "knapp" werden kann, ist Plattenplatz. Also ein externes RAID anschließen und an die Datensicherung denken. Dann einen Gigabit Switch dran und das wars (im groben natürlich).
2. Du könntest den Leuten eine VPN Verbindung zum Server erlauben. Dann klappt das auch mit den Zugriff auf die Daten (auch wieder nur ein Lösungsansatz. Da muss man halt schauen wie das realisiert wird).
 

McTom

Empire
Registriert
27.12.06
Beiträge
89
Danke für die schnelle Antwort,

so in der Art habe ich es mir auch vorgestellt. Ist denn auch ein Anmelden auf dem Server (im eigenen Home-Verzeichnis) von zu Hause über das Internet möglich? So hätte man alle Einstellungen parat und könnte von zu Hause so arbeiten als ob man am Arbeitsplatz im Büro sitzen würde.

Gruß, Tom
 

stk

Grünapfel
Registriert
05.01.04
Beiträge
7.141
Moin,

die Lösung heißt »Mobiler UserAccount« - das serverbasierte HomeDir wird dazu auf den Rechner gespiegelt und bei Rückkehr ins Netz abgeglichen. Für den Zugriff auf gemeinsame Daten dann noch VPN dazu und fertig.

Gruß Stefan
 

McTom

Empire
Registriert
27.12.06
Beiträge
89
Moin,

ich habe das mit dem mobilen UserAccount folgendermaßen verstanden:

Ich bin im Büro und arbeite dort an meinem mobilen Rechner. Der Rechner befindet sich im lokalen Firmennetzwerk und mein HomeDir befindet sich sowohl auf meinem Rechner als auch auf dem Server. Die beiden Verzeichnisse werden synchronisiert sobald ich mich mit meinem mobilen Rechner im lokalen Büro-Netzwerk befinde.
Aber was ist denn nun wenn ich garkeinen mobilen Rechner habe und mit meinem Desktop von zu Hause aus auf mein HomeDir auf dem Server zugreifen möchte?

Gruß, Tom
 

Steinchen

Finkenwerder Herbstprinz
Registriert
15.04.10
Beiträge
470
Hi,

in der Windows-Welt geht man dazu über das mittlerweile rein nurnoch via Terminal, also Remotedesktop zu machen. Man virtualisiert entweder die kompletten Desktops (Desktopvirtualisierung) oder man lässt die Leute durch VPN bzw. RDP over SSL auf ihre Rechner in der FIrma zugreifen.

Vorteile:

- Loggt sich ein User via VPN ein und die Daten seines Homeverzeichnisses müssen gesynched werden kann das schonmal ein paar Stunden dauern, auch bei kleinen Datenmengen. (klein 50 oder 60 MB). - Terminalserver: Der User loggt sich auf seinem rechner auf der Arbeit ein, es wird lokal gesynched und es wird nur das Bild übertragen.

- Die Daten die gesynched werden verlassen das Unternehmen und sind am Ende auch außerhalb auffindbar. Soetwas zu sichern ist unter dem Gesichtspunkt des Datenschutzes nur mit hohem Aufwand möglich. - Terminalserver: Der Nutzer sieht nur das Bild, die Daten bleiben in der Firma.

- Vorteil Mobilität: Man kann sich auch mal eben schnell von unterwegs aus einloggen von irgend einem Rechner. Um das wirklich sicher zu machen brauch man allerdings OTP die als Teil des Gesamtpassworts agieren und somit ein Speichern der Passwörter auf dem jeweiligen Rechner unbrauchbar machen.

Es gibt aber auch Nachteile:

Damit die User auf die Rechner zugreifen können müssen diese laufen. Mindestens im Stromsparmodus, also Suspend to Disk oder Suspend to Ram damit sie via Wake on Lan oder durch den Zugriff von außen geweckt werden können.

Was ein Mac Mini im Stromsparmodus verbraucht kann ich nicht sagen, aber 5-10W pro Gerät werden es wohl sein.

Unterm Strich ist die Remotedesktop-Variante aber die saubere, billigere und vor allem perfomantere Art den Zugriff zu gewähren. Über die Sicherheit der Daten mal garnicht gesprochen.

cu
 

McTom

Empire
Registriert
27.12.06
Beiträge
89
Servus,

ich denke auch ,dass RemoteDesktop die beste Lösung ist. Was aber passiert in folgendem Fall?

Ich verbinde mich von zu Hause aus mit dem Firmennetzwerk per VPN. Anschließend will ich mich mit einem der Clienten per RemoteDesktop verbinden um mich dann am Server zu authentifizieren. Was ist wenn gerade dieser Client von einem anderen Mitarbeiter belegt ist? Muss es für jeden RemoteDesktop Zugriff von Außen ein Client im Büro vorhanden sein? Was genau ist Desktopvirtualisierung? ist das vielleicht des Problems Lösung?

Gruß, Thomas
 

Steinchen

Finkenwerder Herbstprinz
Registriert
15.04.10
Beiträge
470
Hi,

du musst genügend Rechner für alle Leute haben, damit alle gleichzeitig arbeiten können. Hast du weniger Rechner als Leute mit dem Wunsch zuzugreifen, dann hast du ein Problem.

Eine mögliche Lösung dieses Problems ist die Desktopvirtualisierung. Hierbei werden die Systeme, mit denen die Nutzer arbeiten, auf einem oder mehreren Servern virtualisiert vorgehalten. Das geht soweit das eine Serverfarm bei einer Anfrage auch mal schnell noch ein System von einem Image startet und diese damit bedient.

Der Vorteil ist halt das du die Systeme virtualisiert laufen hast, und das die Zugriffe der Leute über einen sog. Sitzungsbroker zu den jeweiligen Systemen weitergeleitet werden. Ist noch eine Sitzung offen, hat sich also jemand nicht abgemeldet sondern nur die Verbindung getrennt, erkennt der Broker das und verbindet wieder zur alten Sitzung.

Desktopvirtualisierung unter Mac OS X ist auch möglich, dazu brauchst du aber Apfel-Server mit Virtualisierung usw. und damit ist dein finanzieller Rahmen gesprengt.

Normalerweise kannst du das ganze ja so rechnen:

Sagen wir du hast:

- 20 Mitarbeiter
- 10 Rechner
- 1 Server

Davon arbeiten immer 12-13 Stück parallel.

Dann könntest du auch noch 2-3 Mac Mini in die Ecke stellen und als "Reserve" verwenden.

Dein Problem wird letztlich aber ganz woanders liegen:

Da du keinen Sitzungsbroker o.ä. hast, musst du jedem Nutzer mehr oder weniger einen Rechner direkt zuordnen und dabei dürfen keine Überlappungen entstehen, weil es sonst vom Aufwand her nicht mehr vertretbar ist, den Leuten beizubringen wie es funktionieren würde wenn "ihr" Rechner belegt ist.

Ob Mac OS X einen Terminalservice und dazu einen Sitzungsbroker anbietet weis ich nicht, aber ein SBS von Winzigweich könnte das. Außerdem weis ich nicht in wie weit die Mac Minis das können oder man noch zusätzliche Software braucht.

Lass dir gesagt sein das VNC zu langsam ist für ein angenehmes arbeiten. Hier sind RDP oder die Citrix Variante wesentlich schneller und angenehmer.

cu
 

McTom

Empire
Registriert
27.12.06
Beiträge
89
Hi,

danke für die ausführlichen Erläuterungen. Ich denke, dann wird folgende die beste Variante sein:

Das Unternehmen hat 10 Mitarbeiter von denen 2 gelegentlich auch von zu Hause arbeiten. Diesen 2 Mitarbeitern werde ich einen konkreten Büro-Rechner zuordnen. Für die restlichen Mitarbeiter von denen nie mehr als 4 gleichzeitig im Büro sind werde ich 4 weitere Arbeitsstationen aufbauen. So komme ich auch insgesamt 6 Arbeitsplatzrechner. Ist wohl am einfachsten so.

Lässt sich für den Remote Zugriff nicht auch die eingebaute Bildschirmfreigabe von Mac OS X benutzen?

Gruß, Tom
 

Steinchen

Finkenwerder Herbstprinz
Registriert
15.04.10
Beiträge
470
Hi,

die Bildschirmfreigabe von X ist doch iirc VNC. Ich denke das musst du einfach ausprobieren. Aus Erfahrung kann ich dir aber sagen das nichts nerviger ist, als auf den Aufbau des Bildes zu warten während man "flüssig" arbeiten möchte.

Außerdem solltest du auf eine entsprechende VPN-Lösung setzen (OpenVPN) und nur Layer 3 tunneln. Dadurch wirds wieder etwas schneller.

cu
 

McTom

Empire
Registriert
27.12.06
Beiträge
89
Hi,

ich würde es gerne zunächst mal mit Apple-Bordmitteln lösen. Wenn die Performance hinterher zu schlecht ist kann man ja noch etwas am System schrauben. Zunächst mal Danke für die ganzen Hinweise und Tipps.

Als nächstes habe ich ein paar Fragen zur Verwendung der beiden HDDs im Mac mini Server:

1. beide HDDS zu einem RAID 1 zusammenfassen, oder
2. System auf einer HDD laufen lassen und täglich auf die andere HDD clonen (z.B. mit Super Duper)?

Die Daten sollen auf ein externes RAID (via FireWire 800 angebunden).

Gruß, Tom
 

QuickMik

deaktivierter Benutzer
Registriert
30.12.05
Beiträge
5.193
ich würde einen spiegel machen.
backup brauchst du ja sowieso. da kannst du ja dann nicht nur das externe RAID sondern auch das system mit sichern.

als RAID kann ich dir als günstige/einfache/flotte lösung ein HYDRA von inXtron sehr empfehlen.
als backup noch 2 TAURUS (jeweils auch im RAID0 wenn es sein muß), damit man ein backup immer ausserhalb der location hat.

das wär´s eigentlich.
 

Steinchen

Finkenwerder Herbstprinz
Registriert
15.04.10
Beiträge
470
Hi,

leider hat der Mac Mini keine zwei Netzwerkkarten oder 10GBit/s sonst hätte man eine NAS dafür nehmen können.

Ansonsten würde ich mal drüber nachden nicht eh ne NAS zu nehmen die die User dann via LDAP am OSXServer authentifiziert. Kannst du dir wahrscheinlich viel Stress sparen indem du die Last vom Mini nimmst.

Und Backup würde ich mir nochmals zusätzlich was besorgen und wenns geht einmal die Woche ein Backup auf ne Platte die jemand mit nachhause nimmt, damit im Falle eins Einbruchs, höherer Gewalt, usw. der Kram trotzdem noch da ist.

Ich habe normalerweise einen Backupserver (Win2k8 mit Acronis oder BExec und nem großen Plattenarray) in nem anderen Gebäude stehen. Das sprengt aber wohl deinen Rahmen ;)

cu
 

McTom

Empire
Registriert
27.12.06
Beiträge
89
Ansonsten würde ich mal drüber nachden nicht eh ne NAS zu nehmen die die User dann via LDAP am OSXServer authentifiziert. Kannst du dir wahrscheinlich viel Stress sparen indem du die Last vom Mini nimmst.

Danke für den Tipp. Was für ein NAS würde denn für soetwas in Frage kommen? Können dann die HomeDirs auf dem NAS liegen und die Clients direkt auf ihre HomeDirs zugreifen ohne Umweg über den Server?

Die Konfiguration würde also folgendermaßen aussehen:

- Mac mini Server mit 2 500GB HDD im RAID1 mit System.
- NAS mit LDAP
- ein weiteres NAS für Backup (möglichst extern)

Hier fallen mir auch gleich noch ein paar weitere Fragen ein:

- wie wäre es denn mit einem OnlineBackup bei einem Hoster?
- wie sichere ich am besten die System HD des Servers? Habe mal gehört, das ein Server nicht so einfach zu sichern sei wie ein gewöhnlicher Desktop-Rechner...

Grüsse
 

Steinchen

Finkenwerder Herbstprinz
Registriert
15.04.10
Beiträge
470
Hi,

Danke für den Tipp. Was für ein NAS würde denn für soetwas in Frage kommen? Können dann die HomeDirs auf dem NAS liegen und die Clients direkt auf ihre HomeDirs zugreifen ohne Umweg über den Server?

Die Konfiguration würde also folgendermaßen aussehen:

- Mac mini Server mit 2 500GB HDD im RAID1 mit System.
- NAS mit LDAP
- ein weiteres NAS für Backup (möglichst extern)

Da ich mir vor kurzem eine QNAP TS-239 PRO II gekauft habe bin ich in der Frage nach einer neuen NAS etwas gefangen. Wenn du FreeNAS auf die QNAP machst, kannst du, wenns sein muss weit über 100 Platten von dem Gerät steuern lassen. Alle über eSata angeschlossen und im Raid bzw. ZFS RaidzX-Verbund gemanaged. Entgegen der normalen Firmware lassen sich auch die externen Platten bei der FreeNAS-Firmware im Raid betreiben. Es gibt aber auch eSata-Gehäuse für mehrere Platten mit eingebautem Raid.

iScsi ist auch möglich. Genauso wie die Authentifizierung gegen einen LDAP-Tree oder Active Directory.

Die "kleine" TS-239 Pro II hat 1 GB Ram und einen Dual Core Atom und bringt beim Schreiben locker 35MB/sec, was also mehr als ausreichend sein sollte. Mit 2x2TB Platten ist da auch genügend Platz vorhanden.

Die Homeverzeichnisse kannst du dann auch auf die NAS legen, muss halt nur entsprechend konfiguriert werden dann.

Hier fallen mir auch gleich noch ein paar weitere Fragen ein:

- wie wäre es denn mit einem OnlineBackup bei einem Hoster?
Rechnen wir mal schnell und optimistisch nach:

200 GB Daten müssen einmal die Woche komplett, ansonsten nur die Differenz zum letzten Komplettbackup gesichert werden. Wir sichern Sonntags einmal Alles komplett. Als Internetzugang haben wir eine 16 MBit/s DSL-Leitung mit 1 MBit/S Upstream:

Um von Gigabyte auf Kilobytes zu kommen brauchen wir den Faktor 1048576 (1024*1024):

200 * 1048576 = 209715200 KBytes

Die Geschwindigkeit im Upstream beträgt brutto, und wir lassens bei brutto, 1MBit/s, also 1.000.000 Bit/s was, geteilt durch acht, 125.000 Bytes entspricht, also rund 120KByte/s.

Nehme ich jetzt die Menge an Daten und setze ganz optimistisch voraus das es ohne Probleme und dauerhaft mit errechneter Geschwindigkeit läuft hätte ich:

209715200/120 = 1747627 Sekunden die es dauern würde die Daten zu transferieren.

Das sind rund 29127 Minuten oder 485 Stunden bzw. 21 Tage.

Wenn du Glück hast, ist dein Backup dann übertragen. Ich denke die Frage hat sich damit erübrigt ;)

- wie sichere ich am besten die System HD des Servers? Habe mal gehört, das ein Server nicht so einfach zu sichern sei wie ein gewöhnlicher Desktop-Rechner...

Grüsse
Das ist eine gute Frage. Ich tendiere in solchen Fällen immer zu Images. Allerdings musst du beim erstellen eines Images dafür Sorge tragen das alle Daten auf die Platte geschrieben wurden und die Datenbanken in diesem moment "offline" sind.

Microsoft hat das mittlerweile gut gelöst indem beim erstellen eines Snapshots ein Ereignis an die Dienste abgesetzt wird und diese die Datenbanken konsistent auf die Platte stellen können. Andere anbieter machen es über eigene Tools damit es gewährleistet ist. Wie es bei Mac OS X aussieht -> keine Ahnung.

Der Vorteil eines Images ist halt das du _ALLES_ sofort am Stück gesichert hast und nicht jeden Fitzel manuell zusammensuchen musst. Gerne vergisst oder übersieht man etwas bzw. hat das Problem das nach einem Crash die Wiederherstellung, wegen der Abhängigkeiten, ewig dauert und es mit einem Image nach 10 Minuten erledigt gewesen wäre.

Unter OS X ein Image von der Hauptplatte zu erstellen kannst du mit dd bewerkstelligen.

cu
 

QuickMik

deaktivierter Benutzer
Registriert
30.12.05
Beiträge
5.193
Die "kleine" TS-239 Pro II hat 1 GB Ram und einen Dual Core Atom und bringt beim Schreiben locker 35MB/sec, was also mehr als ausreichend sein sollte. Mit 2x2TB Platten ist da auch genügend Platz vorhanden.

Die Homeverzeichnisse kannst du dann auch auf die NAS legen, muss halt nur entsprechend konfiguriert werden dann.
also 35MB/sec. würde ich nicht gerade als "ausreichend" bezeichnen. 65-70 schon eher.
und wenn ich darüber nachdenke, ob ich mich drüber traue, die home verzeichnisse auf ein anderes AFP volume zu legen, das nicht mal ein mac os im hintergrund hat...wo man über netatalk irgendein älteres AFP fährt........würde ich wahrscheinlich zum ergebnis kommen, das ich nicht darüber nachdenken werde.
man muß sich seine brösel ja nicht auch noch selbst züchten.
wie wir alle wissen, ist theoretisch zwischen theorie und praxis kein unterschied.....praktisch aber schon.

die qnap teile hab ich mir auch gegeben. mich stört aber, das dort die mac unterstützung weit nicht so gut ist, wie bei synology.
wenn man jetzt nur an filesharing denkt, ist es sicher besser, sich gleich ein performantes NAS zu kaufen.
da kann ich das neue synology DS1010+ sehr empfehlen. bin ja eigentlich kein verfechter von NAS systemen, weil die alle immer sau langsam sind.
dieses teil drückt allerdings bis zu 100MB/sec. kein scherz !
das macht durchaus sinn.
wenn man allerdings an mehr als filesharing denkt, würde ich nicht vom os x server abrücken.
schon garnicht, wenn es um home verzeichnisse geht.

und die geschichte mit 10GBIt netzwerk, die angesprochen wurde, finde ich in dem zusammenhang auch ein wenig weit her geholt.
kein mac hat eine 10GBit netzwerkkarte und die NAS systeme die derartiges haben, werden wohl preislich sehr sehr sehr weit weg sein.
da spreche ich jetzt allerdings nicht mehr von thecus und konsorten. weil es bei diesen teilen nicht mal sinn macht eine 10Gbit schnittstelle einzubauen. da spielen wir dann in einer ganz anderen liga, wo man mit 5000€ in der hand, nicht weit genug springen kann.

nur als beispiel. eine günstige 10GBit karte für einen macpro kostet ca. 1300€.
ein mini inkl. osx server kostet 1000€

jetzt sollten wir uns dann doch überlegen, worüber wir hier sprechen.

wir könnten ja auch einen "tim taylor ...harharhar" thread aufmachen, wo jeder seine fetteste oder teuerste hardware postet :)
ob das jemandem hilft, der einen mini als server im kopf hat, ist eine andere frage.

heben wir ab...oder bleiben wir noch am boden der realität ?
jemand der über 10GBit netzwerk nachdenkt, braucht sich keine gedanken mehr über eine macosx server hardware machen.
der kostet dann ein "lärcherl" dessen, was das rundherum verschlingt.

my2cent
mike
 

Steinchen

Finkenwerder Herbstprinz
Registriert
15.04.10
Beiträge
470
also 35MB/sec. würde ich nicht gerade als "ausreichend" bezeichnen. 65-70 schon eher.
und wenn ich darüber nachdenke, ob ich mich drüber traue, die home verzeichnisse auf ein anderes AFP volume zu legen, das nicht mal ein mac os im hintergrund hat...wo man über netatalk irgendein älteres AFP fährt........würde ich wahrscheinlich zum ergebnis kommen, das ich nicht darüber nachdenken werde.
man muß sich seine brösel ja nicht auch noch selbst züchten.
wie wir alle wissen, ist theoretisch zwischen theorie und praxis kein unterschied.....praktisch aber schon.

Die Frage wie das Verzeichnis letztlich angebunden wird wurde ja noch garnicht beantwortet. Auch iSCSI stellt eine Option dar, welche auch HFS+ als FS unterstützt. Und geshared würde das ganze von Mac Mini Server und nicht direkt von der NAS.

die qnap teile hab ich mir auch gegeben. mich stört aber, das dort die mac unterstützung weit nicht so gut ist, wie bei synology.
wenn man jetzt nur an filesharing denkt, ist es sicher besser, sich gleich ein performantes NAS zu kaufen.
da kann ich das neue synology DS1010+ sehr empfehlen. bin ja eigentlich kein verfechter von NAS systemen, weil die alle immer sau langsam sind.
dieses teil drückt allerdings bis zu 100MB/sec. kein scherz !
das macht durchaus sinn.
wenn man allerdings an mehr als filesharing denkt, würde ich nicht vom os x server abrücken.
schon garnicht, wenn es um home verzeichnisse geht.
Ja sicher werden hier Geschwindigkeiten jenseits der 100MB/Sec erreicht, aber mit welchen Voraussetzungen?

Jumbo-Frames, iSCSI, Raid-0 Stripe über alle Platten, Channelbonding usw. Das hier 100MB/Sec kein Problem sind ist schon klar.

Mit ZFS, RaidZ,mehreren Pools und Datasets bringt das auch die Synology nicht mehr.

Auch halte ich in dem Bereich dauerhafte Geschwindigkeiten jenseits der 50MB/Sec für mehr als übertrieben. Das sind Consumerzahlen damit man möglichst der tollste, beste, whatever ist. Labor halt, und wie du selber schon geschrieben hast:

"wie wir alle wissen, ist theoretisch zwischen theorie und praxis kein unterschied.....praktisch aber schon."

In einer normalen Umgebung sind die Dinger auch nicht schneller, zu mal die Hardware die gleiche ist.

Und 35MB/sec bei konkurrienden Zugriffen auf einem RaidZ1 Volume mit drei Platten ist ein angenehmer Wert.

Keine Jumbo-Frames, kein iSCSI, nur AFP 3.1 auf ZFS mit RaidZ1.

und die geschichte mit 10GBIt netzwerk, die angesprochen wurde, finde ich in dem zusammenhang auch ein wenig weit her geholt.
kein mac hat eine 10GBit netzwerkkarte und die NAS systeme die derartiges haben, werden wohl preislich sehr sehr sehr weit weg sein.
da spreche ich jetzt allerdings nicht mehr von thecus und konsorten. weil es bei diesen teilen nicht mal sinn macht eine 10Gbit schnittstelle einzubauen. da spielen wir dann in einer ganz anderen liga, wo man mit 5000€ in der hand, nicht weit genug springen kann.

nur als beispiel. eine günstige 10GBit karte für einen macpro kostet ca. 1300€.
ein mini inkl. osx server kostet 1000€

jetzt sollten wir uns dann doch überlegen, worüber wir hier sprechen.

wir könnten ja auch einen "tim taylor ...harharhar" thread aufmachen, wo jeder seine fetteste oder teuerste hardware postet :)
ob das jemandem hilft, der einen mini als server im kopf hat, ist eine andere frage.

heben wir ab...oder bleiben wir noch am boden der realität ?
jemand der über 10GBit netzwerk nachdenkt, braucht sich keine gedanken mehr über eine macosx server hardware machen.
der kostet dann ein "lärcherl" dessen, was das rundherum verschlingt.

my2cent
mike
Den Gedanken spinnend das man die Platten via iSCSI anbindet, weil dies noch schneller als Firewire wär, ist es garnicht so abwegig zwei Netzwerkkarten zu einem Bond zusammenzufassen um mehr Geschwindigkeit zu haben, bzw. die NAS direkt via Netz anzubinden. Leider bietet der Mac Mini keine zwei Karten bzw. die angesprochene 10 GBit/s-Karte womit diese Option wohl weitestgehenst ausfällt.

Denn ich kann mir nicht vorstellen das es mit einer Gigabit-Karte, auch im Vollduplex, wirklich Spaß macht die Daten einmal über den Mac laufen zu lassen.

Das ist dann halt die andere Seite eines Mac Mini Servers. Sieht schön aus, hilft aber nix wenn ich keine weitere Hardware einbauen kann. Und komm mir jetzt niemand mit USB2Net-Adaptern oder eSata-nach-aussen-legen-gebastel. Brauch man in so einer Umgebung echt nicht.

Daher erscheint es doch sinnig das oben angesprochene Problem nochmal zubeäugen und evtl. doch ein AFP-Share mit Homeverzeichnissen auf der NAS einzurichten. Mac OS X nutzt in HFS(+) auch nur Posix ACLs und die Unix berechtigungen die sich mit ZFS ebenso abbilden lassen. Und AFP 3.1 ist zu 3.3 jetzt auch nicht soooo der Sprung. Ok, die TC-Unterstützung fehlt.

cu
 

QuickMik

deaktivierter Benutzer
Registriert
30.12.05
Beiträge
5.193
also ich bin schon durchwegs bei dir. iSCSI ist auch geil usw.
und wie du schon richtig sagst, der mini hat "nur" eine netzwerkschnittstelle.
darum denke ich, sollte man über iSCSI nicht nachdenken.
das RAID sollte an den FW800.

ach ja, hab mit aja system test benchmarks gemacht, weil man ja was zum herzeigen braucht.
wenn es dich interessiert, kann ich dir das mailen.

ich bin keine macup, macwelt oder sonst ein mac heft redakteur und schreibe testberichte von marketingunterlagen ab....
weil mir das knowhow zum selber testen fehl o_O

war ohne trunking (kann mein switch garnicht) und RAID5.
und die frames hab ich auf und ab geschraubt.
aber das teil kommt trotzdem zu den 100MB hin.
ich bastel mir auch kein RAID0, nur damit ich sehe, wie flott es vielleicht sein kann.
unter den gleichen gegebenheiten hab ich meine eigene Buffalo TS III getestet (es steht faktisch daneben).
ich glaube, du gibst mir recht, das auch dieses gerät nicht gerade müll ist.
allerdings drückt das nur 18-22MB/sec.

naja, ist ja auch schon ein wenig älter.
wir wissen ja, was das in der IT branche ausmacht.
 

McTom

Empire
Registriert
27.12.06
Beiträge
89
Um nochmal auf meinen Fall zurück zu kommen. In dem Unternehmen für das das System konzipiert werden soll werden keine großen Daten wie Bilder oder gar Videos heumgeschoben. Es geht um die Verwaltung des Unternehmens, der Mitarbeiter und der Daten von ca. 5000 Kunden. Dazu kommen noch Services wie Adressbuch und iCal. Ich habe vor FileMaker Server bzw. FileMaker Pro als Datenbank einzusetzen.

Die Performance spielt natürlich schon eine Rolle, aber das ganze System sollte auch noch transparent und nicht zu verschachtelt sein. Ich denke mal, dass es am meisten Sinn macht das System (MAC OS X 10.6 Server) auf den beiden Platten im Mac mini Server (im RAID1 Verbund) laufen zu lassen und die restlichen Daten wie Homeverzeichnisse und FileMaker Datenbanken auf einem per FireWire angeschlossenen RAID (vielleicht ein Promise SmartStor DS4600 mit 4 x 1TB im RAID 5).

Bietet sich als Backuplösung für das externe RAID nicht auch die TimeCapsule an? Den Server selbst würde ich täglich auf eine externe Platte clonen.

Alles was darüber hinausgeht würde den Kostenrahmen sprengen. Ob die Leistung des Mac mini am Ende ausreicht wird wohl erst der Praxistest zeigen.... oder gibt es eine Möglichkeit dies schon vorher abzuschätzen??

Gruß, Tom
 

QuickMik

deaktivierter Benutzer
Registriert
30.12.05
Beiträge
5.193
das teil ist wirklich sauschnell. und für diesen einsatzzweck sicher ausreichend. es fliegen keine fetten megadaten herum usw.
filemaker quält den auch nicht. beim backup würde ich eher augenmerk auf "das mitnehm backup" legen.
sprich min. 2 backup versionen und eines davon ausser haus. entweder täglich oder wöchentlich tauschen.
die timecapsule ist da AFAIK nicht zweckmäßig. TM speichert auf server volumes (auch auf AFP server) alles immer in sparsec images.
diese sind dann auch noch in kleine stücke zerbröselt....mal einfach erklärt.
da kann TM den server schön in die knie zwingen, wenn das system wieder gerade ein 50MB image paket schnürt....
und das macht der dann laufend.
da würde ich eher auf FW800 setzen.