expertenaustausch > comp.hardware.* > comp.hardware.misc

Kay Martinen (11.04.2019, 10:04)
Am 11.04.2019 um 00:53 schrieb Ulli Horlacher:
> Kay Martinen <kay> wrote:
> ZFS ist nicht clusterfaehig. Das letzte mal, als ich dachte, ich koennte
> das entsprechend konfigurieren hab ich ein 10 TB Volume zerschossen.
> Unrettbar.
> So viel zum Thema "ZFS is the definitive answer".


Vielleicht mißverstehen wir uns. Es ging doch auch um Dual-Host Zugriff.
Was ich meinte ist: Würde man heute statt 2 Hosts auf ein einzelnes
Array nicht eher zwei Hosts auf ein SAN setzen und dieses mittels ZFS
aufteilen und mittels Snapshots versionieren? Das wären dann zwei
Clusternodes. Oder bist du bei einer ganz anderen Baustelle (evtl.
Probleme bei der Zuordnung durch einen SAN Kontroller). Ich muß gestehen
das ich mich da nicht auskenne. So weiß ich z.b. nicht sicher ob ein SAN
die Dateisysteme selbst verwaltet... oder nur den rohen Plattenplatz.

Gut, ist für den Kleinen Bedarf sicher noch Overkill. Dachte mehr man
könnte auf dem Umweg Ideen zurück übertragen...

Kay
Michael Unger (11.04.2019, 16:25)
On 2019-04-11 10:04, "Kay Martinen" wrote:

> [...]
> [...] Ich muß gestehen
> das ich mich da nicht auskenne. So weiß ich z.b. nicht sicher ob ein SAN
> die Dateisysteme selbst verwaltet... oder nur den rohen Plattenplatz.


Eine Festplatte ist schlicht ein "random access block device"; daran
ändert auch eine Verschaltung mehrerer Platten (z.B. als RAID) nichts
Grundlegendes. Adressiert wird immer nur eine "logical block number".

Für diejenigen, die sich noch erinnern können: Ein Magnetband ist ein
"sequential access block device" (wobei die Blöcke unterschiedlich groß
sein können).

> [...]


Michael
Shinji Ikari (11.04.2019, 23:42)
Guten Tag

Michael Hagedorn <herr-hagedorn> schrieb

>Hier ist ein Manual, in dem man zB auf S.44 erkennen kann, wie man die
>Dinger als Stack aufbauen kann:
>


Das scheint zwar nicht von Dell zu sein, aber es ist sehr informativ
und ausfuehrlich.

>Dort ist in jedem Controller aber noch ein weiterer SAS-Port frei. Dient
>das nur zur Redundanz?


Mehr als das was in der Anleitung steht kann ich dazu nicht sagen.
Entweder Haendler oder Dell dazu befragen oder ausprobieren.
Ulli Horlacher (13.04.2019, 00:03)
Kay Martinen <kay> wrote:

> > ZFS ist nicht clusterfaehig. Das letzte mal, als ich dachte, ich koennte
> > das entsprechend konfigurieren hab ich ein 10 TB Volume zerschossen.
> > Unrettbar.

> Vielleicht mißverstehen wir uns. Es ging doch auch um Dual-Host Zugriff.


Ja. Genau damit hab ich das ZFS geschrottet.

> Was ich meinte ist: Würde man heute statt 2 Hosts auf ein einzelnes
> Array nicht eher zwei Hosts auf ein SAN setzen und dieses mittels ZFS
> aufteilen und mittels Snapshots versionieren?


Das ist logisch dasselbe. Ein SAN stellt ein logical volume zur
Verfuegung, das unter UNIX als block device auftaucht. Wenn du das nun von
zwei Hosts mountest, ist das ZFS drauf tot. Sofort und unwiderbringlich.
Kids, don't try this at home :-}

Zurueck zu VMS: da ging so was. Vor (mindestens) 35 Jahren!
Und es hatte brauchbare ACLs und Logicals, und und und...
Michael Hagedorn (15.04.2019, 17:04)
Am 13.04.19 um 00:03 schrieb Ulli Horlacher:
> Kay Martinen <kay> wrote:


> Das ist logisch dasselbe. Ein SAN stellt ein logical volume zur
> Verfuegung, das unter UNIX als block device auftaucht. Wenn du das nun von
> zwei Hosts mountest, ist das ZFS drauf tot. Sofort und unwiderbringlich.
> Kids, don't try this at home :-}

Ok, mir ging es ursprünglich auch um etwas anderes:
Ich wollte das Shelf unterteilen und von zwei Servern auf jeweils nur
eine Hälfte der Platten zugreifen, da ich nicht 12 Platten für ein ZFS
auf beiden Server benötige. Stattdessen wären wären 2x 6 Platten pro
Server mit (getrennte Dateisysteme und getrennter Zugriff) für mich
passender. Es ist halt nur leider weiterhin unklar, ob das mit diesen
Xyratex-Geräten überhaupt möglich ist. Es sieht ja alles danach aus,
dass das leider nicht geht.

Ähnliche Themen