X

Neuigkeiten, Best Practices, Hinweise auf Events zu Oracle Solaris auf Deutsch.

Solaris Cluster 4.4 in VirtualBox (5) - Branded Solaris 10 Failover Zonen und Branded Solaris 10 Zone Cluster

Detlef Drewanz
Master Principal Sales Consultant

Hier folgt der 5.Teil aus der Reihe Solaris Cluster in (Virtual)Box. Dieses Mal geht es um:

  • P2V von Solaris 10 Systemen
  • V2V von Solaris 10 Zonen
  • Branded Solaris 10 Failover Zonen
  • Branded Solaris 10 Zone Cluster

Konfigurationsbild

Nach dem Setup von Teil 4 liegt die folgende Konfiguration vor, mit der hier weitergearbeitet wird.

Solaris 10 Branded Zones

Nach wie vor gibt es noch viele Oracle Solaris 10 Umgebungen die produktiv sind. Oft sind auch die dazugehörigen Systeme bereits sehr alt, werden instabil, sind sehr teuer im Betrieb oder es wird einfach immer schwieriger, dafür Ersatzteile zu bekommen.

Mit Oracle Solaris 11 gibt es (neben den Oracle Solaris 10 LDOMs für SPARC Systeme) allerdings auch eine sehr einfache Möglichkeit, Oracle Solaris 10 Umgebungen auf Oracle Solaris 11 laufen zu lassen - die Oracle Solaris 10 Branded Zones. Der Solaris 10 Brand ermöglicht die Erzeugung und den Betrieb einer kompletten Oracle Solaris 10 Umgebung in einer Branded Zone auf einem aktuellen Oracle Solaris 11.4 System. So können ältere Umgebungen mit einfachen Mitteln "umgezogen" und weiterbetrieben werden, falls eine Umstellung der Umgebungen auf Oracle Solaris 11 aus den verschiedensten Gründen nicht machbar ist. So ein Umzug kann - wie hier beschrieben - auf zwei grundsätzlichen Arten erfolgen:

  • P2V (Physical-to-Virtual): Hierbei wird eine Solaris 10 Globale Zone "eingepackt" und daraus auf einem Solaris 11 System eine Solaris 10 Branded Zone erzeugt.
  • V2V (Virtual-to-Virtual): In diesem Fall wird aus einer Solaris 10 Non-Global Zone eine Solaris 10 Branded Zone erzeugt. Als Quelle können hier Sparse-root Zones oder Full-root Zones benutzt werden.

Anders als die Solaris 10 Guest LDOMs, sind Branded Solaris 10 Zonen auf der SPARC und der x86 Plattform verfügbar.

Die erzeugten Branded Zones werden auch im Oracle Solaris Cluster 4.4 unterstützt. So können - wie in Teil 3 beschrieben -  nicht nur Failover Zones mit Oracle Solaris 10 Branded Zones erzeugt werden, sondern auch - wie in Teil 4 beschrieben - Zone Cluster aus Oracle Solaris 10 Branded Zones. Zusätzlich kann in dem Solaris 10 Branded Zone Cluster noch die Software für Oracle Solaris Cluster 3.x installiert werden, um so auch noch Zugriff auf die früheren Cluster Agenten und Cluster Services zu erhalten. So erhält man eine sehr weitgehend identische Solaris 10 Umgebung.

Der Solaris Cluster in (Virtual)Box bietet eine gute Möglichkeit, sich beide Wege der Migration (p2v und v2v) und den Betrieb von Oracle Solaris 10 Branded Zones zusammen mit dem Solaris Cluster 4.4 und Oracle Solaris 11.4 etwas näher anzusehen. Also los ! Zunächst ist jedoch wieder ein bischen Planung notwendig:

  • Als Quelle für den "Umzug" wird ein System mit Oracle Solaris 10 benötigt. Dazu soll eine weitere VirtualBox Instanz erzeugt werden (die Solaris 10 Bastelkiste = s10bk).
  • In s10bk, wird eine Sparse-root Zone (s10zone) installiert.
  • s10bk soll mit p2v in eine Oracle Solaris 10 Branded Failover Zone überführt werden und ihren hostid, hostname und IP-Adresse behalten. Die neue Failover Zone soll eine ZOSS Zone sein und c2t3d0 für den rpool benutzen.
  • s10zone soll mit v2v in einen Oracle Solaris 10 Branded Zone Cluster überführt werden. Die Oracle Solaris 10 Branded Zones des Zone Cluster sollen zur Vereinfachung ihren rpool im rpool der Globalen Zone von nodea und nodeb haben.

Ok, soweit die Planung. Jetzt geht es an die Umsetzung. Im Überblick sind die folgenden Schritte zu erledigen:

  • Falls noch nicht vorhanden:
    Vorbereitung der Oracle Solaris 10 VirtualBox Instanz
    (Erzeugung eines Oracle Solaris 10 Ausgangssystems mit einer Oracle Solaris 10 Zone)
  • Einpacken
    - Der Globalen Zone für p2v
    - Der Non-Global Zone für v2v
  • Transport der Images zum Cluster
  • Erzeugung einer Solaris 10 Branded Failover Zone aus dem p2v-Image
  • Erzeugung eines Solaris 10 Branded Zone Clusters aus dem v2v-Image

Vorbereitung der Oracle Solaris 10 VirtualBox Instanz

  1. Zunächst wird eine neue VirtualBox Instanz erzeugt (siehe dazu ähnlich Teil 1, aber mit Solaris 10 9/10). 1,5 GB Hauptspeicher und 16 GB als Disk sind ausreichend. Die VM sollte ein zweites Netzwerkinterface bekommen. Das kann später für s10zone im Exclusive-IP Stack verwendet werden. Weiterhin wird hier eine weitere Disk als VirtualBox Shared-Disk zwischen s10bk, nodea, nodeb konfiguriert. Diese Disk wird später als "Transportmedium" für die Images während der "Migration" verwendet.
  2. Diese VM bekommt s10bk (IP: 192.168.175.110/24) als Hostnamen.
  3. Um später bei der "Migration" die erzeugten Images zwischen s10bk und den Knoten des Test-Clusters schneller transportieren zu können, wird ein separater zpool auf der erzeugten Shared-Disk erzeugt.
    @s10bk # zpool create shared-transporter c0t2d0
    
  4. Für eine spätere Migration müssen bestimmte Solaris 10 Patches auf dem System verfügbar sein. Für Oracle Solaris auf x86 sind das 119255-75+, 119535-24+, 140915-02+. Wer sich noch erinnert ...
    @s10bk # showrev -p | grep ...
  5. In die VM wird eine sehr einfache Sparse-root Zone s10zone (IP: 192.168.175.111/24) installiert. Diese wird als Exclusive-IP Zone konfiguriert und nutzt e1000g1 als Netzwerkinterface.
    @s10bk # zonecfg -z s10zone info
    zonename: s10zone
    zonepath: /zones/s10zone
    brand: native
    autoboot: false
    bootargs: 
    pool: 
    limitpriv: 
    scheduling-class: 
    ip-type: exclusive
    hostid: 
    inherit-pkg-dir:
    	dir: /lib
    inherit-pkg-dir:
    	dir: /platform
    inherit-pkg-dir:
    	dir: /sbin
    inherit-pkg-dir:
    	dir: /usr
    net:
    	address not specified
    	physical: e1000g1
    	defrouter not specified
    
  6. Ok, das einfache Oracle Solaris 10 Ausgangssystem ist damit erzeugt.

Umzug Teil 1: Einpacken

  1. Vor dem geplanten p2v ist die Benutzung es p2v-Checker Tools sinnvoll. Das holt man sich nach der Installation der Solaris 10 Branded Zones Unterstützun von einem Oracle Solaris 11.4 System ab.
    @nodea # pkg install zones/brand/brand-solaris10
    @nodeb # pkg install zones/brand/brand-solaris10
    @s10bk # scp demo@nodea:/usr/sbin/zonep2vchk /shared-transporter
    
  2. Jetzt kann man den p2v Checker laufen lassen. So wird man ggf. auf mögliche Probleme bei der Migration hingewiesen.
    @s10bk #/shared-transporter/zonep2vchk -T s11
    --Executing Version: 1.0.5-11-36717
      - Source System: s10bk
          Solaris Version: Oracle Solaris 10 1/13 s10x_u11wos_24a X86
          Solaris Kernel:  5.10 Generic_147148-26
          Platform:        i86pc i86pc
      - Target System:
          Solaris Version: Solaris 11
          Zone Brand:      solaris10 (Solaris 10 Container)
          IP type:         exclusive
    --Executing basic checks
      - The following SMF services will not work in a zone:
            svc:/network/iscsi/initiator:default
      - The following zones will be unusable.  Each zone should be migrated
        separately to the target host using detach and attach.  See zoneadm(8),
        solaris(7) and solaris10(7):
            Zone                                 State
            s10zone                              running
      - The system is configured with the following non-root ZFS pools.
        Pools cannot be configured inside a zone, but a zone can be configured
        to use a pool that was set up in the global zone:
            shared-transporter
    
      Basic checks complete. Issue(s) detected: 3
    
    --Total issue(s) detected: 3
    
  3. Ok, die gemeldeten Hinweise sind keine Überraschung. Die interessante Meldung ist der Hinweis auf die laufende  Zone. Natürlich können Zonen nicht kaskadiert werden. D.h. die Non-Global Zones müssen separat "umgezogen" werden, denn das erfolgt nicht innerhalb von p2v. In diesem Fall war das ja auch nicht so geplant.
  4. Zunächst wird s10zone für den Umzug vorbereitet und eingepackt. Dafür ist das folgende Vorgehen sinnvoll:
    - s10zone anhalten
    - Da es sich um eine Sparse-root Zone handelt, muss die komplette Zones Verzeichnisstruktur hergestellt werden. Sonst ist später die Zone nicht komplett.
    - Einpacken der Zone mit cpio. So wird ein vollständiges Zones Image erzeugt.
    @s10bk # zoneadm -z s10zone halt
    @s10bk # zoneadm -z s10zone ready
    @s10bk # zonecfg -z s10zone info zonepath
    zonepath: /zones/s10zone
    @s10bk # cd /zones/s10zone
    @s10bk # find root -print | cpio -oP@ \
             | gzip > /shared-transporter/s10zone.cpio.gz 
    7311211 blocks
    @s10bk # ls -l /shared-transporter/s10zone.cpio.gz 
    -rw-r--r--   1 root     root     1361734979 Oct 17 14:54 /shared-transporter/s10zone.cpio.gz
    @s10bk # zoneadm -z s10zone halt
    
  5. Danach wird die Globale Zone für den Umzug vorbereitet und eingepackt. Dabei wird die hostid aufgehoben, die später noch benötigt wird. Beim Erzeugen des Images werden die Verzeichnisse des Shared-zpool und der Zonen ausgeklammert.
    @s10bk # # hostid > /shared-transporter/hostid.s10bk
    # flarcreate -S -x /shared-transporter -x /zones \
                 -L cpio -n s10bkgz /shared-transporter/s10bkgz.flar
    Archive format requested is cpio
    Full Flash
    Checking integrity...
    Integrity OK.
    Running precreation scripts...
    Precreation scripts done.
    WARNING: Non-global zones detected on the system !!! Behaviour of flash archive created may be undefined.
    Creating the archive...
    7970520 blocks
    Archive creation complete.
    Running postcreation scripts...
    Postcreation scripts done.
    Running pre-exit scripts...
    Pre-exit scripts done.
    
  6. Zum Abschluss wird der Shared-zpool exportiert und zur Einsparung von Ressourcen in diesem kleinen Setup die Oracle Solaris 10 VirtualBox Instanz wieder abgeschaltet.
    @s10bk # zpool export shared-transporter
    @s10bk # init 5
    
  7. Fertig ! Jetzt können die Images zur Erzeugung von Failover Zones oder Zone Cluster benutzt werden.

Umzug Teil 2 - Auspacken Variante 1
Oracle Solaris 10 Branded Failover Zone

Die Konfiguration von Oracle Solaris 10 Branded Failover Zones in Solaris Cluster 4.4 entspricht weitestgehend den Schritten aus Teil 3 dieser Reihe. Deshalb wird dieser Teil der Beschreibung hier noch knapper und beschränkt sich vor allem auf die benutzten Kommandos.

  1. Zunächst wird der Transport-zpool importiert und die alte hostid ermittelt.
    @nodea # zpool import shared-transporter
    @nodea # cat /shared-transporter/hostid.s10bk
    244d36a2
    
  2. Storage Uniform Resource identifier (SURI) für die ZOSS Disk ermittelt.
    # cldev list -v | grep c2t3d0
    d8                  nodea:/dev/rdsk/c2t3d0
    d8                  nodeb:/dev/rdsk/c2t3d0
    
    # suriadm lookup-uri /dev/dsk/c2t3d0
    dev:dsk/c2t3d0
    
  3. Ressource Gruppe S10HAzone-rg für die Failover Zone und HAStoragePlus Ressource S10HAzone-hasp-rs erzeugen
    # clrg create S10HAzone-rg
    # clrs create -g S10HAzone-rg -t SUNW.HAStoragePlus \
                  -p GlobalDevicePaths=dsk/d8 S10HAzone-hasp-rs
    # clrg online -eM S10HAzone-rg
    
  4. Jetzt wird die zukünftige Zone auf nodea konfiguriert. Der Brand Typ der Zone muss hier auf solaris10 gesetzt werden. Weiterhin soll die neue Zone den hostid der früheren Globalen Zone übernehmen. Damit die Zone ihr früher benutztes Netzwerkinterface wieder findet (e1000g0), wird dem linkname innerhalb der Zone dieser Name gegeben. So findet die Zone beim Booten den richtigen Netzwerkport. Anschließend wird die Konfiguration wieder auch auf nodeb übertragen.
    @nodea # zonecfg -z S10HAzone
    Use 'create' to begin configuring a new zone.
    zonecfg:S10HAzone> create
    create: Using system default template 'SYSdefault'
    zonecfg:S10HAzone> set brand=solaris10;set hostid=244d36a2;
    zonecfg:S10HAzone> add attr;set name=osc-ha-zone;set type=boolean;set value=true;end;
    zonecfg:S10HAzone> add rootzpool;add storage dev:dsk/c2t3d0;end;
    zonecfg:S10HAzone> set autoboot=false;
    zonecfg:S10HAzone> select anet 0;set lower-link=net0;set linkname=e1000g0;end;
    zonecfg:S10HAzone> commit;exit
    
    @nodea # zonecfg -z S10HAzone export > /tmp/S10HAzone.zcf
    @nodea # scp /tmp/S10HAzone.zcf demo@nodeb:/tmp    
    @nodea # rm /tmp/S10HAzone.zcf
    @nodeb # zonecfg -z S10HAzone -f /tmp/S10HAzone.zcf
    @nodeb # rm /tmp/S10HAzone.zcf
  5. Je nachdem, wo die bis jetzt konfigurierte S10HAzone-rg online ist, wird nun der Transport-zpool importiert und die Zone installiert. Dazu wird jetzt jedoch - anders als bei der Installation einer Zone üblich - das p2v-Image benutzt.
    # clrg status S10HAzone-rg
    === Cluster Resource Groups ===
    Group Name       Node Name       Suspended      Status
    ----------       ---------       ---------      ------
    S10HAzone-rg     nodeb           No             Online
                     nodea           No             Offline
    
    @nodea # zpool export shared-transporter
    @nodeb # zpool import shared-transporter
    @nodeb # zoneadm -z S10HAzone install -a /shared-transporter/s10bkgz.flar -p
    Configured storage resource(s) from:
            dev:dsk/c2t3d0
    Created zpool: S10HAzone_rpool
    Progress being logged to /var/log/zones/zoneadm.20181017T202002Z.S10HAzone.install
        Installing: This may take several minutes...
    Postprocessing: This may take a while...
       Postprocess: The following zones in this image will be unusable: s10zone
       Postprocess: These zonepaths will be extracted but will not be used:
       Postprocess:     /zones/s10zone
       Postprocess: Updating the image to run within a zone
       Postprocess: Migrating data
            from: S10HAzone_rpool/rpool/ROOT/zbe-0
              to: S10HAzone_rpool/rpool/export
       Postprocess: A backup copy of /export is stored at /export.backup.20181017T203718Z.
    It can be deleted after verifying it was migrated correctly.
    
            Result: Installation completed successfully.
    Log saved in non-global zone as /system/zones/S10HAzone/root/var/log/zones/zoneadm.20181017T202002Z.S10HAzone.install
    
    @nodea # zpool export shared-transporter
  6. Nach der erfolgten Installation wird die Zone gebootet. Eine Überprüfung zeigt die Übernahme des alten Hostnamen (s10bk), IP-Adresse (192.168.175.110), hostid (244d36a2) etc.
    @nodeb # zoneadm -z S10HAzone boot
    @nodeb # zlogin -C S10HAzone
    ...
    
  7. Nun wird die Zone wieder heruntergefahren und vom "Host" detached. Damit ist die Zone für den Betrieb im Cluster vorbereitet.
    @nodeb # zoneadm -z S10HAzone shutdown
    @nodeb # zoneadm -z S10HAzone detach
      Exported zpool: S10HAzone_rpool
      Unconfigured storage resource(s) from:
            dev:dsk/c2t3d0
    
  8. Die Übergabe der Zone in die Clusterkontrolle erfolgt wie bei Native Failover Zones. Lediglich der Zonebrand ist entsprechend zu ändern.
    @nodea # cp /opt/SUNWsczone/sczbt/util/sczbt_config \
               /opt/SUNWsczone/sczbt/util/sczbt_config.S10HAzone
    
    @nodea # vi /opt/SUNWsczone/sczbt/util/sczbt_config.S10HAzone
      RS=S10HAzone-rs
      RG=S10HAzone-rg
      SC_NETWORK=false
      SC_LH=
      FAILOVER=true
      HAS_RS=S10HAzone-hasp-rs
      Zonename="S10HAzone"
      Zonebrand="solaris10"
      Zonebootopt=""
      Milestone="svc:/milestone/multi-user-server"
      Mounts=""
      Migrationtype="cold"
    
    @nodea # /opt/SUNWsczone/sczbt/util/sczbt_register \
           -f /opt/SUNWsczone/sczbt/util/sczbt_config.S10HAzone
      sourcing /opt/SUNWsczone/sczbt/util/sczbt_config.S10HAzone
      Registration of resource S10HAzone-rs succeeded.
    
    # clrs enable S10HAzone-rs
    
  9. Fertig ! Nach der Prüfung der Ressource Gruppe S10HAzone-rg sieht man, auf welchem Cluster Node die Zone gestartet wurde.
    # clrg status S10HAzone-rg
    === Cluster Resource Groups ===
    Group Name       Node Name       Suspended      Status
    ----------       ---------       ---------      ------
    S10HAzone-rg     nodeb           No             Online
                     nodea           No             Offline
    
  10. Fertig ! Das war sehr vergleichbar mit der Konfiguration einer Native Failover Zone. Jetzt liegt eine Oracle Solaris 10 Umgebung als Failover Zone vor.
  11. Nach Abschluß aller Tests ist es in diesem kleinen Setup sehr sinnvoll, die Ressource Gruppe wieder permanent abzuschalten, um Ressourcen für weitere Tests zu sparen.
    # clrs disable -g S10HAzone-rg +
    # clrg offline S10HAzone-rg
    # clrg unmanage S10HAzone-rg
    

Umzug Teil 2 - Auspacken Variante 2
Solaris 10 Branded Zone Cluster

Auch die Konfiguration eines Oracle Solaris 10 Branded Zone Cluster in Solaris Cluster 4.4 entspricht weitestgehend den Schritten aus Teil 4 dieser Reihe. Deshalb wird auch dieser Teil der Beschreibung hier kürzer und beschränkt sich vor allem auf die benutzten Kommandos. Eine zusätzliche Aktion steht allerdings mit der Installation der Solaris Cluster 3.3 Software in den Zonen Cluster an, aber mehr dazu später.

Für den Zonen Cluster wird wieder ein bischen Planung benötigt:

  • Der Zonen Cluster soll zc10 heißen.
  • Es sollen für zc10 Branded Solaris 10 Zonen mit exclusive IP-Instanzen verwendet werden.
  • Das zoneroot der Zonen soll im rpool der Globalen Zonen liegen.

Ok, soweit die Planung. Jetzt geht es an die Umsetzung:

  1. Erzeugung von separaten VNIC für zc10
    @nodea # dladm create-vnic -l net0 zc10_net0
    @nodeb # dladm create-vnic -l net0 zc10_net0
    
  2. Konfiguration des Zone Cluster
    # clsetup
    8) Zone Cluster
       1) Create Zone Cluster
          Zone cluster name: zc10
          Zonepath: /system/zones/zc10
          Brand: solaris10
          Enable_priv_net: false
          Physical hosts for zone cluster nodes: nodeb, nodea
          Physical Host nodea:
                        Hostname: zc10-nodea
                        Net_physical: zc10_net0
          Physical Host nodeb:
                        Hostname: zc10-nodeb
                        Net_physical: zc10_net0
       c) Create Zone Cluster
       ... Continue to install the zone cluster ? no
  3. Die Installation des Zonen Cluster erfolgt mit clzonecluster. Als Installationsquelle wird hier jedoch das v2v-Image angegeben. Dieses muss zur Installation an beiden Cluster Knoten im gleichen Pfad vorliegen. Dafür könnte ein NFS-Share benutzt werden. Um den Aufwand für das Setup des NFS-Share zu sparen, wird dafür der schon vorhandene globale Zpool (gpool)verwendet. Damit das Kopieren des Images in den globalen Zpool schneller geht, wird der Transporter-zpool an dem Knoten importiert, an dem auch gpool importiert ist.
    # cldg status gpool
    Device Group Name     Primary     Secondary     Status
    -----------------     -------     ---------     ------
    gpool                 nodeb       nodea         Online
    
    @nodeb # zpool import shared-transporter
    @nodeb # cp /shared-transporter/s10zone.cpio.gz /gpool
    @nodeb # zpool export shared-transporter
    
    # clzc install -a /gpool/s10zone.cpio.gz zc10
    Waiting for zone install commands to complete on all the nodes of the zone cluster "zc10"...
    
  4. Jetzt kann der Zonen Cluster offline gebootet werden. Eine Übernahme von Hostnamen und IP-Adressen passt hier nicht, da hier aus einem Image zwei Zonen erzeugt werden. Die Zonenkonfiguration muss also beim ersten Boot erfolgen. Dabei kann auch gleich die IPMP Konfiguration der Knoten im Zonen Cluster erfolgen. Bei Oracle Solaris 10 erfolgte das noch etwas anders.
    # clzc boot -o zc10
    
    @nodea # zlogin -C zc10
    Initiale Konfiguration: hostname: zc10-nodea; IP@zc10_net0: 192.168.175.172
    @ zc10-nodea # vi /etc/hostname.zc10_net0
    zc10-nodea group IPMPgroup up
    
    @nodeb # zlogin -C zc10
    Initiale Konfiguration: hostname: zc11-nodeb; IP@zc11_net0: 192.168.175.173
    @ zc10-nodeb # vi /etc/hostname.zc10_net0
    zc10-nodeb group IPMPgroup up
    
  5. Die Grundinstallation des Zone Clusters ist jetzt fertig ! ... eigentlich ... fast ... es fehlt noch die Installation der Solaris Cluster 3.3. Komponenten in den Branded Solaris 10 Zonen Cluster, damit es auch in den Zonen wie ein Cluster aussieht. Nach der Installation sind die passenden Cluster Kommandos und Services für Oracle Solaris 10 und Solaris Cluster 3.x nutzbar sind.
    - Zunächst wird die Solaris Cluster 3.3 Update 2 Software in ein shared Verzeichnis kopiert, auf das beide Cluster Knoten zugreifen können. Dafür eignet sich der Globale Zpool gpool am besten.
    - Danach wird die Software mit clzc install-cluster installiert und der Zonen Cluster final neu gestartet.
    # cd /gpool
    # cp /sc3.3u2.tar .
    # tar xvf sc3.3u2.tar
    
    # clzc install-cluster -d /gpool/sc3.3u2 -s all zc10
    
    # clzc reboot zc10
    
  6. Fertig ! Jetzt ist der Zonen Cluster fertig aufgesetzt und kann wie ein virtueller Solaris Cluster 3.3 mit Cluster Services und Oracle Solaris 10 benutzt werden.
    # clzc status zc10
    Name  Brand     Node Name Zone Host Name  Status   Zone  Status
    zc10  solaris10 nodea     zc10-nodea      Online   Running
                    nodeb     zc10-nodeb      Online   Running
    
    # clzc show-rev zc10
    Zone Cluster Name:                              zc10
      Release at zc10-nodeb on node nodeb:             3.3u2
      Release at zc10-nodea on node nodea:             3.3u2
    
  7. Nach Abschluß aller Tests ist es in diesem kleinen Setup wieder sehr sinnvoll, auch diesen Zonen Cluster wieder permanent abzuschalten, um Ressourcen für weitere Tests zu sparen.
    # zlogin zc10 "/usr/cluster/bin/cluster shutdown -g0 -y"
    # clzc configure zc10
    clzc:zc10> set autoboot=false
    clzc:zc10> commit
    clzc:zc10> exit

Nach Abschluß dieser Testreihe liegt nun in dem Solaris Cluster in (Virtual)Box die folgende Endkonfiguration vor:

Das Setup zeigt, wie mit beschränkten Mitteln gute Möglichkeiten zum Ausprobieren geschaffen werden können. Oft geht in VirtualBox mehr als man glaubt. Eine Überführung der Test-Setups in produktive Umgebungen und auf andere Hardware ist oftmals mit wenigen Änderungen möglich.

 

Join the discussion

Comments ( 1 )
  • Hartmut Streppel Thursday, October 25, 2018
    Detlef, exzellente Technologie, schönes Beispiel, sehr gut beschrieben.
Please enter your name.Please provide a valid email address.Please enter a comment.CAPTCHA challenge response provided was incorrect. Please try again.Captcha