- Community Home
- >
- HPE Community, Austria, Germany & Switzerland
- >
- HPE Blog, Austria, Germany & Switzerland
- >
- Initiales Setup eines Nimble Arrays
Kategorien
Company
Local Language
Forums
Diskussionsforum
Forums
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
Diskussionsforum
Diskussionsforum
Diskussionsforum
Forums
Diskussionsforum
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Gemeinschaft
Kontakt
Forums
Blogs
- RSS-Feed abonnieren
- Als neu kennzeichnen
- Als gelesen kennzeichnen
- Lesezeichen
- Abonnieren
- Drucker-Anzeigeseite
- Anstößigen Inhalt melden
Betreff: Initiales Setup eines Nimble Arrays
Es gibt drei Möglichkeiten ein neues Nimble Array zu konfigurieren.
- Über die Konsole
- Mit dem Setup Manager
- Es in eine bestehende Gruppe einzufügen
Wenn das neue Array in eine bestehende Gruppe integriert werden soll, macht die letzte Methode natürlich am meisten Sinn. Damit das funktioniert, müssen die Systeme aber den gleichen Firmwarestand besitzen. Wahrscheinlich ist deswegen ein initiales Setup mit anschließendem Firmwareupdate notwendig, damit das System in die bestehende Gruppe aufgenommen werden kann. In dem Fall also doch wieder Möglichkeit eins oder zwei.
Den Setup Manager benutze ich persönlich nie und werde den Prozess hier auch nicht genau beschreiben.
Einfach das Windows Toolkit installieren und den Setup Manager starten. Der Setup Manager sucht alle nicht initiierten Arrays im gleichen Netz und kann dann die gleichen Einstellungen vornehmen die hier in Schritt 1 beschrieben werden.
Verkabelung
Bevor wir das System konfigurieren, muss es richtig verkabelt sein.
Egal ob FiberChannel oder iSCSI, es ist Best Practise die zwei Fabics/Netze komplett getrennt zu halten.
Bei iSCSI müssen zusätzlich unterschiedliche Subnetze verwendet werden.
z.B. Switch 1: 192.168.10.0/24 Switch 2: 192.168.20.0/24
Das Management Netz kann, muss aber nicht redundant an einen Kontroller angeschlossen werden.
ACHTUNG: Ist das Management Netz pro Kontroller nicht redundant und dieser Netzwerkport geht DOWN, wird ein Failover auf den anderen Kontroller initiiert. Durch eine redundante Anbindung, also eth1 & eth2 von beiden Kontrollern, kann das vermieden werden.
Schritt 1: Basis Konfiguration
Entweder man schließt einfach Monitor und Tastatur an das System (über den mitgelieferten Dongel) an, oder benutzt die serielle Schnittstelle. Hier die benötigten Werte für die serielle Verbindung:
ACHTUNG: Man muss sich auf den aktiven Kontroller verbinden!
Ab Werk ist das Kontroller A. In seltenen Fällen kann es jedoch sein das Kontroller B aktiv ist.
Funktioniert die Anmeldung nicht, einfach mal am anderen Kontroller probieren.
Default Username und Passwort sind "admin".
Nach dem anmelden den Befehl "setup" eingeben:
Mit der Leertaste durch das License Agreement gehen, oder auf "Q" drücken. Anschließend mit "yes" zustimmen:
Das Setup frag jetzt ein paar Werte ab (Die bei Bedarf später noch angepasst werden können):
Array Name: Name des Arrays -> also dem Stück Blech
Group Name: Name der Management Gruppe.
In einer Gruppe können bis zu vier Arrays verwaltet werden.
Hier ein Beispiel:
Diese Gruppe besteht aus vier Systemen. Array A1 ist ein eigener Pool. Array A2-4 sind Teil des zweiten Pools. Hier werden die Daten automatisch über alle drei Arrays gleichmäßig verteilt. Für den Hosts sieht es wie ein großes System aus.
Installieren wir jetzt ein einzelnes System haben wir nach dem Setup eine Gruppe, mit einem Array und einem Pool:
Management IP: Die IP über die die Gruppe verwaltet wird. GUI, CLI, RestAPI; VMware Integration usw...
Management Netmask: Netzmaske für das Management Netz.
Gateway
Domain Name
Danach fragt das Setup ob man die nächsten Schritte im Browser durchführen möchte.
Hier stimmen wir mit "yes" zu:
Damit ist der erste Teil schon fertig.
RZ aufräumen, alles zusammenpacken und zurück zum Arbeitsplatz
Schritt 2. Grundkonfiguration
Browser öffnen und mit dem Password "admin" anmelden.
Als erste muss das Netzwerk konfiguriert werden.
Bei FiberChannel Systeme muss hier lediglich ein MGMT Netz eingestellt werden.
Dazu wird der "Traffic Type" des Subnetzes auf "Mgmt only" gesetzt:
Bei iSCSI Systemen werden weiter Subnetzte mit "Traffic Type" "iSCSI+Group" angelegt.
Hier muss die das Netz sowie die Discovery IP definiert werden.
Im nächsten Schritt stellen wir ein, welche NIC zu welchem Subnetz gehört.
Das MGMT Netz liegt typischerweise auf den OnBoard Ports (eth1 & eth2).
Alle nicht verwendeten Ports müssen auf "None" gesetzt werden:
Bei iSCSI Systemen bekommt jedes Interface eine zusätzliche Daten IP. In den iSCSI Initiator der Server wird die Discovery IP (siehe oben) eingetragen, die tatsächliche Verbindung geht dann aber über die Daten-IPs.
Alle IPs die bis jetzt konfiguriert wurden sind "floating". D.h. sie liegen immer auf dem aktiven Controller.
Für ein paar Prozesse und Support ist es teilweise notwendig, dass auf den Standby-Controller zugegriffen wird.
Daher bekommt jeder Kontroller noch eine zusätzliche feste IP:
Die nächsten Schritte sind selbsterklärend.
- Domainnamen und DNS eintragen
- NTP Server und Zeitzone
- Support
- Die "From" Adresse mit der die Emails vom System verschickt werden (Für Events und Alarme)
- SMTP Server (später kann noch die SMTP Authentifizierung eingestellt werden)
- Diagnostic for Nimble Analytics -> UNBEDINGT! Bitte immer aktivieren wenn möglich. Nur so ist InfoSight möglich.
- Proxy falls notwendig
Fertig!
Damit Autosupport, InfoSight und der Supporttunnel funktionieren, benötigen wir folgende Zugriffe nach draußen:
SSH: 2222 hogan.nimblestorage.com (secure tunnel for Nimble Storage Support)
HTTPS: 443 nsdiag.nimblestorage.com (Diagnostics for Nimble Analytics, heartbeats)
HTTPS: 443 update.nimblestorage.com (software downloads)
Mögliche nächste Schritte:
- Bei FC Systemen natürlich Zoning
- VMware Plugin registrieren
- SMI-S für Hyper-V konfigurieren
- usw...
- Zurück zum Blog
- Neuerer Artikel
- Älterer Artikel
- Zurück zum Blog
- Neuerer Artikel
- Älterer Artikel
- Martin Fryba auf: HPE verpflichtet Lieferanten auf wissenschaftlich ...
- ThoRah auf: Initiales Setup eines Nimble Arrays
- UO auf: Höchstleistung aus dem Rechenzentrum
- gregor58 auf: VVols - Ganz einfach mit Nimble