Oggi i processi aziendali di molte aziende sono completamente legati alle informazioni
tecnologie. Con la crescente dipendenza delle organizzazioni dal lavoro dell'informatica
reti, la disponibilità dei servizi in qualsiasi momento e con qualsiasi carico gioca un ruolo importante
ruolo. Un solo computer può fornire Primo livello affidabilità e
scalabilità, il livello massimo può essere raggiunto combinando in
un singolo sistema di due o più computer: un cluster.
I cluster vengono utilizzati nelle organizzazioni che necessitano 24 ore su 24 e
disponibilità ininterrotta dei servizi e dove eventuali interruzioni del funzionamento sono indesiderabili e
non sono consentiti. O nei casi in cui è possibile un aumento del carico, con quale
il server principale non può farcela, quindi aggiuntivo
host che di solito svolgono altre attività. Per server email in lavorazione
decine e centinaia di migliaia di lettere al giorno o un server web che serve
shopping online, l'uso dei cluster è altamente auspicabile. Per l'utente
un tale sistema rimane completamente trasparente: lo sarà l'intero gruppo di computer
sembra un server. L'uso di diversi, anche più economici,
computer consente di ottenere vantaggi molto significativi rispetto a un singolo
e server veloce. Questa è una distribuzione uniforme delle richieste in arrivo,
maggiore tolleranza ai guasti, poiché quando un elemento esce, il suo carico
raccogliere altri sistemi, scalabilità, manutenzione conveniente e sostituzione
nodi del cluster e molto altro. Guasto di un nodo automaticamente
viene rilevato e il carico viene ridistribuito, per il cliente tutto questo rimarrà
inosservato.
In generale, alcuni cluster sono progettati per aumentare la disponibilità dei dati,
altri sono per le massime prestazioni. Nel contesto dell'articolo, noi
sarà interessato MPP (elaborazione parallela massiccia)- grappoli,
che lo stesso tipo di applicazioni viene eseguito su più computer, fornendo
scalabilità del servizio. Ci sono diverse tecnologie che
distribuire il carico su più server: reindirizzamento del traffico,
traduzione dell'indirizzo, Girone all'italiana del DNS, uso di speciali
programmi operanti a livello di applicazione, come gli acceleratori web. IN
Win2k3, a differenza di Win2k, il supporto per il clustering è integrato e
sono supportati due tipi di cluster, diversi per applicazioni e specifiche
dati:
1. Cluster NLB (Network Load Balancing).- fornire
scalabilità ed elevata disponibilità di servizi e applicazioni basati su protocolli TCP
e UDP, combinando in un cluster fino a 32 server con lo stesso set di dati, su
che eseguono le stesse applicazioni. Ogni richiesta viene eseguita come
transazione separata. Sono abituati a lavorare con serie che cambiano raramente
dati come WWW, ISA, servizi terminali e altri servizi simili.
2. Cluster di server– può combinare fino a otto nodi, il loro principale
il compito è garantire la disponibilità delle applicazioni in caso di guasto. Consiste di attivo e
nodi passivi. Il nodo passivo è inattivo per la maggior parte del tempo, svolgendo il ruolo
riserva del nodo principale. Per singole applicazioniè possibile personalizzare
diversi server attivi, distribuendo il carico tra di loro. Entrambi i nodi
collegato a un unico data warehouse. Il cluster di server viene utilizzato per il lavoro
con grandi volumi di dati che cambiano frequentemente (posta, file e
server SQL). Inoltre, un tale cluster non può essere costituito da nodi che operano sotto
gestione delle varie varianti di Win2k3: Enterprise o Datacenter ( versioni web E
I cluster di server standard non supportano).
IN Microsoft Application Center 2000(e solo) ce n'era un altro tipo
grappolo - CLB (Bilanciamento del carico dei componenti), fornendo l'opportunità
distribuzione di applicazioni COM+ su più server.
Quando si utilizza il bilanciamento del carico, ciascuno degli host crea
una scheda di rete virtuale con il proprio indirizzo IP e MAC indipendente.
Questa interfaccia virtuale rappresenta il cluster come un singolo nodo, client
indirizzo ad esso sull'indirizzo virtuale. Tutte le richieste sono ricevute da ciascuno
nodo del cluster, ma vengono elaborati da uno solo. Funziona su tutti i nodi
Servizio di bilanciamento del carico di rete,
che, utilizzando uno speciale algoritmo che non richiede lo scambio di dati tra
nodi, decide se un particolare nodo deve elaborare una richiesta o
NO. I nodi vengono scambiati messaggi di battito cardiaco mostrandoli
disponibilità. Se un host interrompe l'emissione di un heartbeat o viene visualizzato un nuovo nodo,
iniziano altri nodi processo di convergenza, un nuovo
ridistribuire il carico. Il bilanciamento può essere implementato in due modi
modalità:
1) unicast– unicast quando invece di un MAC fisico
viene utilizzato il MAC dell'adattatore virtuale del cluster. In questo caso, i nodi del cluster non lo sono
possono comunicare tra loro utilizzando indirizzi MAC solo su IP
(o un secondo adattatore non associato al cluster);
Solo una di queste modalità deve essere utilizzata all'interno dello stesso cluster.
può essere personalizzato diversi cluster NLB su una scheda di rete,
specificando regole specifiche per i porti. Tali cluster sono chiamati virtuali. Loro
applicazione consente di impostare per ogni applicazione, host o indirizzo IP
computer specifici nel cluster primario o bloccare il traffico per
alcune applicazioni senza influire sul traffico per altri programmi in esecuzione
su questo nodo. Oppure, al contrario, un componente NLB può essere associato a più componenti
adattatori di rete, che ti permetteranno di configurare un numero di cluster indipendenti su ciascuno
nodo. È inoltre necessario tenere presente che la configurazione di cluster di server e NLB sullo stesso nodo
non è possibile perché funzionano in modo diverso con i dispositivi di rete.
L'amministratore può creare una sorta di configurazione ibrida che ha
i vantaggi di entrambi i metodi, ad esempio creando un cluster NLB e impostando la replica
dati tra i nodi. Ma la replica non viene eseguita costantemente, ma di volta in volta,
pertanto, le informazioni sui diversi nodi saranno diverse per qualche tempo.
Finiamo con la teoria, anche se puoi parlare di costruzione di cluster
a lungo, elencando le possibilità e le modalità di edificazione, dando varie
raccomandazioni e opzioni per un'implementazione specifica. Lasciamo tutte queste sottigliezze e sfumature
per lo studio autonomo e passare alla parte pratica.
Per organizzazioni di cluster NLB nessun software aggiuntivo richiesto
prodotto dai mezzi disponibili di Win2k3. Per creare, mantenere e monitorare
I cluster NLB utilizzano il componente Responsabile del bilanciamento del carico di rete
(Gestore del bilanciamento del carico di rete), che si trova nella scheda
"Amministrazione" "Pannello di controllo" (comando NLBMgr). Poiché il componente
"Network Load Balancing" è installato come driver di rete Windows standard,
È inoltre possibile installare NLB utilizzando " Le connessioni di rete", v
cui è disponibile l'articolo corrispondente. Ma è meglio usare solo il primo
opzione, attivazione simultanea del gestore NLB e "Connessioni di rete"
può portare a risultati imprevedibili.
NLB Manager ti consente di configurare e gestire il lavoro da un posto alla volta
più cluster e nodi.
È anche possibile installare un cluster NLB su un computer con una rete
adattatore associato al componente Bilanciamento carico di rete, ma this
In caso di modalità unicast, il gestore NLB su questo computer non può essere
utilizzato per controllare altri nodi e i nodi stessi non possono scambiarsi
tra loro informazioni.
Ora chiamiamo il dispatcher NLB. Non abbiamo ancora cluster, quindi è apparso
la finestra non contiene alcuna informazione. Selezionare "Nuovo" dal menu "Cluster" e
iniziamo a compilare i campi nella finestra "Parametri cluster". Nel campo "Impostazioni".
Impostazioni IP cluster" immettere il valore dell'indirizzo IP virtuale del cluster, la maschera
sottorete e nome completo. Il valore dell'indirizzo MAC virtuale è impostato
automaticamente. Un po 'più in basso selezioniamo la modalità operativa del cluster: unicast o
multicast. Prestare attenzione alla casella di controllo "Consenti controllo remoto" - in
Tutto Documenti Microsoft consiglia vivamente di non utilizzarlo in
evitare problemi di sicurezza. Invece, dovresti fare domanda
spedizioniere o altro mezzo telecomando, ad esempio toolkit
Gestione Windows (WMI). Se viene presa la decisione di usarlo, allora
prendere tutte le misure appropriate per proteggere la rete, coprendo ulteriori
porte UDP del firewall 1717 e 2504.
Dopo aver compilato tutti i campi, fare clic su "Avanti". Nella finestra "Indirizzi IP del cluster", quando
necessario, aggiungiamo ulteriori indirizzi IP virtuali che saranno
utilizzato da questo cluster. Nella prossima finestra Regole porta, puoi farlo
impostare il bilanciamento del carico per una o per un gruppo di porte di tutte o
IP selezionato tramite i protocolli UDP o TCP, nonché bloccare l'accesso al cluster
determinate porte (che un firewall non sostituisce). Gruppo predefinito
elabora le richieste per tutte le porte (0-65365); è meglio limitare questo elenco,
aggiungendo solo quelli realmente necessari. Anche se, se non c'è voglia di scherzare,
puoi lasciare tutto così com'è. A proposito, in Win2k, per impostazione predefinita, tutto il traffico
diretto al cluster, elaborato solo il nodo che aveva la priorità più alta,
i restanti nodi sono stati collegati solo quando quello principale si è guastato.
Ad esempio, per IIS, devi solo abilitare le porte 80 (http) e 443 (https).
Inoltre, puoi fare in modo che, ad esempio, processi di connessioni sicure
solo server specifici in cui è installato il certificato. Per aggiungere
nuova regola, fai clic su "Aggiungi", nella finestra di dialogo che appare, inserisci
L'indirizzo IP del nodo, o se la regola si applica a tutti, quindi lasciare la casella di controllo
"Tutto". Nei campi "Da" e "A" dell'intervallo di porte, imposta lo stesso valore:
80. Il campo chiave è "Filtering Mode" - qui
specifica chi elaborerà questa richiesta. Ci sono tre campi che definiscono la modalità
filtraggio: "Nodi multipli", "Nodo singolo" e "Disabilita questo intervallo di porte".
Selezionando "Single Host" si intende che il traffico diretto all'IP selezionato (computer
o cluster) con il numero di porta specificato verranno elaborati dal nodo attivo,
avere l'indicatore di priorità più basso (ne parleremo più avanti). Selezionando "Disabilita..."
significa che tale traffico verrà eliminato da tutti i membri del cluster.
Nella modalità di filtro "Nodi multipli", è inoltre possibile specificare l'opzione
definizioni di affinità client per indirizzare il traffico da un determinato client a
lo stesso nodo del cluster. Sono disponibili tre opzioni: "Nessuno", "Singolo" o "Classe
C". Scegliere il primo significa che qualsiasi richiesta riceverà una risposta arbitraria
nodo. Ma non dovresti usarlo se la regola lo seleziona Protocollo UDP O
"Entrambi". Quando si scelgono altri articoli, la somiglianza dei clienti sarà determinata da
IP specifico o intervallo di rete di classe C.
Quindi, per la nostra regola con l'80° porto, opteremo per l'opzione
"Nodi multipli - Classe C". La regola per 443 è compilata allo stesso modo, ma usiamo
"Singolo nodo", in modo che il client riceva sempre risposta dal nodo principale con il valore più basso
priorità. Se il dispatcher trova una regola incompatibile, verrà visualizzata
messaggio di avviso, facoltativo nel registro Eventi Windows sarà fatto
voce corrispondente.
Successivamente, ci connettiamo al nodo del futuro cluster inserendo il suo nome o IP reale e
definire l'interfaccia che sarà connessa alla rete del cluster. Nella finestra Opzioni
node "selezionare una priorità dall'elenco, specificare le impostazioni di rete, impostare l'iniziale
stato del nodo (in esecuzione, arrestato, in pausa). Priorità allo stesso tempo
è l'identificatore univoco del nodo; minore è il numero, maggiore è la priorità.
Il nodo con priorità 1 è il server master che riceve per primo
pacchetti e fungendo da gestore di instradamento.
La casella di controllo "Mantieni lo stato dopo il riavvio del computer" consente, nel caso
l'errore o il riavvio di quel nodo lo porterà automaticamente online. Dopo aver premuto
su "Finish" nella finestra Manager, apparirà una voce sul nuovo cluster, in cui finora
c'è un nodo.
Anche il nodo successivo è facile da aggiungere. Selezionare "Aggiungi nodo" dal menu o
"Connetti a esistente", a seconda del computer
viene stabilita una connessione (è già un membro del cluster oppure no). Poi alla finestra
specificare il nome o l'indirizzo del computer, se ci sono diritti sufficienti per connettersi, uno nuovo
il nodo sarà connesso al cluster. La prima volta sarà l'icona accanto al suo nome
differiscono, ma quando il processo di convergenza sarà completato, sarà uguale a quello di
primo computer.
Poiché il dispatcher visualizza le proprietà dei nodi al momento della sua connessione, for
chiarimento dello stato attuale, selezionare un cluster e in menù contestuale paragrafo
"Aggiornamento". Il gestore si connetterà al cluster e visualizzerà i dati aggiornati.
Dopo l'installazione Cluster NLB non dimenticare di cambiare il record DNS in
risoluzione dei nomi ora mostrata sull'IP del cluster.
In questa configurazione, tutti i server verranno caricati in modo uniforme (ad eccezione di
opzione "Un nodo"). In alcuni casi è necessario ridistribuire il carico,
la maggior parte del lavoro è assegnata a uno dei nodi (ad esempio, il più potente).
Per un cluster, le regole possono essere modificate dopo che sono state create selezionando
menu contestuale che compare cliccando sul nome, la voce "Proprietà Cluster".
Tutte le impostazioni di cui abbiamo parlato sopra sono disponibili qui. Elemento del menu
"Proprietà nodo" fornisce alcune altre opzioni. In "Impostazioni nodo"
è possibile modificare il valore di priorità per un particolare nodo. In "Regole
per le porte" non è possibile aggiungere o eliminare una regola, è disponibile solo a livello
grappolo. Ma, scegliendo di modificare una regola specifica, ne abbiamo l'opportunità
regolare alcune impostazioni. Quindi, con la modalità di filtraggio impostata
"Multiple Nodes", l'elemento "Load Stima" diventa disponibile, permettendoti di farlo
ridistribuire il carico su un nodo specifico. Selezionato per impostazione predefinita
“Uguale”, ma nella “Stima del carico” è possibile specificare un diverso valore del carico su
nodo specifico, come percentuale del carico totale del cluster. Se la modalità è attivata
filtrando "Un nodo", in questa finestra appare nuovo parametro"Una priorità
in lavorazione". Usandolo, puoi farlo in modo che il traffico arrivi a una porta specifica
verrà elaborato prima di tutto da un nodo del cluster e dall'altro da altri
nodo.
Come già accennato, il componente Network Load Balancing registra tutto
azioni del cluster e modifiche nel registro eventi di Windows. Vederli
seleziona "Visualizzatore eventi - Sistema", NLB include i messaggi WLBS (da
Servizio di bilanciamento del carico di Windows, come questo servizio era chiamato in NT). Inoltre, dentro
la finestra del dispatcher visualizza gli ultimi messaggi contenenti informazioni sugli errori
ed eventuali modifiche alla configurazione. Per impostazione predefinita, questa informazione non lo è
è salvato. Per scriverlo in un file, seleziona "Opzioni -\u003e
Opzioni registro", selezionare la casella di controllo "Abilita registrazione" e specificare un nome
file. Verrà creato un nuovo file in una sottodirectory del tuo account nei Documenti
e impostazioni.
Un cluster è un cluster, ma senza un servizio non ha senso. Quindi aggiungiamo IIS (internet
servizi di informazione). Server IIS incluso con Win2k3, ma per ridurlo a
per ridurre al minimo la possibilità di attacchi al server, non è installato per impostazione predefinita.
Esistono due modi per installare IIS: tramite il "Pannello di controllo" o
maestro di gestione dei ruoli questo server. Consideriamo il primo. Vai a
"Pannello di controllo - Aggiungi o rimuovi programmi" (Pannello di controllo - Aggiungi o
Rimuovi programmi), selezionare "Installa Componenti Windows» (Aggiungi/Rimuovi Windows
componenti). Ora vai alla voce "Application Server" e seleziona "Services
IIS" è tutto ciò che serve. Per impostazione predefinita, la directory di lavoro del server è \Inetpub\wwwroot.
Una volta installato, IIS può visualizzare documenti statici.
Centro stampa
Un cluster è un gruppo di due o più server che lavorano insieme per fornire tempo di attività insieme di applicazioni o servizi e percepito dal cliente come un unico elemento. I nodi del cluster sono interconnessi tramite hardware di rete, risorse condivise e software del server.
Microsoft Windows 2000/2003 supporta due tecnologie di clustering: cluster di bilanciamento del carico di rete e cluster di server.
Nel primo caso (cluster di bilanciamento del carico), Network Load Balancing rende i servizi e le applicazioni altamente affidabili e scalabili combinando fino a 32 server in un unico cluster. Richieste dai clienti in questo caso distribuito tra i nodi del cluster in modo trasparente. Quando un nodo si guasta, il cluster cambia automaticamente la sua configurazione e passa il client a uno qualsiasi dei nodi disponibili. Questa modalità di configurazione del cluster è anche chiamata modalità attivo-attivo, in cui una singola applicazione viene eseguita su più nodi.
Il cluster di server distribuisce il proprio carico tra i server nel cluster, con ogni server che trasporta il proprio carico. In caso di errore di un nodo nel cluster, le applicazioni ei servizi configurati per l'esecuzione nel cluster vengono riavviati in modo trasparente su uno qualsiasi dei nodi liberi. I cluster di server utilizzano dischi condivisi per comunicare all'interno del cluster e per fornire un accesso trasparente alle applicazioni e ai servizi del cluster. Richiedono attrezzature speciali, ma questa tecnologia fornisce un livello di affidabilità molto elevato perché il cluster stesso non ha alcun singolo punto di errore. Questa modalità di configurazione del cluster è anche chiamata modalità attivo-passivo. Un'applicazione in un cluster viene eseguita su un singolo nodo con dati condivisi che si trovano su una memoria esterna.
Approccio di cluster all'organizzazione rete interna prevede i seguenti vantaggi:
Elevata disponibilità Cioè, se un servizio o un'applicazione fallisce su qualche nodo di un cluster configurato per lavoro congiunto in un grappolo, raggruppato Software consente di riavviare questa applicazione su un host diverso. Allo stesso tempo, gli utenti sperimenteranno un breve ritardo durante alcune operazioni o non noteranno affatto un errore del server. Scalabilità Per le applicazioni in esecuzione in un cluster, aggiungere server al cluster significa aumentare le capacità: tolleranza agli errori, bilanciamento del carico, ecc. Gestibilità Gli amministratori, utilizzando un'unica interfaccia, possono gestire applicazioni e servizi, impostare la risposta agli errori in un nodo del cluster, distribuire il carico cluster tra i nodi e rimuovere il carico dai nodi per la manutenzione preventiva.
In questo articolo, cercherò di raccogliere la mia esperienza nella creazione di sistemi cluster su Basamento Windows e dai un po' guida passo passo per creare un cluster di server a due nodi con archiviazione dati condivisa.
Commento: per creare un cluster a due nodi non è necessario avere due server assolutamente identici. Dopo un guasto sul primo server, avrai del tempo per analizzare e ripristinare il funzionamento del nodo principale. Il secondo nodo funzionerà per l'affidabilità del sistema nel suo insieme. Tuttavia, ciò non significa che il secondo server sarà inattivo. Entrambi i nodi del cluster possono svolgere tranquillamente i propri affari, risolvere diversi problemi. Ma possiamo impostare una certa risorsa critica per lavorare in un cluster, aumentando la sua (questa risorsa) tolleranza ai guasti.
Commento: Secondo le raccomandazioni Microsoft, il tuo server dovrebbe avere due adattatori di rete, uno per la rete generale, il secondo per lo scambio di dati all'interno del cluster. È possibile creare un cluster su un'interfaccia, probabilmente sì, ma non l'ho provato.
Quando si progetta un cluster, è necessario comprendere che utilizzarne uno rete fisica sia per lo scambio di cluster che per rete locale, si aumenta la percentuale di guasto dell'intero sistema. Pertanto, è altamente auspicabile che lo scambio di dati del cluster utilizzi una sottorete allocata come elemento di rete fisica separato. E per la rete locale, dovresti usare una sottorete diversa. Pertanto, aumenti l'affidabilità dell'intero sistema nel suo insieme.
Nel caso di creazione di un cluster a due nodi, viene utilizzato uno switch rete comune. Due server cluster possono essere collegati direttamente con un cavo incrociato, come mostrato nella figura.
Questa guida passo passo ti aiuterà a evitare errori durante l'installazione e a risparmiare molto tempo. Quindi, cominciamo.
Semplificheremo un po 'il compito. Poiché tutti i nodi del cluster devono essere membri di dominio o controller di dominio, renderemo il primo nodo del cluster il titolare principale della directory AD (Active Directory) e il servizio DNS verrà eseguito su di esso. Il secondo nodo del cluster sarà un controller di dominio completo.
Installazione sistema operativo Sono disposto a saltare, supponendo che non dovresti avere problemi con quello. Ed ecco la configurazione dispositivi di rete voglio spiegare.
Prima di iniziare l'installazione del cluster e di Active Directory, è necessario completare le impostazioni di rete. Vorrei dividere tutte le impostazioni di rete in 4 fasi. Per risolvere i nomi sulla rete, è auspicabile disporre di un server DNS con record esistenti sui server del cluster.
Ogni server dispone di due schede di rete. Una scheda di rete servirà per lo scambio di dati tra i nodi del cluster, la seconda funzionerà per i client nella nostra rete. Di conseguenza, la prima si chiamerà Private Cluster Connection, la seconda si chiamerà Public Cluster Connection.
Le impostazioni della scheda di rete per l'uno e per l'altro server sono identiche. Di conseguenza, mostrerò come configurare la scheda di rete e fornirò un piatto con le impostazioni di rete di tutti e 4 gli adattatori di rete su entrambi i nodi del cluster. Per configurare la scheda di rete, attenersi alla seguente procedura:
Connessione cluster privato → Proprietà → Configura → Avanzate
Questo punto ha bisogno di qualche spiegazione. Il fatto è che, secondo le forti raccomandazioni di Microsoft, tutti gli adattatori di rete dei nodi del cluster dovrebbero essere impostati sulla velocità ottimale dell'adattatore, come mostrato nella figura seguente.
(Per il secondo host, usa 192.168.30.2). Immettere la subnet mask 255.255.255.252 . Utilizzare 192.168.100.1 come indirizzo del server DNS per entrambi gli host.
Utilizzare la tabella seguente per configurare tutte le schede di rete sui nodi del cluster:
Nodo | Nome della rete | indirizzo IP | MASCHERA | Server DNS |
---|---|---|---|---|
1 | Connessione al cluster pubblico | 192.168.100.1 | 255.255.255.0 | 192.168.100.1 |
1 | Connessione al cluster privato | 192.168.30.1 | 255.255.255.252 | 192.168.100.1 |
2 | Connessione al cluster pubblico | 192.168.100.2 | 255.255.255.0 | 192.168.100.1 |
3 | Connessione al cluster privato | 192.168.30.2 | 255.255.255.252 | 192.168.100.1 |
Poiché il mio articolo non intende parlare dell'installazione di Active Directory, ometterò questo punto. Ci sono molti consigli e libri scritti su questo. Stai prendendo Nome del dominio, come mycompany.ru, installa Active Directory sul primo nodo, aggiungi il secondo nodo al dominio come controller di dominio. Quando hai finito, controlla le configurazioni del tuo server, Active Directory.
Per configurare un array dati esterno in un cluster, ricorda che prima di installare il Cluster Service sui nodi, devi prima configurare i dischi sull'array esterno, solo successivamente installare il servizio cluster prima sul primo nodo, solo successivamente sul secondo . Se violi l'ordine di installazione, fallirai e non raggiungerai l'obiettivo. Può essere riparato, probabilmente sì. Quando si verifica un errore, avrai tempo per correggere le impostazioni. Ma Microsoft è una cosa così misteriosa che non sai affatto su che tipo di rastrello calpesterai. È più facile avere istruzioni passo passo davanti agli occhi e ricordarsi di premere i pulsanti. Passo dopo passo, la configurazione di un array esterno si presenta così:
Questo completa la configurazione dell'array esterno.
Prima di avviare l'installazione di Cluster Service Software, tutti i nodi del cluster devono essere disattivati e tutti gli array esterni devono essere attivati. Passiamo alla configurazione del primo nodo. L'array esterno è attivo, il primo server è attivo. L'intero processo di installazione viene eseguito utilizzando la procedura guidata di configurazione del servizio cluster:
Per installare e configurare il secondo nodo del cluster, il primo nodo deve essere abilitato e tutte le unità di rete devono essere abilitate. La procedura per impostare il secondo nodo è molto simile a quella che ho descritto sopra. Tuttavia, ci sono alcune piccole modifiche. Per fare ciò, utilizzare la seguente istruzione:
Per installare nodi cluster aggiuntivi, utilizzare le stesse istruzioni.
Per non confondersi con tutte le fasi dell'installazione di un cluster, darò una piccola tabella che riflette tutte le fasi principali.
Fare un passo | Nodo 1 | Nodo 2 | Matrice esterna |
---|
tBVPFBFSH INFORMAZIONI SU PDOK NBYE HCE OE NAPAP
YMY DEMBEN LMBUPET H DPNBYOYI HUMPCHYSI.
1 10.152.1.1
5
ZDE RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP HMB, CHFPTPK - IP BDTEU RETCHPZP HMB Y RPUMEDOYK - LPMYUEUFCHP HHMPCH U FELHEEPK. e.f. UEKYUBU X OBU H LMBUPETE PMHYUBEFUS RSFSH HHMPCH, IP BDTEUB LPFPTSCHK BLBOYUYCHBAFUS ABOUT 1, 2, 3, 4 Y 5.
yMY DTHZPK RTYNET:
OPNET HMB IP LPMYUEUFCHP HHMPH U FELHEESP
______________________________________
1 10.152.1.1
1
2 10.150.1.55
2
4 10.150.1.223
1
h FFK LPOJYZHTBGYY NS RPMHYUN UMEDHAEIK TBULMBD:
IP 1 PZP HMB 10.150.1.1
IP 2 PZP HMB 10.150.1.55
IP 3 PZP HMB 10.150.1.56
IP 4-PZP HMB 10.150.1.223
FERETSH OHTSOP INFORMAZIONI SU CHUEI NBYOBI VHDHEEZP LMBUFETB HUFBOPCHYFSH MOSIX Y UPDBFSH CHEDE PDYOBLPCHSCK LPOZHYZHTBGIPOOSCHK JBKM /etc/mosix.map .
FERETSh RPUME RETEBRHULB mosix CHBYB NBYOB HCE VKhDEF TBVPFBFSH H LMBUPETE, UFP NPTsOP HCHYDEFSH ЪBRHUFYCH NPOYFPT LPNBODPK mon. h UMHYUBE, EUMY CHSH HCHYDYFE CH NPOYFPTE FPMSHLP UCHPA NBYYOKH YMY CHPPVEE OE HCHYDYFE OILPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CBU PYVLB YNEOOP H /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. uFP dbmshye? b DBMSHYE PYUEOSH RTPUFP :-) - OHTSOP UPVTBFSH HFIMYFSCH DMS TBVPFSCH U YNEOEOOOSCHN /proc Ú RBLEFB mproc. h YUBUFOPUFY H FFPN RBLEFE YDEF OERMPIBS NPDYZHYLBGYS top - mtop, CH LPFPTSHCHK DPVBCHYMY CHPNPTSOPUFSH PFPVTBTSEOIS HMB(nodo), UPTFITPCHLY RP HMBN, RETEOPUB RTPGEUUB U FELHEEE ZP HMB ABOUT DTHZPK Y HUFBOPCMEOYS NYOYNBMSHOPK OB ZTHЪLY RTPGEUUPTB HMB, RPUME LPFPTPK RTPGEUUSCH OBYOBAF NYZTYTPCHBFSH INFORMAZIONI SU DTHZYE MOSIX - HHMSCH.
úBRHULBEN mtop, CHSHVYTBEN RPOTBCHYCHYKUS OE URSEIK RTPGEUU (TELPNEODHA BRHUFYFSH bzip) Y UNEMP DBCHYN LMBCHYYKH "g" OB CHBYEK LMBCHYBFKHTE, RPUM UEZP CHCHPDYN OB BRTPPU PID CHSHVT BOOPZP CH LBYUEUFCHE CETF CHSC RTPGEUUB Y ЪBFEN - OPNET HЪMB, LHDB NSCH IPFYN EZP PFRTBCHYFSH. b XCE RPUME LFPZP CHOYNBFEMSHOP RPUNPFTYFE ABOUT TEEKHMSHFBFSCH, PFPVTTBTSBENSCHE LPNBODPK mon - FB NBYOB DPMTSOB OBYUBFSH VTBFSH ABOUT UEVS OBZTHЪLH CHSHCHVTBOOPZP RTPGEUUB.
b UWUFCHEOOP mtop - H RPME #N PFPVTBTSBFS OPNET HMB, QUI SU CHSCRPMOSEPHUS.
OP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPYUEFUS PFRTBCHMSFSH INFORMAZIONI SU DTHZYE HHMSCH RTPGEUUSCH CHTHYuOHA? NUOVO OE BIPFEMPUSH. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUYTPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPCHPMSEF VPMEE-NEOE TBCHOPNETOP TBURTEDEMSFSH OBZTH'LH ABOUT CHUE KHMSCH. OH B CHPF êDEUSH OBN RTYDEFUS RPFTHDYFUS. dms OBYUBMB S TBUULBTSH, LBL UDEMBFSH FPOLHA OBUFTPCLH (sintonizzazione) DMS DHHI HHMPH LMBUFETB? H RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPPUFSI RTPGEUUPTPCH Y UEFY:
BRPNOYFE TB Y OBCHUEZDB - sintonizza NPTsOP CHSHCHRPMOSFSH FPMSHLP Ch single-mode. yOBYUE ChSCH MYVP RPMHYUFE OE UPCHUEN LPTTELFOSHCHK TEHMSHFBF, MYVP CHBYB NBYYOB NPCEF RTPUFP ЪBCHYUOHFSH.
yFBL, CHSHCHRPMOSEN melodia. rPUME RETECHPDB PRETBGYPOOPK UYUFENSCH H modalità singola OBRTYNET LPNBODPK init 1 YMYY init S BRHULBEN ULTYRF prep_tune,LPFPTSCHK RPDOYNEF SEFECHSE
YOFETJEKUSCH E BRHUFYF MOSIX. rPUME LFPZP ABOUT PDOK YÚ NBYYO BRHULBEN tune, CHCHPDYN ENH OPNET DTHZPZP HMB DMS OBUFTPKLY Y TsDEN TEHMSHFBFB - HFYMYFB DPMTSOB CHSCHDBFSH BRTPPU OB CHPD YEUFY YUYUEM, RPMHYUEOOOSCHI PF CHSHCHRPMOEOIS LPNBODSCH tune -a<ХЪЕМ>INFORMAZIONI SU DTHZPN HYME. uPVUFCHEOOP PRETBGYA RTYDEFUS RPCHFPTYFSH ABOUT DTHZPN HJME LPNBODPK tune -a<ХЪЕМ>. rPUME RPDPVOPZP FAOIOZB CH CHBYEK UYUFENE DPMTSEO RPSCHIFUS ZHBKM /etc/overheads, UPDETTSBEIK YOZHPTNBGYA DMS MOSIX CH CHYDE OELLYI YUYUMPCHSHCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYUYOBN tune OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE Y FELHEESP LBFBMPZB ZhBKM mosix.cost H /etc/overheads. fp RPNPCEF ;-).
rTY FAOOYOSE LMBUFETB Y VPMEE YUEN DCHHI NBYYO OHTSOP YURPMSHЪPCHBFSH HFYMYFH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBOOBS HFYMYFB RPCHPMSEF
CHBN H VPMEE RTPUFPN Y RTCHSHCHUOPN CHYDE OBUFTPIFSH LMBUFET, PFCHEFYCH ABOUT OEULPMSHLP CHPRTPPUCH Y RTPCHEDS FAOIOZ U DCHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNKH PRSHCHFH NPZH ULBBFSH, UFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪBZTHTSBFSH UEFSH, B OBPVPTPF - RTYPUFBOPCHYFSH CHUE BLFYCHOSCHE PRETBGYY HM PLBMSHOPC UEFY.
mostctl
- LPOFTPMSH OBD HIMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSHCH HMB - FBLIE, LBL blocco, soggiorno, lstay, ritardo Y F.D
dBCHBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTCH LFPK HFYMYFSCH:
rimanere
- RPCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH ABOUT DTHZYE HIMSCH U FELHEEK NBYOSCH. pFNEOSEFUS RBTBNEFTPN nostay YMY -stay
Rimango
- BRTEEBEF FPMSHLP MPLBMSHOSHCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYYO NPZHF RTPDPMTSBFSH FFP DEMBFSH. pFNEOSEFUS RBTBNEFTPN nolstay YMYY -lstay.
bloccare
- BRTEEBEF HDBMEOOSHCHN / ZPUFECHSHCHN RTPGEUUBN CHSHCHRPMOSFUS ABOUT FFPN HIM. pFNEOSEFUS RBTBNEFTPN noblock YMY -block.
Portare
- CHPCHTBEBEF PVTBFOP CHUE RTPGEUUSCH U FELHEEZP HMB CHSHCHRPMOSENSCHE ABOUT DTHZYI NBYYOBI LMBUFETB. ffpf RBTBNEFT NPTSEF OE UTBVBFSHCHBFSH, RPLB NYZTYTPCHBCHYYK RTPGEUU OE RPMKHYUYF RTETSCHCHBOYE PF UYUFENSCH.
setdelay
HUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBJOBEF NYZTYTPCHBFSH.
CHEDSH UZMBUIFEUSH - CH UMHYUBE, EUMY CHTENS CHSHCHRPMOEOIS RTPGEUUB NEOSHIE UELHODSCH UNSCHUM RETEOPUIFSH EZP INFORMAZIONI SU DTHZYE NBYYOSCH UEFY YUYUEBEF. yNEOOP FFP CHTENS Y CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN setdecay. rTYNET:
mosctl setdecay 1 500 200
HUFBOBCHMYCHBEF CHTENS RETEIPDB CIRCA DTHZYE HHMSCH 500 NYMMYUELHOD CH UMHYUBE, EUMY RTPGEUU BRHEEO LBL lento Y 200 NYMYUELHOD DMS veloce RTPGEUUPCH. pVTBFIFE CHOYNBOYE, UFP RBTBNEFT lento CHUEZDB DPMTSEO VSHFSH VPMSHIE YMI TBCHEO RBTBNEFTKh veloce.
mosrun
- BRHULBEF RTYMPSEOYE CH LMBUPET. OBRTYNET mosrun -e -j5 make JBRHUFYF make OB 5-PN XHME LMBUFETB, RTY LFPN CHUE EZP DPUETOIE RTPGEUUSCH VHDHF FBLCE CHSHCHRPMOSFUS OB 5-PN XME. rTBCHDB ЪDEUSH EUFSH PYO OABOU, RTY YUEN DPCHPMSHOP UHEEUFCHEOOOSCHK:
CH UMHYUBE, EUMY DPUETOYE RTPGEUUSCH CHSHCHRPMOSAFUS VSHCHUFTEE YUEN HUFBOPCMEOOOBS HFYMYFPK mosctl ЪBDETSLB (ritardo) FP RTPGEUU OE VHDEF NYZTYTPCHBFSH ABOUT DTHZYE HHMSCH LMBUFETB. X mosrun EEE DPCHPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTCH, OP RPDTPVOP HOBFSH
P OYI CHSCH UNPTSFE Y THLPCHPDUFCHB RP LFPK HFIYMYFE. (manmosrun)
lun - LBL NSC HCE OBEN, LFP NPOYFPT LMBUFETB, LPFPTSCCHK CH RUECHDPZTBJYUEULPN CHYDE PFPVTBTSBEF ЪBZTHЪLH LBTsDPZP TBVPYUEZP HMB CHBYEZP LMBUFETB, LPMYUEUFCHP UCHPVDO PK Y ЪBOSFPK RBNSFY HHMPCH Y CHSH CHDBEF NOPZP DTHZPK, OE NEOEE YOFETEUOPK YOZHPTNBGYY.
top - NPDYZHYGYTPCHBOOBS DMS YURPMSH'CHBOYS OB HHMBI LMBUFETB CHETUYS LPNBODSCH top. pFPVTTBTSBEF SU LTBOE DYOBNYUEULHA YOZHPTNBGYA P RTPGEUUBI, BRHEEOOSCHI SU DBOOPN KHME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RPGEUUSCH.
mps - FPCE NPDYZHYGYTPCHBOOBS CHETUYS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET HMB, INFORMAZIONI SU LPFPTSCHK NYZTYTPCHBM RTPGEUU.
CHPF SU NPK CHZMSD Y CHUE PUOPCHOSHE HFIMYFSHCH. INFORMAZIONI SU UBNPN DEME LPOEIOP NPTsOP PVPKFYUSH DBTSE VOYI. OBRTYNET JURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
fBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOKHA YOZHPTNBGYA P OBUFTPKLBI HMB, RTPGEUUBI BRHEOOOSCHI U DTHZYI HHMPCH Y F.D.,B FBLCE RPNEOSFSH YUBUFSH RBTBNEFTCH.
Prima di tutto, decidi quali componenti e risorse saranno necessarie. Avrai bisogno di un nodo master, almeno una dozzina di nodi di elaborazione identici, uno switch Ethernet, un'unità di distribuzione dell'alimentazione e un rack. Determina la quantità di cablaggio e raffreddamento, nonché la quantità di spazio necessaria. Decidi anche quali indirizzi IP desideri utilizzare per i nodi, quale software installerai e quali tecnologie saranno necessarie per creare potenza di calcolo parallela (maggiori informazioni di seguito).
Monta i nodi. Dovrai creare host o acquistare server predefiniti.
Installare i server nel rack. Inizia dal basso in modo che il rack non sia sovraccarico in alto. Avrai bisogno dell'aiuto di un amico: i server assemblati possono essere molto pesanti ed è abbastanza difficile inserirli nelle celle su cui sono supportati nel rack.
Installare uno switch Ethernet accanto al rack. Vale la pena configurare subito lo switch: imposta la dimensione del frame jumbo su 9000 byte, imposta l'indirizzo IP statico che hai scelto nel passaggio 1 e disattiva i protocolli non necessari come SMTP.
Installare un'unità di distribuzione dell'alimentazione (PDU o unità di distribuzione dell'alimentazione). A seconda di quale carico massimo distribuisci nodi sulla tua rete, potresti aver bisogno di 220 volt per un computer ad alte prestazioni.
Quando tutto è impostato, procedere alla configurazione. Linux è infatti il sistema di riferimento per i cluster ad alte prestazioni (HPC): non solo è l'ideale per il calcolo scientifico, ma non devi nemmeno pagare per installare un sistema su centinaia o addirittura migliaia di nodi. Immagina quanto costerebbe Installazione Windows per tutti i nodi!
Installa l'interfaccia di passaggio dei messaggi, il gestore risorse e altre librerie richieste. Se non hai installato Rocks nel passaggio precedente, dovrai installare manualmente il software richiesto per impostare la logica di calcolo parallelo.
Collega i computer alla rete. Il nodo master invia attività per il calcolo ai nodi slave, che a loro volta devono restituire il risultato e scambiarsi messaggi. E prima succede, meglio è.
Testare il cluster. L'ultima cosa da fare prima di dare agli utenti l'accesso alla potenza di calcolo è il test delle prestazioni. Il benchmark HPL (High Performance Lynpack) è un'opzione popolare per misurare la velocità di elaborazione in un cluster. Devi compilare il software dal sorgente con il massimo grado di ottimizzazione consentito dal tuo compilatore per l'architettura che hai scelto.