Finestre.  Virus.  I Quaderni.  Internet.  ufficio.  Utilità.  Autisti

Oggi i processi aziendali di molte aziende sono completamente legati alle informazioni
tecnologie. Con la crescente dipendenza delle organizzazioni dal lavoro dell'informatica
reti, la disponibilità dei servizi in qualsiasi momento e con qualsiasi carico gioca un ruolo importante
ruolo. Un solo computer può fornire Primo livello affidabilità e
scalabilità, il livello massimo può essere raggiunto combinando in
un singolo sistema di due o più computer: un cluster.

A cosa serve un cluster?

I cluster vengono utilizzati nelle organizzazioni che necessitano 24 ore su 24 e
disponibilità ininterrotta dei servizi e dove eventuali interruzioni del funzionamento sono indesiderabili e
non sono consentiti. O nei casi in cui è possibile un aumento del carico, con quale
il server principale non può farcela, quindi aggiuntivo
host che di solito svolgono altre attività. Per server email in lavorazione
decine e centinaia di migliaia di lettere al giorno o un server web che serve
shopping online, l'uso dei cluster è altamente auspicabile. Per l'utente
un tale sistema rimane completamente trasparente: lo sarà l'intero gruppo di computer
sembra un server. L'uso di diversi, anche più economici,
computer consente di ottenere vantaggi molto significativi rispetto a un singolo
e server veloce. Questa è una distribuzione uniforme delle richieste in arrivo,
maggiore tolleranza ai guasti, poiché quando un elemento esce, il suo carico
raccogliere altri sistemi, scalabilità, manutenzione conveniente e sostituzione
nodi del cluster e molto altro. Guasto di un nodo automaticamente
viene rilevato e il carico viene ridistribuito, per il cliente tutto questo rimarrà
inosservato.

Caratteristiche di Win2k3

In generale, alcuni cluster sono progettati per aumentare la disponibilità dei dati,
altri sono per le massime prestazioni. Nel contesto dell'articolo, noi
sarà interessato MPP (elaborazione parallela massiccia)- grappoli,
che lo stesso tipo di applicazioni viene eseguito su più computer, fornendo
scalabilità del servizio. Ci sono diverse tecnologie che
distribuire il carico su più server: reindirizzamento del traffico,
traduzione dell'indirizzo, Girone all'italiana del DNS, uso di speciali
programmi
operanti a livello di applicazione, come gli acceleratori web. IN
Win2k3, a differenza di Win2k, il supporto per il clustering è integrato e
sono supportati due tipi di cluster, diversi per applicazioni e specifiche
dati:

1. Cluster NLB (Network Load Balancing).- fornire
scalabilità ed elevata disponibilità di servizi e applicazioni basati su protocolli TCP
e UDP, combinando in un cluster fino a 32 server con lo stesso set di dati, su
che eseguono le stesse applicazioni. Ogni richiesta viene eseguita come
transazione separata. Sono abituati a lavorare con serie che cambiano raramente
dati come WWW, ISA, servizi terminali e altri servizi simili.

2. Cluster di server– può combinare fino a otto nodi, il loro principale
il compito è garantire la disponibilità delle applicazioni in caso di guasto. Consiste di attivo e
nodi passivi. Il nodo passivo è inattivo per la maggior parte del tempo, svolgendo il ruolo
riserva del nodo principale. Per singole applicazioniè possibile personalizzare
diversi server attivi, distribuendo il carico tra di loro. Entrambi i nodi
collegato a un unico data warehouse. Il cluster di server viene utilizzato per il lavoro
con grandi volumi di dati che cambiano frequentemente (posta, file e
server SQL). Inoltre, un tale cluster non può essere costituito da nodi che operano sotto
gestione delle varie varianti di Win2k3: Enterprise o Datacenter ( versioni web E
I cluster di server standard non supportano).

IN Microsoft Application Center 2000(e solo) ce n'era un altro tipo
grappolo - CLB (Bilanciamento del carico dei componenti), fornendo l'opportunità
distribuzione di applicazioni COM+ su più server.

Cluster NLB

Quando si utilizza il bilanciamento del carico, ciascuno degli host crea
una scheda di rete virtuale con il proprio indirizzo IP e MAC indipendente.
Questa interfaccia virtuale rappresenta il cluster come un singolo nodo, client
indirizzo ad esso sull'indirizzo virtuale. Tutte le richieste sono ricevute da ciascuno
nodo del cluster, ma vengono elaborati da uno solo. Funziona su tutti i nodi
Servizio di bilanciamento del carico di rete
,
che, utilizzando uno speciale algoritmo che non richiede lo scambio di dati tra
nodi, decide se un particolare nodo deve elaborare una richiesta o
NO. I nodi vengono scambiati messaggi di battito cardiaco mostrandoli
disponibilità. Se un host interrompe l'emissione di un heartbeat o viene visualizzato un nuovo nodo,
iniziano altri nodi processo di convergenza, un nuovo
ridistribuire il carico. Il bilanciamento può essere implementato in due modi
modalità:

1) unicast– unicast quando invece di un MAC fisico
viene utilizzato il MAC dell'adattatore virtuale del cluster. In questo caso, i nodi del cluster non lo sono
possono comunicare tra loro utilizzando indirizzi MAC solo su IP
(o un secondo adattatore non associato al cluster);

Solo una di queste modalità deve essere utilizzata all'interno dello stesso cluster.

può essere personalizzato diversi cluster NLB su una scheda di rete,
specificando regole specifiche per i porti. Tali cluster sono chiamati virtuali. Loro
applicazione consente di impostare per ogni applicazione, host o indirizzo IP
computer specifici nel cluster primario o bloccare il traffico per
alcune applicazioni senza influire sul traffico per altri programmi in esecuzione
su questo nodo. Oppure, al contrario, un componente NLB può essere associato a più componenti
adattatori di rete, che ti permetteranno di configurare un numero di cluster indipendenti su ciascuno
nodo. È inoltre necessario tenere presente che la configurazione di cluster di server e NLB sullo stesso nodo
non è possibile perché funzionano in modo diverso con i dispositivi di rete.

L'amministratore può creare una sorta di configurazione ibrida che ha
i vantaggi di entrambi i metodi, ad esempio creando un cluster NLB e impostando la replica
dati tra i nodi. Ma la replica non viene eseguita costantemente, ma di volta in volta,
pertanto, le informazioni sui diversi nodi saranno diverse per qualche tempo.

Finiamo con la teoria, anche se puoi parlare di costruzione di cluster
a lungo, elencando le possibilità e le modalità di edificazione, dando varie
raccomandazioni e opzioni per un'implementazione specifica. Lasciamo tutte queste sottigliezze e sfumature
per lo studio autonomo e passare alla parte pratica.

Impostazione di un cluster NLB

Per organizzazioni di cluster NLB nessun software aggiuntivo richiesto
prodotto dai mezzi disponibili di Win2k3. Per creare, mantenere e monitorare
I cluster NLB utilizzano il componente Responsabile del bilanciamento del carico di rete
(Gestore del bilanciamento del carico di rete)
, che si trova nella scheda
"Amministrazione" "Pannello di controllo" (comando NLBMgr). Poiché il componente
"Network Load Balancing" è installato come driver di rete Windows standard,
È inoltre possibile installare NLB utilizzando " Le connessioni di rete", v
cui è disponibile l'articolo corrispondente. Ma è meglio usare solo il primo
opzione, attivazione simultanea del gestore NLB e "Connessioni di rete"
può portare a risultati imprevedibili.

NLB Manager ti consente di configurare e gestire il lavoro da un posto alla volta
più cluster e nodi.

È anche possibile installare un cluster NLB su un computer con una rete
adattatore associato al componente Bilanciamento carico di rete, ma this
In caso di modalità unicast, il gestore NLB su questo computer non può essere
utilizzato per controllare altri nodi e i nodi stessi non possono scambiarsi
tra loro informazioni.

Ora chiamiamo il dispatcher NLB. Non abbiamo ancora cluster, quindi è apparso
la finestra non contiene alcuna informazione. Selezionare "Nuovo" dal menu "Cluster" e
iniziamo a compilare i campi nella finestra "Parametri cluster". Nel campo "Impostazioni".
Impostazioni IP cluster" immettere il valore dell'indirizzo IP virtuale del cluster, la maschera
sottorete e nome completo. Il valore dell'indirizzo MAC virtuale è impostato
automaticamente. Un po 'più in basso selezioniamo la modalità operativa del cluster: unicast o
multicast. Prestare attenzione alla casella di controllo "Consenti controllo remoto" - in
Tutto Documenti Microsoft consiglia vivamente di non utilizzarlo in
evitare problemi di sicurezza. Invece, dovresti fare domanda
spedizioniere o altro mezzo telecomando, ad esempio toolkit
Gestione Windows (WMI). Se viene presa la decisione di usarlo, allora
prendere tutte le misure appropriate per proteggere la rete, coprendo ulteriori
porte UDP del firewall 1717 e 2504.

Dopo aver compilato tutti i campi, fare clic su "Avanti". Nella finestra "Indirizzi IP del cluster", quando
necessario, aggiungiamo ulteriori indirizzi IP virtuali che saranno
utilizzato da questo cluster. Nella prossima finestra Regole porta, puoi farlo
impostare il bilanciamento del carico per una o per un gruppo di porte di tutte o
IP selezionato tramite i protocolli UDP o TCP, nonché bloccare l'accesso al cluster
determinate porte (che un firewall non sostituisce). Gruppo predefinito
elabora le richieste per tutte le porte (0-65365); è meglio limitare questo elenco,
aggiungendo solo quelli realmente necessari. Anche se, se non c'è voglia di scherzare,
puoi lasciare tutto così com'è. A proposito, in Win2k, per impostazione predefinita, tutto il traffico
diretto al cluster, elaborato solo il nodo che aveva la priorità più alta,
i restanti nodi sono stati collegati solo quando quello principale si è guastato.

Ad esempio, per IIS, devi solo abilitare le porte 80 (http) e 443 (https).
Inoltre, puoi fare in modo che, ad esempio, processi di connessioni sicure
solo server specifici in cui è installato il certificato. Per aggiungere
nuova regola, fai clic su "Aggiungi", nella finestra di dialogo che appare, inserisci
L'indirizzo IP del nodo, o se la regola si applica a tutti, quindi lasciare la casella di controllo
"Tutto". Nei campi "Da" e "A" dell'intervallo di porte, imposta lo stesso valore:
80. Il campo chiave è "Filtering Mode" - qui
specifica chi elaborerà questa richiesta. Ci sono tre campi che definiscono la modalità
filtraggio: "Nodi multipli", "Nodo singolo" e "Disabilita questo intervallo di porte".
Selezionando "Single Host" si intende che il traffico diretto all'IP selezionato (computer
o cluster) con il numero di porta specificato verranno elaborati dal nodo attivo,
avere l'indicatore di priorità più basso (ne parleremo più avanti). Selezionando "Disabilita..."
significa che tale traffico verrà eliminato da tutti i membri del cluster.

Nella modalità di filtro "Nodi multipli", è inoltre possibile specificare l'opzione
definizioni di affinità client per indirizzare il traffico da un determinato client a
lo stesso nodo del cluster. Sono disponibili tre opzioni: "Nessuno", "Singolo" o "Classe
C". Scegliere il primo significa che qualsiasi richiesta riceverà una risposta arbitraria
nodo. Ma non dovresti usarlo se la regola lo seleziona Protocollo UDP O
"Entrambi". Quando si scelgono altri articoli, la somiglianza dei clienti sarà determinata da
IP specifico o intervallo di rete di classe C.

Quindi, per la nostra regola con l'80° porto, opteremo per l'opzione
"Nodi multipli - Classe C". La regola per 443 è compilata allo stesso modo, ma usiamo
"Singolo nodo", in modo che il client riceva sempre risposta dal nodo principale con il valore più basso
priorità. Se il dispatcher trova una regola incompatibile, verrà visualizzata
messaggio di avviso, facoltativo nel registro Eventi Windows sarà fatto
voce corrispondente.

Successivamente, ci connettiamo al nodo del futuro cluster inserendo il suo nome o IP reale e
definire l'interfaccia che sarà connessa alla rete del cluster. Nella finestra Opzioni
node "selezionare una priorità dall'elenco, specificare le impostazioni di rete, impostare l'iniziale
stato del nodo (in esecuzione, arrestato, in pausa). Priorità allo stesso tempo
è l'identificatore univoco del nodo; minore è il numero, maggiore è la priorità.
Il nodo con priorità 1 è il server master che riceve per primo
pacchetti e fungendo da gestore di instradamento.

La casella di controllo "Mantieni lo stato dopo il riavvio del computer" consente, nel caso
l'errore o il riavvio di quel nodo lo porterà automaticamente online. Dopo aver premuto
su "Finish" nella finestra Manager, apparirà una voce sul nuovo cluster, in cui finora
c'è un nodo.
Anche il nodo successivo è facile da aggiungere. Selezionare "Aggiungi nodo" dal menu o
"Connetti a esistente", a seconda del computer
viene stabilita una connessione (è già un membro del cluster oppure no). Poi alla finestra
specificare il nome o l'indirizzo del computer, se ci sono diritti sufficienti per connettersi, uno nuovo
il nodo sarà connesso al cluster. La prima volta sarà l'icona accanto al suo nome
differiscono, ma quando il processo di convergenza sarà completato, sarà uguale a quello di
primo computer.

Poiché il dispatcher visualizza le proprietà dei nodi al momento della sua connessione, for
chiarimento dello stato attuale, selezionare un cluster e in menù contestuale paragrafo
"Aggiornamento". Il gestore si connetterà al cluster e visualizzerà i dati aggiornati.

Dopo l'installazione Cluster NLB non dimenticare di cambiare il record DNS in
risoluzione dei nomi ora mostrata sull'IP del cluster.

Modificare il carico del server

In questa configurazione, tutti i server verranno caricati in modo uniforme (ad eccezione di
opzione "Un nodo"). In alcuni casi è necessario ridistribuire il carico,
la maggior parte del lavoro è assegnata a uno dei nodi (ad esempio, il più potente).
Per un cluster, le regole possono essere modificate dopo che sono state create selezionando
menu contestuale che compare cliccando sul nome, la voce "Proprietà Cluster".
Tutte le impostazioni di cui abbiamo parlato sopra sono disponibili qui. Elemento del menu
"Proprietà nodo" fornisce alcune altre opzioni. In "Impostazioni nodo"
è possibile modificare il valore di priorità per un particolare nodo. In "Regole
per le porte" non è possibile aggiungere o eliminare una regola, è disponibile solo a livello
grappolo. Ma, scegliendo di modificare una regola specifica, ne abbiamo l'opportunità
regolare alcune impostazioni. Quindi, con la modalità di filtraggio impostata
"Multiple Nodes", l'elemento "Load Stima" diventa disponibile, permettendoti di farlo
ridistribuire il carico su un nodo specifico. Selezionato per impostazione predefinita
“Uguale”, ma nella “Stima del carico” è possibile specificare un diverso valore del carico su
nodo specifico, come percentuale del carico totale del cluster. Se la modalità è attivata
filtrando "Un nodo", in questa finestra appare nuovo parametro"Una priorità
in lavorazione". Usandolo, puoi farlo in modo che il traffico arrivi a una porta specifica
verrà elaborato prima di tutto da un nodo del cluster e dall'altro da altri
nodo.

Registrazione degli eventi

Come già accennato, il componente Network Load Balancing registra tutto
azioni del cluster e modifiche nel registro eventi di Windows. Vederli
seleziona "Visualizzatore eventi - Sistema", NLB include i messaggi WLBS (da
Servizio di bilanciamento del carico di Windows, come questo servizio era chiamato in NT). Inoltre, dentro
la finestra del dispatcher visualizza gli ultimi messaggi contenenti informazioni sugli errori
ed eventuali modifiche alla configurazione. Per impostazione predefinita, questa informazione non lo è
è salvato. Per scriverlo in un file, seleziona "Opzioni -\u003e
Opzioni registro", selezionare la casella di controllo "Abilita registrazione" e specificare un nome
file. Verrà creato un nuovo file in una sottodirectory del tuo account nei Documenti
e impostazioni.

Configurazione di IIS con replica

Un cluster è un cluster, ma senza un servizio non ha senso. Quindi aggiungiamo IIS (internet
servizi di informazione)
. Server IIS incluso con Win2k3, ma per ridurlo a
per ridurre al minimo la possibilità di attacchi al server, non è installato per impostazione predefinita.

Esistono due modi per installare IIS: tramite il "Pannello di controllo" o
maestro di gestione dei ruoli questo server. Consideriamo il primo. Vai a
"Pannello di controllo - Aggiungi o rimuovi programmi" (Pannello di controllo - Aggiungi o
Rimuovi programmi), selezionare "Installa Componenti Windows» (Aggiungi/Rimuovi Windows
componenti). Ora vai alla voce "Application Server" e seleziona "Services
IIS" è tutto ciò che serve. Per impostazione predefinita, la directory di lavoro del server è \Inetpub\wwwroot.
Una volta installato, IIS può visualizzare documenti statici.

Centro stampa

Creazione di un cluster basato su Windows 2000/2003. Passo dopo passo

Un cluster è un gruppo di due o più server che lavorano insieme per fornire tempo di attività insieme di applicazioni o servizi e percepito dal cliente come un unico elemento. I nodi del cluster sono interconnessi tramite hardware di rete, risorse condivise e software del server.

Microsoft Windows 2000/2003 supporta due tecnologie di clustering: cluster di bilanciamento del carico di rete e cluster di server.

Nel primo caso (cluster di bilanciamento del carico), Network Load Balancing rende i servizi e le applicazioni altamente affidabili e scalabili combinando fino a 32 server in un unico cluster. Richieste dai clienti in questo caso distribuito tra i nodi del cluster in modo trasparente. Quando un nodo si guasta, il cluster cambia automaticamente la sua configurazione e passa il client a uno qualsiasi dei nodi disponibili. Questa modalità di configurazione del cluster è anche chiamata modalità attivo-attivo, in cui una singola applicazione viene eseguita su più nodi.

Il cluster di server distribuisce il proprio carico tra i server nel cluster, con ogni server che trasporta il proprio carico. In caso di errore di un nodo nel cluster, le applicazioni ei servizi configurati per l'esecuzione nel cluster vengono riavviati in modo trasparente su uno qualsiasi dei nodi liberi. I cluster di server utilizzano dischi condivisi per comunicare all'interno del cluster e per fornire un accesso trasparente alle applicazioni e ai servizi del cluster. Richiedono attrezzature speciali, ma questa tecnologia fornisce un livello di affidabilità molto elevato perché il cluster stesso non ha alcun singolo punto di errore. Questa modalità di configurazione del cluster è anche chiamata modalità attivo-passivo. Un'applicazione in un cluster viene eseguita su un singolo nodo con dati condivisi che si trovano su una memoria esterna.

Approccio di cluster all'organizzazione rete interna prevede i seguenti vantaggi:

Elevata disponibilità Cioè, se un servizio o un'applicazione fallisce su qualche nodo di un cluster configurato per lavoro congiunto in un grappolo, raggruppato Software consente di riavviare questa applicazione su un host diverso. Allo stesso tempo, gli utenti sperimenteranno un breve ritardo durante alcune operazioni o non noteranno affatto un errore del server. Scalabilità Per le applicazioni in esecuzione in un cluster, aggiungere server al cluster significa aumentare le capacità: tolleranza agli errori, bilanciamento del carico, ecc. Gestibilità Gli amministratori, utilizzando un'unica interfaccia, possono gestire applicazioni e servizi, impostare la risposta agli errori in un nodo del cluster, distribuire il carico cluster tra i nodi e rimuovere il carico dai nodi per la manutenzione preventiva.

In questo articolo, cercherò di raccogliere la mia esperienza nella creazione di sistemi cluster su Basamento Windows e dai un po' guida passo passo per creare un cluster di server a due nodi con archiviazione dati condivisa.

Requisiti software

  • Microsoft Windows 2000 Advanced (Datacenter) Server o Microsoft Windows 2003 Server Enterprise Edition installato su tutti i server del cluster.
  • Servizio DNS installato. Spiegherò un po '. Se stai creando un cluster basato su due controller di dominio, è molto più conveniente utilizzare il servizio DNS, che hai comunque impostato quando hai creato Active Directory. Se stai creando un cluster basato su due server che sono membri di un dominio Windows NT, dovrai utilizzare WINS o abbinare i nomi e gli indirizzi dei computer nel file hosts.
  • Servizi terminali per la gestione remota del server. Non necessariamente, ma se disponi di Servizi terminal, è conveniente gestire i server dal tuo posto di lavoro.

Requisiti hardware

  • La migliore scelta di hardware per un nodo del cluster si basa sull'elenco HCL (Hardware Compatible List) del servizio cluster. Come raccomandato da Microsoft Hardware deve essere testato per la compatibilità con i servizi cluster.
  • Di conseguenza, avrai bisogno di due server con due adattatori di rete; Adattatore SCSI con un'interfaccia esterna per il collegamento di un array di dati esterno.
  • Un array esterno che dispone di due interfacce esterne. Ciascuno dei nodi del cluster è connesso a una delle interfacce.

Commento: per creare un cluster a due nodi non è necessario avere due server assolutamente identici. Dopo un guasto sul primo server, avrai del tempo per analizzare e ripristinare il funzionamento del nodo principale. Il secondo nodo funzionerà per l'affidabilità del sistema nel suo insieme. Tuttavia, ciò non significa che il secondo server sarà inattivo. Entrambi i nodi del cluster possono svolgere tranquillamente i propri affari, risolvere diversi problemi. Ma possiamo impostare una certa risorsa critica per lavorare in un cluster, aumentando la sua (questa risorsa) tolleranza ai guasti.

Requisiti delle impostazioni di rete

  • Nome NetBIOS univoco per il cluster.
  • Cinque indirizzi IP statici univoci. Due per le schede di rete per rete del cluster, due per le schede di rete per rete e una per il cluster.
  • Account di dominio per il Servizio cluster.
  • Tutti i nodi del cluster devono essere un server membro nel dominio o controller di dominio.
  • Ogni server deve disporre di due adattatori di rete. Uno per la connessione a una rete comune (rete pubblica), il secondo per lo scambio di dati tra i nodi del cluster (rete privata).

Commento: Secondo le raccomandazioni Microsoft, il tuo server dovrebbe avere due adattatori di rete, uno per la rete generale, il secondo per lo scambio di dati all'interno del cluster. È possibile creare un cluster su un'interfaccia, probabilmente sì, ma non l'ho provato.

Installazione di un cluster

Quando si progetta un cluster, è necessario comprendere che utilizzarne uno rete fisica sia per lo scambio di cluster che per rete locale, si aumenta la percentuale di guasto dell'intero sistema. Pertanto, è altamente auspicabile che lo scambio di dati del cluster utilizzi una sottorete allocata come elemento di rete fisica separato. E per la rete locale, dovresti usare una sottorete diversa. Pertanto, aumenti l'affidabilità dell'intero sistema nel suo insieme.

Nel caso di creazione di un cluster a due nodi, viene utilizzato uno switch rete comune. Due server cluster possono essere collegati direttamente con un cavo incrociato, come mostrato nella figura.

L'installazione di un cluster a 2 nodi può essere suddivisa in 5 passaggi

  • Installazione e configurazione dei nodi in un cluster.
  • Installazione e configurazione di una risorsa condivisa.
  • Controlla la configurazione del disco.
  • Configurazione del primo nodo del cluster.
  • Configurazione del secondo nodo nel cluster.

Questa guida passo passo ti aiuterà a evitare errori durante l'installazione e a risparmiare molto tempo. Quindi, cominciamo.

Installazione e configurazione dei nodi

Semplificheremo un po 'il compito. Poiché tutti i nodi del cluster devono essere membri di dominio o controller di dominio, renderemo il primo nodo del cluster il titolare principale della directory AD (Active Directory) e il servizio DNS verrà eseguito su di esso. Il secondo nodo del cluster sarà un controller di dominio completo.

Installazione sistema operativo Sono disposto a saltare, supponendo che non dovresti avere problemi con quello. Ed ecco la configurazione dispositivi di rete voglio spiegare.

Impostazioni di rete

Prima di iniziare l'installazione del cluster e di Active Directory, è necessario completare le impostazioni di rete. Vorrei dividere tutte le impostazioni di rete in 4 fasi. Per risolvere i nomi sulla rete, è auspicabile disporre di un server DNS con record esistenti sui server del cluster.

Ogni server dispone di due schede di rete. Una scheda di rete servirà per lo scambio di dati tra i nodi del cluster, la seconda funzionerà per i client nella nostra rete. Di conseguenza, la prima si chiamerà Private Cluster Connection, la seconda si chiamerà Public Cluster Connection.

Le impostazioni della scheda di rete per l'uno e per l'altro server sono identiche. Di conseguenza, mostrerò come configurare la scheda di rete e fornirò un piatto con le impostazioni di rete di tutti e 4 gli adattatori di rete su entrambi i nodi del cluster. Per configurare la scheda di rete, attenersi alla seguente procedura:

  • Le mie risorse di rete → Proprietà
  • Connessione cluster privato → Proprietà → Configura → Avanzate

    Questo punto ha bisogno di qualche spiegazione. Il fatto è che, secondo le forti raccomandazioni di Microsoft, tutti gli adattatori di rete dei nodi del cluster dovrebbero essere impostati sulla velocità ottimale dell'adattatore, come mostrato nella figura seguente.

  • Protocollo Internet (TCP/IP) → Proprietà → Usa il seguente IP: 192.168.30.1

    (Per il secondo host, usa 192.168.30.2). Immettere la subnet mask 255.255.255.252 . Utilizzare 192.168.100.1 come indirizzo del server DNS per entrambi gli host.

  • Inoltre, nella scheda Avanzate → WINS, selezionare Disabilitato NetBIOS su TCP/IP. Per le impostazioni degli adattatori di rete della rete pubblica (pubblica), omettere questo elemento.
  • Fai lo stesso con scheda di rete per rete locale Public Cluster Connection. Utilizzare gli indirizzi indicati nella tabella. L'unica differenza nella configurazione delle due NIC è che Public Cluster Connection non richiede la disabilitazione di WINS - NetBIOS su TCP/IP.

Utilizzare la tabella seguente per configurare tutte le schede di rete sui nodi del cluster:

Nodo Nome della rete indirizzo IP MASCHERA Server DNS
1 Connessione al cluster pubblico 192.168.100.1 255.255.255.0 192.168.100.1
1 Connessione al cluster privato 192.168.30.1 255.255.255.252 192.168.100.1
2 Connessione al cluster pubblico 192.168.100.2 255.255.255.0 192.168.100.1
3 Connessione al cluster privato 192.168.30.2 255.255.255.252 192.168.100.1

Installazione di Active Directory

Poiché il mio articolo non intende parlare dell'installazione di Active Directory, ometterò questo punto. Ci sono molti consigli e libri scritti su questo. Stai prendendo Nome del dominio, come mycompany.ru, installa Active Directory sul primo nodo, aggiungi il secondo nodo al dominio come controller di dominio. Quando hai finito, controlla le configurazioni del tuo server, Active Directory.

Installazione di un account utente del cluster

  • Start → Programmi → Strumenti di amministrazione → Utenti e computer di Active Directory
  • Aggiungere un nuovo utente, ad esempio ClusterService.
  • Selezionare le caselle per: L'utente non può modificare la password e La password non scade mai.
  • Aggiungi anche questo utente al gruppo amministratori e assegnagli i diritti Accedi come servizio (i diritti sono assegnati nella Politica di sicurezza locale e Politica di sicurezza del controller di dominio).

Impostazione di un array di dati esterno

Per configurare un array dati esterno in un cluster, ricorda che prima di installare il Cluster Service sui nodi, devi prima configurare i dischi sull'array esterno, solo successivamente installare il servizio cluster prima sul primo nodo, solo successivamente sul secondo . Se violi l'ordine di installazione, fallirai e non raggiungerai l'obiettivo. Può essere riparato, probabilmente sì. Quando si verifica un errore, avrai tempo per correggere le impostazioni. Ma Microsoft è una cosa così misteriosa che non sai affatto su che tipo di rastrello calpesterai. È più facile avere istruzioni passo passo davanti agli occhi e ricordarsi di premere i pulsanti. Passo dopo passo, la configurazione di un array esterno si presenta così:

  1. Entrambi i server devono essere spenti, l'array esterno acceso, connesso a entrambi i server.
  2. Accendi il primo server. Otteniamo l'accesso all'array di dischi.
  3. Verifichiamo che il disk array esterno sia stato creato come Basic. In caso contrario, trasferiremo il disco utilizzando l'opzione Ripristina disco di base.
  4. Creiamo una piccola partizione su un'unità esterna tramite Gestione computer → Gestione disco. Secondo le raccomandazioni di Microsoft, dovrebbe essere di almeno 50 MB. Consiglio di creare una partizione da 500 MB. o poco più. Questo è abbastanza per contenere i dati in cluster. La partizione deve essere formattata in NTFS.
  5. Su entrambi i nodi del cluster, questa partizione verrà denominata con la stessa lettera, ad esempio Q. Di conseguenza, quando si crea una partizione sul primo server, selezionare l'elemento Assegna la seguente lettera di unità - Q.
  6. Puoi contrassegnare il resto del disco come desideri. Naturalmente, si consiglia vivamente di utilizzare sistema di file NTFS. Ad esempio, durante la configurazione dei servizi DNS e WINS, i database del servizio principale verranno trasferiti su un disco condiviso (non il volume di sistema Q, ma il secondo che hai creato). E per motivi di sicurezza, sarà più conveniente utilizzare i volumi NTFS.
  7. Chiudi Gestione disco e controlla l'accesso alla partizione appena creata. Ad esempio, puoi creare su di esso file di testo test.txt , scrivi ed elimina. Se tutto è andato bene, allora abbiamo finito con la configurazione dell'array esterno sul primo nodo.
  8. Ora spegni il primo server. L'array esterno deve essere abilitato. Accendiamo il secondo server e controlliamo l'accesso alla partizione creata. Controlliamo anche che la lettera assegnata alla prima sezione sia identica a quella che abbiamo scelto, cioè Q.

Questo completa la configurazione dell'array esterno.

Installazione del software del servizio cluster

Configurazione del primo nodo del cluster

Prima di avviare l'installazione di Cluster Service Software, tutti i nodi del cluster devono essere disattivati ​​e tutti gli array esterni devono essere attivati. Passiamo alla configurazione del primo nodo. L'array esterno è attivo, il primo server è attivo. L'intero processo di installazione viene eseguito utilizzando la procedura guidata di configurazione del servizio cluster:


Configurazione del secondo nodo del cluster

Per installare e configurare il secondo nodo del cluster, il primo nodo deve essere abilitato e tutte le unità di rete devono essere abilitate. La procedura per impostare il secondo nodo è molto simile a quella che ho descritto sopra. Tuttavia, ci sono alcune piccole modifiche. Per fare ciò, utilizzare la seguente istruzione:

  1. Nella finestra di dialogo Crea o unisciti a un cluster, seleziona Il secondo o il nodo successivo nel cluster e fai clic su Avanti.
  2. Immettere il nome del cluster impostato in precedenza (nell'esempio è MyCluster) e fare clic su Avanti.
  3. Dopo aver connesso il secondo nodo al cluster, la Configurazione guidata servizio cluster preleverà automaticamente tutte le impostazioni dal nodo primario. Per avviare il servizio cluster, utilizzare il nome creato in precedenza.
  4. Inserisci la password del tuo account e fai clic su Avanti.
  5. Nella finestra di dialogo successiva, fare clic su Fine per completare l'installazione.
  6. Il servizio cluster verrà avviato sul secondo nodo.
  7. Chiudere la finestra Aggiungi/Rimuovi programmi.

Per installare nodi cluster aggiuntivi, utilizzare le stesse istruzioni.

Post scriptum, grazie

Per non confondersi con tutte le fasi dell'installazione di un cluster, darò una piccola tabella che riflette tutte le fasi principali.

Fare un passo Nodo 1 Nodo 2 Matrice esterna

tBVPFBFSH INFORMAZIONI SU PDOK NBYE HCE OE NAPAP
YMY DEMBEN LMBUPET H DPNBYOYI HUMPCHYSI.

1. CHEDEOIE

NOPZYE Y ChBU YNEAF H MPLBMSHOPC UEFY OEULPMSHLP Linux NBYYO, U RTBLFYUEULY CHUEZDB UCHPVPDOSHCHN RTPGEUUPTPN. fBLTSE NOPZYE UMSCHYBMY P UYUFENBI, CH LPFPTSCHI NBYYOSCH PVIEDEOSAPHUS CH PYO UHRETLPNRSHAFET. OP TEBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSH FBLIE LURETYNEOFSHCH X UEVS ABOUT TBVPFE YMY DPNB. dBCHBKFE RPRTPVKHEN CHNEUFE UPVTBFSH OEPPMSHYPK LMBUFET. rPUFTPYCH LMBUFET CHSC UNPCEFE TEBMSHOP HULPTYFSH CHSHCHRPMOOEOYE YUBUFY BDBYu. obrtynet LPNRYMSGYA YMY PDOCHTENEOOHA TBVPFKH OEULPMSHLYI TEUKHTUPENLYI RTPGEUUPCH. h LFPC UFBFSH S RPUFBTBAUSH TBUULBBFSH CHBN LBL NPTsOP VE PUPVSCHI KHUYMYK PVYAEDEOYFSH NBYYOSCH UCHPEK MPLBMSHOPK UEFY CH EDYOSCHK LMBUFET INFORMAZIONI SU VBE MOSIX.

2. LBL, UFP E ZDE.

MOSIX - LFP RBFYU DMS SDTB Linux U LPNRMELFPN HFYMYF, LPFPTSHK RPCHPMSEF RTPGEUUBN U CHBYEK NBYYOSCH RETEIPDYFSH (NYZTYTPCHBFSH) ABOUT DTHZYE HHMSCH MPLBMSHOPK UEFY. CHЪSFSH EZP NPTsOP RP BDTEUKH HTTP://www.mosix.cs.huji.ac.il B TBURTPUFTBOSEPHUS BY CH YUIDDOSCHI LPDBI RPD MYGEOJEK GPL. RBFUY UHEEUFCHHAF DMS CHUEI SDETH YUUFBVMSHOPK CHEFLY Linux.

3. HUFBOPCHLB RTPZTBNNOPZP PVEUREYEOIS.

h OBYUBME HUFBOPCHLY IPYUH RPTELPNEODPCHBFSH CHBN ЪBVYTBFSH U HMB MOSIX OE FPMSHLP EZP, OP Y UPRKHFUFCHHAEYE HFYMYFSCH - mproc, mexec Y DT.
h BTIYCHE MOSIX EUFSH HUFBOCHPUOSCHK ULTYRF mosix_install. oE SBVHDSHFE H PVSBFEMSHOPN RPTSDLE TBURBLPCHBFSH YUIDOSCHE LPDSH SDTB H /usr/src/linux-*.*.*, OBRTYNET LBL UDEMBM S - H /usr/src/linux-2.2.13 DBMEE BRHULBEFE mosix_install JP FCHEYUBEFE ABOUT CHUE EZP CHPRTPUSCH, HLBBCH ENH UCHPK NEOEDTSET ЪBZTKHЪLY (LILO), RHFSH L YUIPDOILBN SDTB Y KHTPCHOY BRHULP.
RTH OBUFTPCLE SDTB CHLMAYUFE PRHYY CONFIG_MOSIX, CONFIG_BINFMT_ELF E CONFIG_PROC_FS. CHUE LFY PRGYY RPDTPVOP PRYUBOSCH CH THLPCHPDUFCHE RP HUFBOPCLE MOSIX.
HUFFBOCHIMIA? oX UFP CE - RETEZTHTSBKFE CHBY Linux U OPCHSHCHN SDTPN, OBCHBOIE LPFPTPZP PYUEOSH VHDEF RPIPTS ABOUT mosix-2.2.13.

4. OBUFTPKLB

JOBYUBMSHOP HUFBOCHMEOOOSCHK MOSIX UCHETIEOOOP OE OBEF, LBLIE X CHBU NBYOSCH CH UEFY Y U LEN ENH UPEDEOSFUS. OH B OBUFTBYCHBEFUUS FFP PYUEOSH RTPUFP. eUMY CHS FPMSHLP RPUFBCHYMY mosix Y EUMY CHBY DYUFTYVHFICH - SuSE YMY RedHat - UPCNEUFYNSCHK, FP ЪBIPDYFE CH LBFBMPZ /etc/rc.d/init.d Y DBCHBKFE LPNBODH mosix start. rTY RETCHPN ЪBRHULE FFPF ULTYRF RTPUYF CHBU OBUFTPYFSH MOSIX Y ЪBRHULBEF FELUFPCHSCK TEBLFPPT DMS UPDBOYS JBKMB /etc/mosix.map, H LPFPTPN OBIPDYFUS URYUPL HUMCH BW YEZP LMBUFETB. fHDB RTPRYUSCHCHBEN: CH UMHYUBE, EUMY H CHBU CHUEZP DCHE-FTY NBYYOSCH Y YI IP-BDTEUB UMEDHAF
DTHZ ЪB DTHZPN RP OPNETBGYY RYYEN FBL:



1 10.152.1.1 5

ZDE RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP HMB, CHFPTPK - IP BDTEU RETCHPZP HMB Y RPUMEDOYK - LPMYUEUFCHP HHMPCH U FELHEEPK. e.f. UEKYUBU X OBU H LMBUPETE PMHYUBEFUS RSFSH HHMPCH, IP BDTEUB LPFPTSCHK BLBOYUYCHBAFUS ABOUT 1, 2, 3, 4 Y 5.
yMY DTHZPK RTYNET:

OPNET HMB IP LPMYUEUFCHP HHMPH U FELHEESP
______________________________________
1 10.152.1.1 1
2 10.150.1.55 2
4 10.150.1.223 1

h FFK LPOJYZHTBGYY NS RPMHYUN UMEDHAEIK TBULMBD:
IP 1 PZP HMB 10.150.1.1
IP 2 PZP HMB 10.150.1.55
IP 3 PZP HMB 10.150.1.56
IP 4-PZP HMB 10.150.1.223
FERETSH OHTSOP INFORMAZIONI SU CHUEI NBYOBI VHDHEEZP LMBUFETB HUFBOPCHYFSH MOSIX Y UPDBFSH CHEDE PDYOBLPCHSCK LPOZHYZHTBGIPOOSCHK JBKM /etc/mosix.map .

FERETSh RPUME RETEBRHULB mosix CHBYB NBYOB HCE VKhDEF TBVPFBFSH H LMBUPETE, UFP NPTsOP HCHYDEFSH ЪBRHUFYCH NPOYFPT LPNBODPK mon. h UMHYUBE, EUMY CHSH HCHYDYFE CH NPOYFPTE FPMSHLP UCHPA NBYYOKH YMY CHPPVEE OE HCHYDYFE OILPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CBU PYVLB YNEOOP H /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. uFP dbmshye? b DBMSHYE PYUEOSH RTPUFP :-) - OHTSOP UPVTBFSH HFIMYFSCH DMS TBVPFSCH U YNEOEOOOSCHN /proc Ú RBLEFB mproc. h YUBUFOPUFY H FFPN RBLEFE YDEF OERMPIBS NPDYZHYLBGYS top - mtop, CH LPFPTSHCHK DPVBCHYMY CHPNPTSOPUFSH PFPVTBTSEOIS HMB(nodo), UPTFITPCHLY RP HMBN, RETEOPUB RTPGEUUB U FELHEEE ZP HMB ABOUT DTHZPK Y HUFBOPCMEOYS NYOYNBMSHOPK OB ZTHЪLY RTPGEUUPTB HMB, RPUME LPFPTPK RTPGEUUSCH OBYOBAF NYZTYTPCHBFSH INFORMAZIONI SU DTHZYE MOSIX - HHMSCH.
úBRHULBEN mtop, CHSHVYTBEN RPOTBCHYCHYKUS OE URSEIK RTPGEUU (TELPNEODHA BRHUFYFSH bzip) Y UNEMP DBCHYN LMBCHYYKH "g" OB CHBYEK LMBCHYBFKHTE, RPUM UEZP CHCHPDYN OB BRTPPU PID CHSHVT BOOPZP CH LBYUEUFCHE CETF CHSC RTPGEUUB Y ЪBFEN - OPNET HЪMB, LHDB NSCH IPFYN EZP PFRTBCHYFSH. b XCE RPUME LFPZP CHOYNBFEMSHOP RPUNPFTYFE ABOUT TEEKHMSHFBFSCH, PFPVTTBTSBENSCHE LPNBODPK mon - FB NBYOB DPMTSOB OBYUBFSH VTBFSH ABOUT UEVS OBZTHЪLH CHSHCHVTBOOPZP RTPGEUUB.
b UWUFCHEOOP mtop - H RPME #N PFPVTBTSBFS OPNET HMB, QUI SU CHSCRPMOSEPHUS.
OP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPYUEFUS PFRTBCHMSFSH INFORMAZIONI SU DTHZYE HHMSCH RTPGEUUSCH CHTHYuOHA? NUOVO OE BIPFEMPUSH. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUYTPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPCHPMSEF VPMEE-NEOE TBCHOPNETOP TBURTEDEMSFSH OBZTH'LH ABOUT CHUE KHMSCH. OH B CHPF êDEUSH OBN RTYDEFUS RPFTHDYFUS. dms OBYUBMB S TBUULBTSH, LBL UDEMBFSH FPOLHA OBUFTPCLH (sintonizzazione) DMS DHHI HHMPH LMBUFETB? H RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPPUFSI RTPGEUUPTPCH Y UEFY:
BRPNOYFE TB Y OBCHUEZDB - sintonizza NPTsOP CHSHCHRPMOSFSH FPMSHLP Ch single-mode. yOBYUE ChSCH MYVP RPMHYUFE OE UPCHUEN LPTTELFOSHCHK TEHMSHFBF, MYVP CHBYB NBYYOB NPCEF RTPUFP ЪBCHYUOHFSH.
yFBL, CHSHCHRPMOSEN melodia. rPUME RETECHPDB PRETBGYPOOPK UYUFENSCH H modalità singola OBRTYNET LPNBODPK init 1 YMYY init S BRHULBEN ULTYRF prep_tune,LPFPTSCHK RPDOYNEF SEFECHSE
YOFETJEKUSCH E BRHUFYF MOSIX. rPUME LFPZP ABOUT PDOK YÚ NBYYO BRHULBEN tune, CHCHPDYN ENH OPNET DTHZPZP HMB DMS OBUFTPKLY Y TsDEN TEHMSHFBFB - HFYMYFB DPMTSOB CHSCHDBFSH BRTPPU OB CHPD YEUFY YUYUEM, RPMHYUEOOOSCHI PF CHSHCHRPMOEOIS LPNBODSCH tune -a<ХЪЕМ>INFORMAZIONI SU DTHZPN HYME. uPVUFCHEOOP PRETBGYA RTYDEFUS RPCHFPTYFSH ABOUT DTHZPN HJME LPNBODPK tune -a<ХЪЕМ>. rPUME RPDPVOPZP FAOIOZB CH CHBYEK UYUFENE DPMTSEO RPSCHIFUS ZHBKM /etc/overheads, UPDETTSBEIK YOZHPTNBGYA DMS MOSIX CH CHYDE OELLYI YUYUMPCHSHCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYUYOBN tune OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE Y FELHEESP LBFBMPZB ZhBKM mosix.cost H /etc/overheads. fp RPNPCEF ;-).
rTY FAOOYOSE LMBUFETB Y VPMEE YUEN DCHHI NBYYO OHTSOP YURPMSHЪPCHBFSH HFYMYFH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBOOBS HFYMYFB RPCHPMSEF
CHBN H VPMEE RTPUFPN Y RTCHSHCHUOPN CHYDE OBUFTPIFSH LMBUFET, PFCHEFYCH ABOUT OEULPMSHLP CHPRTPPUCH Y RTPCHEDS FAOIOZ U DCHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNKH PRSHCHFH NPZH ULBBFSH, UFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪBZTHTSBFSH UEFSH, B OBPVPTPF - RTYPUFBOPCHYFSH CHUE BLFYCHOSCHE PRETBGYY HM PLBMSHOPC UEFY.

5. hRTBCHMEOYE LMBUFETPN

dMS HRTBCHMEOYS HHMPN LMBUFETB UHEEUFCHHEF OEPPMSHYPK OBVPT LPNBOD, UTEDY LPFPTSCHI:

mostctl - LPOFTPMSH OBD HIMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSHCH HMB - FBLIE, LBL blocco, soggiorno, lstay, ritardo Y F.D
dBCHBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTCH LFPK HFYMYFSCH:
rimanere - RPCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH ABOUT DTHZYE HIMSCH U FELHEEK NBYOSCH. pFNEOSEFUS RBTBNEFTPN nostay YMY -stay
Rimango - BRTEEBEF FPMSHLP MPLBMSHOSHCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYYO NPZHF RTPDPMTSBFSH FFP DEMBFSH. pFNEOSEFUS RBTBNEFTPN nolstay YMYY -lstay.
bloccare - BRTEEBEF HDBMEOOSHCHN / ZPUFECHSHCHN RTPGEUUBN CHSHCHRPMOSFUS ABOUT FFPN HIM. pFNEOSEFUS RBTBNEFTPN noblock YMY -block.
Portare - CHPCHTBEBEF PVTBFOP CHUE RTPGEUUSCH U FELHEEZP HMB CHSHCHRPMOSENSCHE ABOUT DTHZYI NBYYOBI LMBUFETB. ffpf RBTBNEFT NPTSEF OE UTBVBFSHCHBFSH, RPLB NYZTYTPCHBCHYYK RTPGEUU OE RPMKHYUYF RTETSCHCHBOYE PF UYUFENSCH.
setdelay HUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBJOBEF NYZTYTPCHBFSH.
CHEDSH UZMBUIFEUSH - CH UMHYUBE, EUMY CHTENS CHSHCHRPMOEOIS RTPGEUUB NEOSHIE UELHODSCH UNSCHUM RETEOPUIFSH EZP INFORMAZIONI SU DTHZYE NBYYOSCH UEFY YUYUEBEF. yNEOOP FFP CHTENS Y CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN setdecay. rTYNET:
mosctl setdecay 1 500 200
HUFBOBCHMYCHBEF CHTENS RETEIPDB CIRCA DTHZYE HHMSCH 500 NYMMYUELHOD CH UMHYUBE, EUMY RTPGEUU BRHEEO LBL lento Y 200 NYMYUELHOD DMS veloce RTPGEUUPCH. pVTBFIFE CHOYNBOYE, UFP RBTBNEFT lento CHUEZDB DPMTSEO VSHFSH VPMSHIE YMI TBCHEO RBTBNEFTKh veloce.

mosrun - BRHULBEF RTYMPSEOYE CH LMBUPET. OBRTYNET mosrun -e -j5 make JBRHUFYF make OB 5-PN XHME LMBUFETB, RTY LFPN CHUE EZP DPUETOIE RTPGEUUSCH VHDHF FBLCE CHSHCHRPMOSFUS OB 5-PN XME. rTBCHDB ЪDEUSH EUFSH PYO OABOU, RTY YUEN DPCHPMSHOP UHEEUFCHEOOOSCHK:
CH UMHYUBE, EUMY DPUETOYE RTPGEUUSCH CHSHCHRPMOSAFUS VSHCHUFTEE YUEN HUFBOPCMEOOOBS HFYMYFPK mosctl ЪBDETSLB (ritardo) FP RTPGEUU OE VHDEF NYZTYTPCHBFSH ABOUT DTHZYE HHMSCH LMBUFETB. X mosrun EEE DPCHPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTCH, OP RPDTPVOP HOBFSH
P OYI CHSCH UNPTSFE Y THLPCHPDUFCHB RP LFPK HFIYMYFE. (manmosrun)

lun - LBL NSC HCE OBEN, LFP NPOYFPT LMBUFETB, LPFPTSCCHK CH RUECHDPZTBJYUEULPN CHYDE PFPVTBTSBEF ЪBZTHЪLH LBTsDPZP TBVPYUEZP HMB CHBYEZP LMBUFETB, LPMYUEUFCHP UCHPVDO PK Y ЪBOSFPK RBNSFY HHMPCH Y CHSH CHDBEF NOPZP DTHZPK, OE NEOEE YOFETEUOPK YOZHPTNBGYY.

top - NPDYZHYGYTPCHBOOBS DMS YURPMSH'CHBOYS OB HHMBI LMBUFETB CHETUYS LPNBODSCH top. pFPVTTBTSBEF SU LTBOE DYOBNYUEULHA YOZHPTNBGYA P RTPGEUUBI, BRHEEOOSCHI SU DBOOPN KHME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RPGEUUSCH.

mps - FPCE NPDYZHYGYTPCHBOOBS CHETUYS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET HMB, INFORMAZIONI SU LPFPTSCHK NYZTYTPCHBM RTPGEUU.

CHPF SU NPK CHZMSD Y CHUE PUOPCHOSHE HFIMYFSHCH. INFORMAZIONI SU UBNPN DEME LPOEIOP NPTsOP PVPKFYUSH DBTSE VOYI. OBRTYNET JURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
fBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOKHA YOZHPTNBGYA P OBUFTPKLBI HMB, RTPGEUUBI BRHEOOOSCHI U DTHZYI HHMPCH Y F.D.,B FBLCE RPNEOSFSH YUBUFSH RBTBNEFTCH.

6. LURETENE OFYTHEN.

l UPTSBMEOYA, NOE OE HDBMPUSH BUFBCHYFSH CHSHCHRPMOSFUS LBLLPK-FP PYO RTPGEUU PDOCHTENEOOP INFORMAZIONI SU OEULPMSHLYI HMBBI. nBLUYNKHN, YuEZP S DPUFYZ H RTPGEUUE LLURETYNEOPCH U LMBUFETPN-YURPMSHЪPCHBOYE DMS CHSHCHRPMOEOIS TEUKHTUPENLYI RTPGEUUPCH ABOUT DTHZPN KHME.
dBCHBKFE TBUUNPFTYN PYO Y RTYNETCH:
dPRHUFYN, UFP X OBU H LMBUPETE TBVPFBAF DCHE NBYOSCH (DCHB HMB), PYO Y LPFPTSHI U OPNETPN 1 (366 Celeron), DTHZPK - U OPNETPN 5 (PIII450). LURETYNEOPHYTPCHBFSH NSCH VKHDEN CIRCA 5-PN LUI. 1-K HEM H FFP CHTENS RTPUFBYCHBM. ;-)
yFBL, BRHULBEN ABOUT 5-N XHME HFYMYFH crark DMS RPDVPTB RBTPMS L rar BTIYCHH.eUMY LFP YЪ CHBU RTPVPCHBM TBVPFBFSH U RPDPVOSCHNY HFYMYFBNY, FP PO DPMTSEO OBFSH, YuFP RTPGE UU RPDVPTB RBTPMS "LHYBEF" DP 99 RTPGE OPCH RTPGEUUPTB. oX UFP CE - RPUME BRHULB NSCH OBVMADBEN, UFP RTPGEUU PUFBEFUS ABOUT LFPN, 5-PN XHME. tBKHNOP - CHEDSH YNEOOP X FFPZP HMB RTPYCHPDYFEMSHOPUFSH RTECHSHCHYBEF 1-K HEM RPYUFY H DCHB TBB.
dBMEE NSC RTPUFP ÚBRHUFYMY UVPTLH kde 2.0. unNPFTYN FBVMYGHH RTPGEUUPCH Y CHYDYN, UFP crark HUREYOP NYZTYTPCHBM ABOUT 1-K HEM, PUCHPPVPDYCH RTPGEUUPT Y RBNSFSH (DB, DB - RBNSFSH FPYuOP FBLCE PUCHPPVPTSDBEFUS) Marca DMS. b LBL FPMSHLP crea BLPOYUYM UCHPA TBVPPHH - crark CHETOHMUS PVTBFOP, ABOUT TPDOPC ENH 5-K HEM.
YOFETEWOSCHK JZHELF RPMHYUBEFUS, EUMY crark BRHUlbfsh INFORMAZIONI SU VPMEE NEDMEOOPN 1-N HYME.
fBN NSCH OBVMADBEN RTBLFYUEULY RTPFYCHPRMPTSOSCHK TEEKHMSHFBF - RTPGEUU UTBYH-TSE NYZTYTHEF OB 5-K, VPMEE VSHCHUFTSHCHK HEM. RTY LFPN PO CHPCHTBEBEFUS PVTBFOP, LPZDB IPSYO RSFPZP LPNRSHAFETTB OBYUYOBEF LBLIE-FP DECUFCHYS U UYUFENPK.

7. YURPMSH'CHBOYE

dBCHBKFE CH LPOGE TBVETENUS, BYUEN Y LBL NSCH NPTSEN YURPMSHЪCHBFSH LMBUFET CH UCHPEK RPCHUEDOECHOPC TSYOY.
DMS OBYUBMB OHTSOP TB Y OBCHUEZDB ЪBRPNOYFSH - LMBUFET CHSCHZPDEO FPMSHLP CH FPN UMHYUBE, LPZDB CH CHBYEK UEFY EUFSH IOOPE LPMYUEUFCHP NBYYO, LPFPTSCHE YUBUFEOSHLP RTPUFBYCH BAF Y CHS IPFIFE YURPMSHЪPCHBFSH YI TEUK HTUSCH OBRTYNET DMS UVPTLY KDE YMY DMS MAVSHCHI UETSHEOSCHI RTPGEUUPCH. CHEDSH VMBZPDBTS LMBUFETH YЪ 10 NBYYO NPTsOP PDOCHTENEOOP
LPNRYMYTPCHBFSH DP 10 FTSEMSHCHI RTPZTBNN INFORMAZIONI SU FPN-CE C++. yMY RPDVYTBFSH LBLPK-FP RBTPMSh,
OE RTELTBEBS OY SU UELHODH LFPZP RTPGEUUB OEBCHYUYNP PF OBZTHЪLY SU CHBY LPNRSHAFET.
dB Y CHPPVEE - FFP RTPUFP YOFETEUOP ;-).

8. bblmayueoye

h BLMAYUEOYE IPYUKH ULBBFSH, YuFP Ch FFK UVBFSHOE OE TBUUNPFTEOSHCHUE ChPNPTSOPUFY MOSIX, F.L. S RTPUFP DP OYI EEE OE DPVTBMUS. eUMY DPVETHUSH - TsDYFE RTPPDPMTSEOIS. :-)

Prima di tutto, decidi quali componenti e risorse saranno necessarie. Avrai bisogno di un nodo master, almeno una dozzina di nodi di elaborazione identici, uno switch Ethernet, un'unità di distribuzione dell'alimentazione e un rack. Determina la quantità di cablaggio e raffreddamento, nonché la quantità di spazio necessaria. Decidi anche quali indirizzi IP desideri utilizzare per i nodi, quale software installerai e quali tecnologie saranno necessarie per creare potenza di calcolo parallela (maggiori informazioni di seguito).

  • Sebbene l'hardware sia costoso, tutto il software in questo articolo è gratuito e la maggior parte è open source.
  • Se vuoi sapere quanto potrebbe essere veloce teoricamente il tuo supercomputer, usa questo strumento:

Monta i nodi. Dovrai creare host o acquistare server predefiniti.

  • Scegli frame di server che fanno l'uso più efficiente di spazio ed energia, oltre a un raffreddamento efficiente.
  • O puoi "riciclare" una dozzina di server usati, alcuni obsoleti - e anche se il loro peso supera il peso totale dei componenti, risparmierai una quantità decente. Tutti i processori adattatori di rete e le schede madri devono essere le stesse affinché i computer funzionino bene insieme. Naturalmente, non dimenticare RAM e dischi rigidi per ciascun nodo e almeno un'unità ottica per il nodo principale.
  • Installare i server nel rack. Inizia dal basso in modo che il rack non sia sovraccarico in alto. Avrai bisogno dell'aiuto di un amico: i server assemblati possono essere molto pesanti ed è abbastanza difficile inserirli nelle celle su cui sono supportati nel rack.

    Installare uno switch Ethernet accanto al rack. Vale la pena configurare subito lo switch: imposta la dimensione del frame jumbo su 9000 byte, imposta l'indirizzo IP statico che hai scelto nel passaggio 1 e disattiva i protocolli non necessari come SMTP.

    Installare un'unità di distribuzione dell'alimentazione (PDU o unità di distribuzione dell'alimentazione). A seconda di quale carico massimo distribuisci nodi sulla tua rete, potresti aver bisogno di 220 volt per un computer ad alte prestazioni.

  • Quando tutto è impostato, procedere alla configurazione. Linux è infatti il ​​sistema di riferimento per i cluster ad alte prestazioni (HPC): non solo è l'ideale per il calcolo scientifico, ma non devi nemmeno pagare per installare un sistema su centinaia o addirittura migliaia di nodi. Immagina quanto costerebbe Installazione Windows per tutti i nodi!

    • Inizia con l'installazione ultima versione BIOS per scheda madre e il software del produttore, che deve essere lo stesso per tutti i server.
    • Imposta il tuo preferito Distribuzione linux a tutti i nodi e al nodo principale: un kit di distribuzione con GUI. Sistemi popolari: CentOS, OpenSuse, Scientific Linux, RedHat e SLES.
    • L'autore consiglia vivamente di utilizzare Rocks Cluster Distribution. Oltre a installare tutto il software e gli strumenti necessari per il cluster, Rocks fornisce un metodo eccellente per eseguire rapidamente il "porting" di più copie del sistema su server simili utilizzando l'avvio PXE e la procedura "Kick Start" di Red Hat.
  • Installa l'interfaccia di passaggio dei messaggi, il gestore risorse e altre librerie richieste. Se non hai installato Rocks nel passaggio precedente, dovrai installare manualmente il software richiesto per impostare la logica di calcolo parallelo.

    • Per iniziare avrai bisogno sistema portatile per lavorare con bash, come Torque Resource Manager, che consente di suddividere e distribuire le attività su più macchine.
    • Aggiungi Maui Cluster Scheduler a Torque per completare l'installazione.
    • Successivamente, è necessario configurare un'interfaccia di passaggio dei messaggi, necessaria affinché i singoli processi in ogni singolo nodo condividano i dati. OpenMP è l'opzione più semplice.
    • Non dimenticare le librerie e i compilatori matematici multi-thread che "assembleranno" i tuoi programmi per il calcolo distribuito. Ho già detto che dovresti semplicemente installare Rocks?
  • Collega i computer alla rete. Il nodo master invia attività per il calcolo ai nodi slave, che a loro volta devono restituire il risultato e scambiarsi messaggi. E prima succede, meglio è.

    • Utilizza una rete Ethernet privata per connettere tutti i nodi in un cluster.
    • Il nodo master può anche funzionare come NFS, PXE, DHCP, TFTP e Server NTP quando connesso a Ethernet.
    • È necessario separare questa rete dalla rete pubblica per garantire che i pacchetti non vengano sovrapposti da altri sulla LAN.
  • Testare il cluster. L'ultima cosa da fare prima di dare agli utenti l'accesso alla potenza di calcolo è il test delle prestazioni. Il benchmark HPL (High Performance Lynpack) è un'opzione popolare per misurare la velocità di elaborazione in un cluster. Devi compilare il software dal sorgente con il massimo grado di ottimizzazione consentito dal tuo compilatore per l'architettura che hai scelto.

    • Devi ovviamente compilare con tutti impostazioni possibili ottimizzazioni disponibili per la piattaforma che hai scelto. Ad esempio, se si utilizza una CPU AMD, compilare in Open64 con un livello di ottimizzazione di -0.
    • Confronta i tuoi risultati con TOP500.org per confrontare il tuo cluster con i 500 supercomputer più veloci al mondo!
  • Se noti un errore, seleziona una parte di testo e premi Ctrl + Invio
    CONDIVIDERE: