Windows.  Virus.  Anteckningsböcker.  Internet.  kontor.  Verktyg.  Förare

Idag är många företags affärsprocesser helt bundna till information
tekniker. Med organisationers växande beroende av datorarbetet
nätverk spelar tillgängligheten av tjänster när som helst och under vilken belastning som helst en stor roll
roll. En dator kan bara tillhandahålla Första nivån tillförlitlighet och
skalbarhet, kan den maximala nivån uppnås genom att kombinera in
ett enda system med två eller flera datorer - ett kluster.

Vad är ett kluster till för?

Kluster används i organisationer som behöver dygnet runt och
oavbruten tillgänglighet av tjänster och där eventuella avbrott i driften är oönskade och
är inte tillåten. Eller i de fall där en ökning av belastningen är möjlig, med vilken
huvudservern klarar sig inte, sedan ytterligare
värdar som vanligtvis utför andra uppgifter. För Mejl server bearbetning
tiotals och hundratusentals brev per dag, eller en webbserver som serverar
näthandel är användningen av kluster mycket önskvärd. För användaren
ett sådant system förblir helt transparent - hela gruppen av datorer kommer att vara det
ser ut som en server. Användningen av flera, ännu billigare,
datorer kan du få mycket betydande fördelar jämfört med en singel
och snabb server. Detta är en enhetlig fördelning av inkommande förfrågningar,
ökad feltolerans, eftersom när ett element går ut, dess belastning
plocka upp andra system, skalbarhet, bekvämt underhåll och utbyte
klusternoder och mycket mer. Fel på en nod automatiskt
upptäcks och belastningen omfördelas, för klienten kommer allt detta att finnas kvar
obemärkt.

Funktioner i Win2k3

Generellt sett är vissa kluster utformade för att öka datatillgängligheten,
andra är för maximal prestanda. I samband med artikeln har vi
kommer att vara intresserad MPP (Massive Parallel Processing)- kluster,
som samma typ av applikationer körs på flera datorer, tillhandahåller
tjänstens skalbarhet. Det finns flera tekniker som
fördela belastningen över flera servrar: trafikomdirigering,
adressöversättning, DNS Round Robin, användning av speciella
program
fungerar i applikationslagret, som webbacceleratorer. I
Win2k3, till skillnad från Win2k, är klustringsstöd inbyggt och
två typer av kluster stöds, olika i applikationer och specifikationer
data:

1. NLB (Network Load Balancing)-kluster- ge
skalbarhet och hög tillgänglighet för tjänster och applikationer baserade på TCP-protokoll
och UDP, som kombinerar till ett kluster upp till 32 servrar med samma datauppsättning, på
som kör samma applikationer. Varje begäran exekveras som
separat transaktion. De är vana att arbeta med uppsättningar som sällan förändras
data som WWW, ISA, terminaltjänster och andra liknande tjänster.

2. Serverkluster– kan kombinera upp till åtta noder, deras huvudsakliga
uppgiften är att säkerställa tillgängligheten av applikationer i händelse av fel. Bestå av aktiva och
passiva noder. Den passiva noden är inaktiv för det mesta och spelar rollen
reserv för huvudnoden. För individuella ansökningar det går att anpassa
flera aktiva servrar som fördelar belastningen mellan dem. Båda noderna
ansluten till ett enda datalager. Serverkluster används för arbete
med stora mängder data som ändras ofta (post, fil och
SQL-servrar). Dessutom kan ett sådant kluster inte bestå av noder som arbetar under
hantering av olika varianter av Win2k3: Enterprise eller Datacenter ( webbversioner Och
Standardserverkluster stöds inte).

I Microsoft Application Center 2000(och bara) det fanns ytterligare en sort
kluster - CLB (Component Load Balancing), ger möjlighet
distribuera COM+-applikationer över flera servrar.

NLB-kluster

När du använder lastbalansering skapar var och en av värdarna
en virtuell nätverksadapter med sin egen oberoende IP- och MAC-adress.
Detta virtuella gränssnitt representerar klustret som en enda nod, klienter
adress till den på den virtuella adressen. Alla förfrågningar tas emot av var och en
klusternod, men bearbetas av endast en. Körs på alla noder
Nätverkslastbalanseringstjänst
,
som använder en speciell algoritm som inte kräver datautbyte mellan
noder, bestämmer om en viss nod behöver behandla en begäran eller
Nej. Noder byts ut hjärtslagsmeddelanden visar dem
tillgänglighet. Om en värd slutar ge ett hjärtslag eller en ny nod dyker upp,
andra noder startar konvergensprocess, på nytt
omfördelning av lasten. Balansering kan genomföras på ett av två sätt
lägen:

1) unicast– unicast när istället för en fysisk MAC
MAC för klustrets virtuella adapter används. I det här fallet är det inte klusternoderna
kan kommunicera med varandra med hjälp av MAC-adresser endast över IP
(eller en andra adapter som inte är associerad med klustret);

Endast ett av dessa lägen bör användas inom samma kluster.

kan anpassas flera NLB-kluster på en nätverksadapter,
specificera särskilda regler för hamnar. Sådana kluster kallas virtuella. Deras
applikation låter dig ställa in för varje applikation, värd eller IP-adress
specifika datorer i det primära klustret, eller blockera trafik för
vissa program utan att påverka trafiken för andra program som körs
på denna nod. Eller omvänt, en NLB-komponent kan vara bunden till flera
nätverkskort, som gör att du kan konfigurera ett antal oberoende kluster på varje
nod. Du bör också vara medveten om att konfigurera serverkluster och NLB på samma nod
är inte möjligt eftersom de fungerar annorlunda med nätverksenheter.

Administratören kan göra någon form av hybridkonfiguration som har
fördelarna med båda metoderna, till exempel genom att skapa ett NLB-kluster och ställa in replikering
data mellan noder. Men replikering utförs inte konstant, utan då och då,
därför kommer informationen på olika noder att vara olika under en tid.

Låt oss avsluta med teorin, även om man kan prata om att bygga kluster
under lång tid, listning av möjligheter och sätt att bygga upp, vilket ger olika
rekommendationer och alternativ för specifik implementering. Låt oss lämna alla dessa subtiliteter och nyanser
för självstudier och gå vidare till den praktiska delen.

Konfigurera ett NLB-kluster

För NLB-klusterorganisationer ingen ytterligare programvara krävs
producerad av tillgängliga medel för Win2k3. Att skapa, underhålla och övervaka
NLB-kluster använder komponenten Network Load Balancing Manager
(Network Load Balancing Manager)
, som finns på fliken
"Administration" "Kontrollpanelen" (kommando NLBMgr). Eftersom komponenten
"Network Load Balancing" är installerad som en standard Windows-nätverksdrivrutin,
Du kan också installera NLB med " Nätverkskopplingar", V
vilken motsvarande artikel är tillgänglig. Men det är bättre att bara använda den första
alternativ, samtidig aktivering av NLB-hanteraren och "Nätverksanslutningar"
kan leda till oförutsägbara resultat.

NLB Manager låter dig konfigurera och hantera arbete från en plats samtidigt
flera kluster och noder.

Det är också möjligt att installera ett NLB-kluster på en dator med ett nätverk
adapter associerad med komponenten Network Load Balancing, men detta
I unicast-läge kan NLB-hanteraren på den här datorn inte vara det
används för att styra andra noder, och själva noderna kan inte utbyta
med varandra information.

Nu ringer vi NLB-sändaren. Vi har inga kluster än, så det dök upp
fönstret innehåller ingen information. Välj "Ny" från "Kluster"-menyn och
vi börjar fylla i fälten i fönstret "Klusterparametrar". I fältet "Inställningar".
Cluster IP settings" ange värdet på den virtuella IP-adressen för klustret, masken
subnät och fullt kvalificerat namn. Värdet på den virtuella MAC-adressen är inställt
automatiskt. Lite lägre väljer vi klusterdriftsläget: unicast eller
multicast. Var uppmärksam på kryssrutan "Tillåt fjärrkontroll" - in
Allt Microsoft-dokument rekommenderar starkt att inte använda den i
undvika säkerhetsproblem. Istället bör du ansöka
avsändare eller på annat sätt fjärrkontroll, till exempel verktygslåda
Windows Management (WMI). Om beslutet att använda det tas, då
vidta alla lämpliga åtgärder för att skydda nätverket, täcka ytterligare
brandväggs UDP-portar 1717 och 2504.

När du har fyllt i alla fält klickar du på "Nästa". I fönstret "Kluster IP-adresser", när
nödvändigt, lägger vi till ytterligare virtuella IP-adresser som kommer att vara
används av detta kluster. I nästa portreglerfönster kan du
ställ in lastbalansering för en eller för en grupp av hamnar av alla eller
vald IP via UDP- eller TCP-protokoll, samt blockera åtkomst till klustret
vissa portar (som en brandvägg inte ersätter). Standardkluster
behandlar förfrågningar för alla portar (0-65365); det är bättre att begränsa denna lista,
lägger bara till de som verkligen är nödvändiga. Även om det inte finns någon lust att röra runt,
du kan lämna allt som det är. Förresten, i Win2k, som standard, all trafik
riktad till klustret, bearbetade endast den nod som hade högst prioritet,
de återstående noderna var anslutna endast när den huvudsakliga misslyckades.

Till exempel, för IIS behöver du bara aktivera portarna 80 (http) och 443 (https).
Dessutom kan du göra det så att till exempel säkra anslutningar process
endast specifika servrar som har certifikatet installerat. För att lägga till
ny regel, klicka på "Lägg till", i dialogrutan som visas, skriv in
Nodens IP-adress, eller om regeln gäller alla, lämna då kryssrutan
"Allt". I fälten "Från" och "Till" i portintervallet, ställ in samma värde -
80. Nyckelfältet är "Filtreringsläge" - här
anger vem som ska behandla denna begäran. Det finns tre fält som definierar läget
filtrering: "Flera noder", "Enskild nod" och "Inaktivera detta portintervall".
Att välja "Single Host" betyder att trafik dirigeras till den valda IP-adressen (dator
eller kluster) med det angivna portnumret kommer att behandlas av den aktiva noden,
har den lägsta prioritetsindikatorn (mer om det nedan). Välj "Inaktivera..."
innebär att sådan trafik kommer att tas bort av alla klustermedlemmar.

I filtreringsläget "Flera noder" kan du dessutom ange alternativet
klientaffinitetsdefinitioner för att dirigera trafik från en given klient till
samma klusternod. Det finns tre alternativ: "Ingen", "Singel" eller "Klass".
C". Att välja den första innebär att varje begäran kommer att besvaras av en godtycklig
nod. Men du bör inte använda den om regeln väljer UDP-protokoll eller
"Både". När du väljer andra föremål kommer likheten mellan kunder att bestämmas av
specifikt IP- eller klass C-nätverksområde.

Så för vår regel med den 80:e porten kommer vi att välja alternativet
"Flera noder - Klass C". Regeln för 443 fylls i på samma sätt, men vi använder
"Single node", så att klienten alltid besvaras av huvudnoden med den lägsta
prioritet. Om avsändaren hittar en inkompatibel regel visas den
varningsmeddelande, valfritt i loggen Windows-händelser kommer att göras
motsvarande post.

Därefter ansluter vi till noden för det framtida klustret genom att ange dess namn eller riktiga IP, och
definiera gränssnittet som ska anslutas till klusternätverket. I fönstret Alternativ
nod "välj en prioritet från listan, ange nätverksinställningarna, ställ in initialen
nodstatus (kör, stoppad, pausad). Prioritet samtidigt
är nodens unika identifierare; ju lägre siffra, desto högre prioritet.
Noden med prioritet 1 är huvudservern som först tar emot
paket och fungerar som routinghanterare.

Kryssrutan "Behåll tillstånd efter omstart av datorn" tillåter, i fall
fel eller omstart av den noden kommer automatiskt att göra den online. Efter tryckning
för att "Slutför" i Manager-fönstret visas en post om det nya klustret, där hittills
det finns en nod.
Nästa nod är också lätt att lägga till. Välj "Lägg till nod" från menyn eller
"Anslut till befintlig", beroende på vilken dator
en anslutning görs (den är redan medlem i klustret eller inte). Sedan i fönstret
ange namnet eller adressen på datorn, om det finns tillräckligt med rättigheter för att ansluta, en ny
noden kommer att kopplas till klustret. Första gången ikonen bredvid hans namn kommer att vara
skiljer sig åt, men när konvergensprocessen är klar kommer den att vara densamma som den för
första datorn.

Eftersom avsändaren visar egenskaperna för noderna vid tidpunkten för dess anslutning, för
förtydligande av det aktuella tillståndet, välj ett kluster och in innehållsmeny paragraf
"Uppdatering". Hanteraren kommer att ansluta till klustret och visa uppdaterad data.

Efter installation NLB-kluster glöm inte att ändra DNS-posten till
namnupplösning visas nu på klustrets IP.

Ändra serverbelastning

I den här konfigurationen kommer alla servrar att laddas jämnt (med undantag för
alternativet "En nod"). I vissa fall är det nödvändigt att omfördela lasten,
det mesta av arbetet är tilldelat en av noderna (till exempel den mest kraftfulla).
För ett kluster kan regler ändras efter att de har skapats genom att välja
snabbmenyn som visas när du klickar på namnet, objektet "Klusteregenskaper".
Alla inställningar som vi pratade om ovan är tillgängliga här. Menyalternativ
"Node Properties" ger några fler alternativ. I "Nodalternativ"
du kan ändra prioritetsvärdet för en viss nod. I "Regler
för portar" kan du inte lägga till eller ta bort en regel, den är endast tillgänglig på nivån
klunga. Men genom att välja att redigera en specifik regel får vi möjligheten
justera vissa inställningar. Så, med filtreringsläget inställt
"Flera noder", objektet "Ladda uppskattning" blir tillgängligt, vilket gör att du kan
omfördela belastningen på en specifik nod. Markerad som standard
"Lika", men i "Belastningsuppskattning" kan du ange ett annat värde för lasten på
specifik nod, i procent av den totala klusterbelastningen. Om läget är aktiverat
filtrering "En nod", i detta fönster visas ny parameter"En prioritet
bearbetning". Med hjälp av det kan du göra det så att trafik till en specifik port
kommer att bearbetas först av allt av en nod i klustret och till en annan - av andra
nod.

Händelseloggning

Som redan nämnts registrerar Network Load Balancing-komponenten allt
klusteråtgärder och ändringar i Windows händelseloggen. Att se dem
välj "Event Viewer - System", NLB inkluderar WLBS-meddelanden (från
Windows Load Balancing Service, som denna tjänst hette i NT). Dessutom i
avsändarfönstret visar de senaste meddelandena som innehåller information om fel
och eventuella konfigurationsändringar. Som standard är denna information inte det
är sparad. För att skriva det till en fil, välj "Alternativ -\u003e
Loggalternativ", markera kryssrutan "Aktivera loggning" och ange ett namn
fil. En ny fil kommer att skapas i en underkatalog till din konto i dokument
och inställningar.

Konfigurera IIS med replikering

Ett kluster är ett kluster, men utan en tjänst är det ingen mening. Så låt oss lägga till IIS (Internet
informationstjänster)
. IIS-server ingår i Win2k3, men för att minska den till
för att minimera risken för attacker på servern är den inte installerad som standard.

Det finns två sätt att installera IIS: genom "Kontrollpanelen" eller
rollledningsmästare denna server. Låt oss överväga den första. Gå till
"Kontrollpanelen - Lägg till eller ta bort program" (Kontrollpanelen - Lägg till eller
Ta bort program), välj "Installera Windows-komponenter» (Lägg till/ta bort Windows
komponenter). Gå nu till objektet "Application Server" och markera i "Tjänster
IIS" är allt som behövs. Som standard är serverns arbetskatalog \Inetpub\wwwroot.
När det är installerat kan IIS visa statiska dokument.

Tryck mitten

Skapa ett kluster baserat på Windows 2000/2003. Steg för steg

Ett kluster är en grupp av två eller flera servrar som arbetar tillsammans för att tillhandahålla upptid uppsättning applikationer eller tjänster och uppfattas av klienten som ett enda element. Klusternoder är sammankopplade med hjälp av nätverkshårdvara, delade resurser och serverprogramvara.

Microsoft Windows 2000/2003 stöder två klustringsteknologier: Network Load Balancing-kluster och serverkluster.

I det första fallet (belastningsbalanserande kluster) gör Network Load Balancing tjänster och applikationer mycket tillförlitliga och skalbara genom att kombinera upp till 32 servrar i ett enda kluster. Förfrågningar från kunder i det här fallet distribueras mellan klusternoderna transparent. När en nod misslyckas ändrar klustret automatiskt sin konfiguration och växlar klienten till någon av de tillgängliga noderna. Detta klusterkonfigurationsläge kallas även aktivt-aktivt läge, där en enda applikation körs på flera noder.

Serverklustret fördelar sin belastning mellan servrarna i klustret, där varje server bär sin egen belastning. Om en nod i klustret misslyckas, startas applikationer och tjänster som är konfigurerade för att köras i klustret transparent på någon av de lediga noderna. Serverkluster använder delade diskar för att kommunicera inom klustret och för att ge transparent åtkomst till klustrets applikationer och tjänster. De kräver speciell utrustning, men denna teknik ger en mycket hög nivå av tillförlitlighet eftersom klustret i sig inte har någon enskild felpunkt. Detta klusterkonfigurationsläge kallas även aktivt-passivt läge. En applikation i ett kluster körs på en enda nod med delad data som finns på extern lagring.

Kluster förhållningssätt till organisation internt nätverk ger följande fördelar:

Hög tillgänglighet Det vill säga om en tjänst eller applikation misslyckas på någon nod i ett kluster som är konfigurerat för gemensamt arbete i en klunga, klungad programvara låter dig starta om det här programmet på en annan värd. Samtidigt kommer användarna att uppleva en kort fördröjning under någon operation, eller så kommer de inte att märka något serverfel alls. Skalbarhet För applikationer som körs i ett kluster innebär att lägga till servrar till klustret att öka kapaciteten: feltolerans, lastbalansering, etc. Hanterbarhet Administratörer kan, med hjälp av ett enda gränssnitt, hantera applikationer och tjänster, ställa in ett felsvar i en klusternod, lastbalans mellan klusternoder och ta bort belastningsnoder för förebyggande underhåll.

I den här artikeln kommer jag att försöka samla min erfarenhet av att skapa klustersystem på Windows bas och ge lite steg för steg guide för att skapa ett serverkluster med två noder med delad datalagring.

Programvarukrav

  • Microsoft Windows 2000 Advanced (Datacenter) Server eller Microsoft Windows 2003 Server Enterprise Edition installerad på alla servrar i klustret.
  • Installerad DNS-tjänst. Jag ska förklara lite. Om du bygger ett kluster baserat på två domänkontrollanter, så är det mycket bekvämare att använda DNS-tjänsten, som du ändå satte upp när du skapade Active Directory. Om du skapar ett kluster baserat på två servrar som är medlemmar i en Windows NT-domän, måste du antingen använda WINS eller matcha maskinnamn och adresser i hosts-filen.
  • Terminaltjänster för fjärrserverhantering. Inte nödvändigtvis, men om du har Terminal Services är det bekvämt att hantera servrar från din arbetsplats.

Hårdvarukrav

  • Det bästa valet av hårdvara för en klusternod baseras på Cluster Service Hardware Compatible List (HCL). Som rekommenderat av Microsoft Hårdvara måste testas för kompatibilitet med Cluster Services.
  • Följaktligen behöver du två servrar med två nätverkskort; SCSI-adapter med ett externt gränssnitt för anslutning av en extern datamatris.
  • En extern array som har två externa gränssnitt. Var och en av klusternoderna är anslutna till ett av gränssnitten.

Kommentar: för att skapa ett kluster med två noder är det inte nödvändigt att ha två helt identiska servrar. Efter ett fel på den första servern kommer du att ha lite tid på dig att analysera och återställa driften av huvudnoden. Den andra noden kommer att fungera för systemets tillförlitlighet som helhet. Detta betyder dock inte att den andra servern kommer att vara inaktiv. Båda noderna i klustret kan lugnt sköta sin verksamhet, lösa olika problem. Men vi kan ställa in en viss kritisk resurs för att fungera i ett kluster, vilket ökar dess (denna resurs) feltolerans.

Krav på nätverksinställningar

  • Unikt NetBIOS-namn för klustret.
  • Fem unika statiska IP-adresser. Två för nätverksadaptrar per klusternätverk, två för nätverksadaptrar per nätverk och en för klustret.
  • Domänkonto för Cluster-tjänsten.
  • Alla klusternoder måste antingen vara en medlemsserver i domänen eller domänkontrollanter.
  • Varje server måste ha två nätverkskort. En för att ansluta till ett gemensamt nätverk (Public Network), den andra för datautbyte mellan klusternoder (Privat Network).

Kommentar: Enligt Microsofts rekommendationer bör din server ha två nätverksadaptrar, en för det allmänna nätverket, den andra för datautbyte inom klustret. Är det möjligt att bygga ett kluster på ett gränssnitt - förmodligen ja, men jag har inte provat det.

Installera ett kluster

När du designar ett kluster måste du förstå att du använder ett fysiskt nätverk både för klusterbyte och för lokalt nätverk, ökar du andelen fel i hela systemet. Därför är det mycket önskvärt för klusterdatautbyte att använda ett subnät som allokerats som ett separat fysiskt nätverkselement. Och för det lokala nätverket bör du använda ett annat subnät. Därmed ökar du tillförlitligheten för hela systemet som helhet.

I fallet med att bygga ett kluster med två noder används en switch gemensamt nätverk. Två klusterservrar kan anslutas direkt med en korskabel, som visas i figuren.

Installation av ett 2-nodskluster kan delas in i 5 steg

  • Installera och konfigurera noder i ett kluster.
  • Installera och konfigurera en delad resurs.
  • Kontrollera diskkonfigurationen.
  • Konfigurera den första klusternoden.
  • Konfigurera den andra noden i klustret.

Denna steg-för-steg-guide hjälper dig att undvika misstag under installationen och sparar mycket tid. Så, låt oss börja.

Installera och konfigurera noder

Vi kommer att förenkla uppgiften lite. Eftersom alla klusternoder måste vara antingen domänmedlemmar eller domänkontrollanter, kommer vi att göra den första klusternoden till rotinnehavaren av AD (Active Directory)-katalogen, och DNS-tjänsten kommer att köras på den. Den andra noden i klustret kommer att vara en fullständig domänkontrollant.

Installation operativ system Jag är villig att hoppa över, förutsatt att du inte skulle ha några problem med det. Och här är konfigurationen nätverksenheter vill förklara.

Nätverksinställningar

Innan du startar installationen av klustret och Active Directory måste du slutföra nätverksinställningarna. Jag skulle vilja dela upp alla nätverksinställningar i 4 steg. För att lösa namn på nätverket är det önskvärt att ha en DNS-server med befintliga register om klusterservrar.

Varje server har två nätverkskort. Ett nätverkskort kommer att fungera för att utbyta data mellan klusternoder, det andra kommer att fungera för klienter i vårt nätverk. Följaktligen kommer den första att kallas Private Cluster Connection, den andra kommer att kallas Public Cluster Connection.

Nätverksadapterns inställningar för den ena och den andra servern är identiska. Följaktligen kommer jag att visa hur man konfigurerar nätverksadaptern och ger en skylt med nätverksinställningarna för alla 4 nätverksadaptrar på båda klusternoderna. Följ dessa steg för att konfigurera nätverkskortet:

  • Mina nätverksplatser → Egenskaper
  • Privat klusteranslutning → Egenskaper → Konfigurera → Avancerat

    Denna punkt behöver lite förklaring. Faktum är att enligt de starka rekommendationerna från Microsoft bör alla nätverksadaptrar av klusternoder ställas in på adapterns optimala hastighet, som visas i följande figur.

  • Internetprotokoll (TCP/IP) → Egenskaper → Använd följande IP: 192.168.30.1

    (För den andra värden, använd 192.168.30.2). Ange nätmasken 255.255.255.252 . Använd 192.168.100.1 som DNS-serveradress för båda värdarna.

  • På fliken Avancerat → WINS väljer du dessutom Inaktiverat NetBIOS över TCP/IP. För inställningar för nätverkskort för det offentliga (offentliga) nätverket, utelämna detta alternativ.
  • Gör samma sak med nätverkskort för lokalt nätverk Public Cluster Connection. Använd adresserna som anges i tabellen. Den enda skillnaden i konfigurationen av de två nätverkskorten är att Public Cluster Connection inte kräver att WINS - NetBIOS över TCP/IP är inaktiverat.

Använd följande tabell för att konfigurera alla nätverkskort på klusternoder:

Knut Nätverksnamn IP-adress MASK DNS-server
1 Public Cluster Connection 192.168.100.1 255.255.255.0 192.168.100.1
1 Privat klusteranslutning 192.168.30.1 255.255.255.252 192.168.100.1
2 Public Cluster Connection 192.168.100.2 255.255.255.0 192.168.100.1
3 Privat klusteranslutning 192.168.30.2 255.255.255.252 192.168.100.1

Installerar Active Directory

Eftersom min artikel inte syftar till att tala om att installera Active Directory, kommer jag att utelämna denna punkt. Det finns en hel del rekommendationer och böcker skrivna om detta. Du tar Domän namn, som mycompany.ru, installera Active Directory på den första noden, lägg till den andra noden till domänen som en domänkontrollant. När du är klar, kontrollera dina serverkonfigurationer, Active Directory.

Installera ett klusteranvändarkonto

  • Start → Program → Administrationsverktyg → Active Directory-användare och -datorer
  • Lägg till en ny användare, till exempel ClusterService.
  • Markera rutorna för: Användare kan inte ändra lösenord och Lösenord går aldrig ut .
  • Lägg också till denna användare i administratörsgruppen och ge honom rättigheterna Logga in som en tjänst (rättigheterna tilldelas i den lokala säkerhetspolicyn och Domänkontrollant säkerhetspolicy).

Konfigurera en extern datamatris

För att ställa in en extern datamatris i ett kluster, kom ihåg att innan du installerar Cluster Service på noderna måste du först konfigurera diskarna på den externa matrisen, först sedan installera klustertjänsten först på den första noden, först sedan på den andra. Om du bryter mot installationsordningen kommer du att misslyckas och du kommer inte att nå målet. Går det att fixa, förmodligen ja. När ett fel uppstår har du tid att korrigera inställningarna. Men Microsoft är en så mystisk sak att du inte alls vet vilken typ av rake du kommer att trampa på. Det är lättare att ha steg-för-steg-instruktioner framför ögonen och komma ihåg att trycka på knapparna. Steg för steg, konfigurering av en extern array ser ut så här:

  1. Båda servrarna måste vara avstängda, extern array påslagen, ansluten till båda servrarna.
  2. Slå på den första servern. Vi får tillgång till diskarrayen.
  3. Vi kontrollerar att den externa diskarrayen har skapats som Basic. Om så inte är fallet kommer vi att överföra disken med alternativet Återställ till grundläggande disk.
  4. Vi skapar en liten partition på en extern enhet genom Datorhantering → Diskhantering. Enligt Microsofts rekommendationer bör den vara minst 50 MB. Jag rekommenderar att du skapar en 500MB partition. eller lite mer. Detta är tillräckligt för att rymma klustrade data. Partitionen måste formateras i NTFS.
  5. På båda noderna i klustret kommer denna partition att namnges med samma bokstav, till exempel Q. Följaktligen, när du skapar en partition på den första servern, välj objektet Tilldela följande enhetsbeteckning - Q.
  6. Du kan markera resten av disken som du vill. Naturligtvis rekommenderas det starkt att använda filsystem NTFS. Till exempel, när du konfigurerar DNS, WINS-tjänster, kommer huvudtjänstdatabaserna att överföras till en delad disk (inte Q-systemvolymen, utan den andra du skapade). Och av säkerhetsskäl kommer det att vara bekvämare för dig att använda NTFS-volymer.
  7. Stäng Diskhantering och kontrollera åtkomst till den nyskapade partitionen. Du kan till exempel skapa på den textfil test.txt , skriv och radera. Om allt gick bra är vi klara med konfigurationen av den externa arrayen på den första noden.
  8. Stäng nu av den första servern. Den yttre arrayen måste vara aktiverad. Vi slår på den andra servern och kontrollerar åtkomsten till den skapade partitionen. Vi kontrollerar också att bokstaven som tilldelas den första sektionen är identisk med den vi valde, dvs Q.

Detta slutför den externa arraykonfigurationen.

Installera Cluster Service Software

Konfiguration av den första klusternoden

Innan installationen av Cluster Service Software påbörjas måste alla klusternoder vara avstängda, alla externa arrayer måste vara påslagna. Låt oss gå vidare till konfigurationen av den första noden. Den externa arrayen är uppe, den första servern är uppe. Hela installationsprocessen sker med hjälp av Cluster Service Configuration Wizard:


Konfiguration av den andra noden i klustret

För att installera och konfigurera den andra klusternoden måste den första noden vara aktiverad och alla nätverksenheter måste vara aktiverade. Proceduren för att ställa in den andra noden är mycket lik den jag beskrev ovan. Det finns dock några mindre ändringar. För att göra detta, använd följande instruktion:

  1. I dialogrutan Skapa eller gå med i ett kluster väljer du Den andra eller nästa nod i klustret och klicka på nästa.
  2. Ange klusternamnet som vi angett tidigare (i exemplet är det MyCluster) och klicka på nästa.
  3. Efter att ha anslutit den andra noden till klustret, kommer Cluster Service Configuration Wizard automatiskt att hämta alla inställningar från den primära noden. För att starta klustertjänsten, använd det namn vi skapade tidigare.
  4. Ange ditt kontolösenord och klicka på Nästa.
  5. I nästa dialogruta klickar du på Slutför för att slutföra installationen.
  6. Klustertjänst kommer att startas på den andra noden.
  7. Stäng fönstret Lägg till/ta bort program.

Använd samma instruktioner för att installera ytterligare klusternoder.

Efterskrift, tack

För att inte bli förvirrad med alla steg för att installera ett kluster, kommer jag att ge en liten tabell som återspeglar alla huvudstadier.

Steg Nod 1 Nod 2 Extern array

tBVPFBFSH OM PDOK NBYE HCE OE NAPAP
YMY DEMBEN LMBUFFET H DPNBYOYI HUMPCHYSI.

1. CHEDEOIE

NOPZYE Y ChBU YNEAF H MPLBMSHOPC UEFY OEULPMSHLP Linux NBYYO, U RTBLFYUEULY CHUEZDB UCHPVPDOSHCHN RTPGEUUPTPN. fBLTSE NOPZYE UMSCHYBMY P UYUFENBI, CH LPFPTSCHI NBYYOSCH PVIEDEOSAPHUS CH PYO UHRETLPNRSHAFET. OP TEBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSH FBLIE LURETYNEOFSHCH X UEVS OM TBVPFE YMY DPNB. dBCHBKFE RPRTPVKHEN CHNEUFE UPVTBFSH OEPPMSHYPK LMBUFET. rPUFTPYCH LMBUFET CHSC UNPCEFE TEBMSHOP HULPTYFSH CHSHCHRPMOOEOYE YUBUFY BDBYu. obrtynet LPNRYMSGYA YMY PDOCHTENEOOHA TBVPFKH OEULPMSHLYI TEUKHTUPENLYI RTPGEUUPCH. h LFPC UFBFSH S RPUFBTBAUSH TBUULBBFSH CHBN LBL NPTsOP VE PUPVSCHI KHUYMYK PVYAEDEOYFSH NBYYOSCH UCHPEK MPLBMSHOPK UEFY CH EDYOSCHK LMBUFET OM VBE MOSIX.

2. LBL, UFP Y ZDE.

MOSIX - LFP RBFYU DMS SDTB Linux U LPNRMELFPN HFYMYF, LPFPTSHK RPCHPMSEF RTPGEUUBN U CHBYEK NBYYOSCH RETEIPDYFSH (NYZTYTPCHBFSH) OM DTHZYE HHMSCH MPLBMSHOPK UEFY. CHЪSFSH EZP NPTsOP RP BDTEUKH HTTP://www.mosix.cs.huji.ac.il B TBURTPUFTBOSEPHUS AV CH YUIDDOSCHI LPDBI RPD MYGEOJEK GPL. RBFUY UHEEUFCHHAF DMS CHUEI SDETH YUUFBVMSHOPK CHEFLY Linux.

3. HUFBOPCHLB RTPZTBNNOPZP PVEUREYEOIS.

h OBYUBME HUFBOPCHLY IPYUH RPTELPNEODPCHBFSH CHBN ЪBVYTBFSH U HMB MOSIX OE FPMSHLP EZP, OP Y UPRKHFUFCHHAEYE HFYMYFSCH - mproc, mexec Y DT.
h BTIYCHE MOSIX EUFSH HUFBOCHPUOSCHK ULTYRF mosix_install. oE SBVHDSHFE H PVSBFEMSHOPN RPTSDLE TBURBLPCHBFSH YUIDOSCHE LPDSH SDTB H /usr/src/linux-*.*.*, OBRTYNET LBL UDEMBM S - H /usr/src/linux-2.2.13 DBMEE BRHULBEFEZU CHPURT CHPURT CHPURT CHPURT CHPURT CHPUSHUTCH CH ENH UCHPK NEOEDTSET ЪBZTKHЪLY (LILO), RHFSH L YUIPDOILBN SDTB Y KhTPCHOY BRHULB.
RTH OBUFTPCLE SDTB CHLMAYUFE PRHYY CONFIG_MOSIX, CONFIG_BINFMT_ELF OCH CONFIG_PROC_FS. CHUE LFY PRGYY RPDTPVOP PRYUBOSCH CH THLPCHPDUFCHE RP HUFBOPCLE MOSIX.
HUFFBOCHYMY? oX UFP CE - RETEZTHTSBKFE CHBY Linux U OPCHSHCHN SDTPN, OBCHBOIE LPFPTPZP PYUEOSH VHDEF RPIPTS OM mosix-2.2.13.

4. OBUFTPKLB

JOBYUBMSHOP HUFBOCHMEOOOSCHK MOSIX UCHETIEOOOP OE OBEF, LBLIE X CHBU NBYOSCH CH UEFY Y U LEN ENH UPEDEOSFUS. OH B OBUFTBYCHBEFUUS FFP PYUEOSH RTPUFP. eUMY CHS FPMSHLP RPUFBCHYMY mosix Y EUMY CHBY DYUFTYVHFICH - SuSE YMY RedHat - UPCNEUFYNSCHK, FP ЪBIPDYFE CH LBFBMPZ /etc/rc.d/init.d Y DBCHBKFE LPNBODH mosix start. rTY RETCHPN ЪBRHULE FFPF ULTYRF RTPUYF CHBU OBUFTPYFSH MOSIX Y ЪBRHULBEF FELUFPCHSCK TEBLFPPT DMS UPDBOYS JBKMB /etc/mosix.map, H LPFPTPN OBIPDYFUS URYUPL HUMCH BW YTBFEEZ HUMCH BW. fHDB RTPRYUSCHCHBEN: CH UMHYUBE, EUMY H CHBU CHUEZP DCHE-FTY NBYYOSCH Y YI IP-BDTEUB UMEDHAF
DTHZ ЪB DTHZPN RP OPNETBGYY RYYEN FBL:



1 10.152.1.1 5

ZDE RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP HMB, CHFPTPK - IP BDTEU RETCHPZP HMB Y RPUMEDOYK - LPMYUEUFCHP HHMPCH U FELHEEPK. f.E. UEKYUBU X OBU H LMBUPETE PMHYUBEFUS RSFSH HHMPCH, IP BDTEUB LPFPTSCHK BLBOYUYCHBAFUS OM 1, 2, 3, 4 Y 5.
yMY DTHZPK RTYNET:

OPNET HMB IP LPMYUEUFCHP HHMPH U FELHEESP
______________________________________
1 10.152.1.1 1
2 10.150.1.55 2
4 10.150.1.223 1

h FFK LPOJYZHTBGYY NS RPMHYUN UMEDHAEIK TBULMBD:
IP 1-PZP HMB 10.150.1.1
IP 2-PZP HMB 10.150.1.55
IP 3-PZP HMB 10.150.1.56
IP 4-PZP HMB 10.150.1.223
FERETSH OHTSOP OM CHUEI NBYOBI VHDHEEZP LMBUFETB HUFBOPCHYFSH MOSIX Y UPDBFSH CHEDE PDYOBLPCHSCK LPOZHYZHTBGIPOOSCHK JBKM /etc/mosix.map .

FERETSh RPUME RETEBRHULB mosix CHBYB NBYOB HCE VKhDEF TBVPFBFSH H LMBUPETE, UFP NPTsOP HCHYDEFSH ЪBRHUFYCH NPOYFPT LPNBODPK mån. h UMHYUBE, EUMY CHSH HCHYDYFE CH NPOYFPTE FPMSHLP UCHPA NBYYOKH YMY CHPPVEE OE HCHYDYFE OILPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CBU PYVLB YNEOOP H /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. uFP dbmshye? b DBMSHYE PYUEOSH RTPUFP :-) - OHTSOP UPVTBFSH HFIMYFSCH DMS TBVPFSCH U YNEOEOOOSCHN /proc Ъ RBLEFB mproc. h YUBUFOPUFY H FFPN RBLEFE YDEF OERMPIBS NPDYZHYLBGYS topp - mtop, CH LPFPTSHCHK DPVBCHYMY CHPNPTSOPUFSH PFPVTBTSEOIS HMB(nod), UPTFITPCHLY RP HMBN, RETEOPUB ABB RTPGEEUPZELBYBYO PHYMBYN MSHOPK OBZTHЪLY RTPGEUUPTB HMB, RPUME LPFPTPK RTPGEUUSCH OBYUYOBAF NYZTYTPCHBFSH OM DTHZYE MOSIX - HMSHCH.
ъBRHULBEN mtop, CHSHVYTBEN RPOTBCHYCHYKUS OE URSEIK RTPGEUU (TELPNEODHA BRHUFYFSH bzip) Y UNEMP DBCHYN LMBCHYYKH "g" OB CHBYEK LMBCHYBFKHTE, RPUM UEZP RPUM UEZP CHPUZP CHOBZ CHOBCHF CHBY RTPGEUUB Y ЪBFEN - OPNET HЪMB, LHDB NSCH IPFYN EZP PFRTBCHYFSH. b XCE RPUME LFPZP CHOYNBFEMSHOP RPUNPFTYFE OM TEEKHMSHFBFSCH, PFPVTTBTSBENSCHE LPNBODPK mån - FB NBYOB DPMTSOB OBYUBFSH VTBFSH OM UEVS OBZTHЪLH CHSHCHVTBOOPZP RTPGEUUB.
b UWUFCHEOOP mtop - H RPME #N PFPVTBTSBFS OPNET HMB, HÄR PÅ CHSCRPMOSEPHUS.
OP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPYUEFUS PFRTBCHMSFSH OM DTHZYE HHMSCH RTPGEUUSCH CHTHYuOHA? NY OE BIPFEMPUSH. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUYTPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPCHPMSEF VPMEE-NEOE TBCHOPNETOP TBURTEDEMSFSH OBZTH'LH OM CHUE KHMSCH. OH B CHPF ЪDEUSH OBN RTYDEFUS RPFTHDYFUS. dms OBYUBMB S TBUULBTSH, LBL UDEMBFSH FPOLHA OBUFTPCLH (låt) DMS DHHI HHMPH LMBUFETB? H RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPPUFSI RTPGEUUPTPCH Y UEFY:
BRPNOYFE TB Y OBCHUEZDB - ställ in NPTsOP CHSHCHRPMOSFSH FPMSHLP Ch enkelläge. yOBYUE ChSCH MYVP RPMHYUFE OE UPCHUEN LPTTELFOSHCHK TEHMSHFBF, MYVP CHBYB NBYYOB NPCEF RTPUFP ЪBCHYUOHFSH.
yFBL, CHSHCHRPMOSEN låt. rPUME RETECHPDB PRETBGYPOOPK UYUFENSCH H enkelläge OBRTYNET LPNBODPK init 1 YMYY init S BRHULBEN ULTYRF prep_tune,LPFPTSCHK RPDOYNEF SEFECHSE
YOFETJEKUSCH Y BRHUFYF MOSIX. rPUME LFPZP OM PDOK YЪ NBYYO BRHULBEN tune, CHCHPDYN ENH OPNET DTHZPZP HMB DMS OBUFTPKLY Y TsDEN TEHMSHFBFB - HFYMYFB DPMTSOB CHSCHDBFSH BRTPPU OB CHPD YEUFY PHYMHYUECHOOSH, -a<ХЪЕМ>OM DTHZPN HYME. uPVUFCHEOOP PRETBGYA RTYDEFUS RPCHFPTYFSH OM DTHZPN HJME LPNBODPK låt -a<ХЪЕМ>. rPUME RPDPVOPZP FAOIOZB CH CHBYEK UYUFENE DPMTSEO RPSCHIFUS ZHBKM /etc/overheads, UPDETTSBEIK YOZHPTNBGYA DMS MOSIX CH CHYDE OELLYI YUYUMPCHSHCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYUYOBN tune OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE Y FELHEESP LBFBMPZB ZhBKM mosix.cost H /etc/overheads. fp RPNPCEF ;-).
rTY FAOOYOSE LMBUFETB Y VPMEE YUEN DCHHI NBYYO OHTSOP YURPMSHЪPCHBFSH HFYMYFH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBOOBS HFYMYFB RPCHPMSEF
CHBN H VPMEE RTPUFPN Y RTCHSHCHUOPN CHYDE OBUFTPIFSH LMBUFET, PFCHEFYCH OM OEULPMSHLP CHPRTPPUCH Y RTPCHEDS FAOIOZ U DCHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNKH PRSHCHFH NPZH ULBBFSH, UFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪBZTHTSBFSH UEFSH, B OBPVPTPF - RTYPUFBOPCHYFSH CHUE BETPLYFCHYMS.

5. hRTBCHMEOYE LMBUFETPN

dMS HRTBCHMEOYS HHMPN LMBUFETB UHEEUFCHHEF OEPPMSHYPK OBVPT LPNBOD, UTEDY LPFPTSCHI:

mosctl - LPOFTPMSH OBD HIMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSHCH HMB - FBLIE, LBL block, stay, lstay, delay Y F.D
dBCHBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTCH LFPK HFYMYFSCH:
stanna kvar - RPCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH OM DTHZYE HIMSCH U FELHEEK NBYOSCH. pFNEOSEFUS RBTBNEFTPN nostay YMY -stay
stanna kvar - BRTEEBEF FPMSHLP MPLBMSHOSHCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYYO NPZHF RTPDPMTSBFSH FFP DEMBFSH. pFNEOSEFUS RBTBNEFTPN nolstay YMYY -lstay.
blockera - BRTEEBEF HDBMEOOSHCHN / ZPUFECHSHCHN RTPGEUUBN CHSHCHRPMOSFUS OM FFPN HONOM. pFNEOSEFUS RBTBNEFTPN noblock YMY -block.
föra - CHPCHTBEBEF PVTBFOP CHUE RTPGEUUSCH U FELHEEZP HMB CHSHCHRPMOSENSCHE OM DTHZYI NBYYOBI LMBUFETB. ffpf RBTBNEFT NPTSEF OE UTBVBFSHCHBFSH, RPLB NYZTYTPCHBCHYYK RTPGEUU OE RPMKHYUYF RTETSCHCHBOYE PF UYUFENSCH.
sätt fördröjning HUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBJOBEF NYZTYTPCHBFSH.
CHEDSH UZMBUIFEUSH - CH UMHYUBE, EUMY CHTENS CHSHCHRPMOEOIS RTPGEUUB NEOSHIE UELHODSCH UNSCHUM RETEOPUIFSH EZP OM DTHZYE NBYYOSCH UEFY YUYUEBEF. yNEOOP FFP CHTENS Y CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN förfaller. rTYNET:
mosctl setdecay 1 500 200
HUFBOBCHMYCHBEF CHTENS RETEIPDB OM DTHZYE HHMSCH 500 NYMMYUELHOD CH UMHYUBE, EUMY RTPGEUU BRHEEO LBL långsam Y 200 NYMYUELHOD DMS snabb RTPGEUUPCH. pVTBFIFE CHOYNBOYE, UFP RBTBNEFT långsam CHUEZDB DPMTSEO VSHFSH VPMSHIE YMI TBCHEO RBTBNEFTKh snabbt.

mosrun - BRHULBEF RTYMPSEOYE CH LMBUPET. OBRTYNET mosrun -e -j5 gör JBRHUFYF gör OB 5-PN XHME LMBUFETB, RTY LFPN CHUE EZP DPUETOIE RTPGEUUSCH VHDHF FBLCE CHSHCHRPMOSFUS OB 5-PN XME. rTBCHDB ЪDEUSH EUFSH PYO OABOU, RTY YUEN DPCHPMSHOP UHEEUFCHEOOOSCHK:
CH UMHYUBE, EUMY DPUETOYE RTPGEUUSCH CHSHCHRPMOSAFUS VSHCHUFTEE YUEN HUFBOPCMEOOOBS HFYMYFPK mosctl ЪBDETSLB (fördröjning) FP RTPGEUU OE VHDEF NYZTYTPCHBFSH OM DTHZYE HTBBUFE. X mosrun EEE DPCHPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTCH, OP RPDTPVOP HOBFSH
P OYI CHSCH UNPTSFE Y THLPCHPDUFCHB RP LFPK HFIYMYFE. (manmosrun)

mån - LBL NSC HCE OBEN, LFP NPOYFPT LMBUFETB, LPFPTSCCHK CH RUECHDPZTBJYUEULPN CHYDE PFPVTBTSBEF ЪBZTHЪLH LBTsDPZP TBVPYUEZP HMB CHBYEZP LMBUFETB, LPMYUEUFCHP YMPYUEUFCHP YMPYUEUFCHP USHFCH EF NOPZP DTHZPK, OE NEOEE YOFETEUOPK YOZHPTNBGYY.

mtop - NPDYZHYGYTPCHBOOBS DMS YURPMSH'CHBOYS OB HHMBI LMBUFETB CHETUYS LPNBODSCH topp. pFPVTTBTSBEF OM LTBOE DYOBNYUEULHA YOZHPTNBGYA P RTPGEUUBI, BRHEEOOSCHI OM DBOOPN KHME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RPGEUUSCH.

mps - FPCE NPDYZHYGYTPCHBOOBS CHETUYS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET HMB, OM LPFPTSCHK NYZTYTPCHBM RTPGEUU.

CHPF OM NPK CHZMSD Y CHUE PUOPCHOSHE HFIMYFSHCH. OM UBNPN DEME LPOEIOP NPTsOP PVPKFYUSH DBTSE VOYI. OBRTYNET JURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
fBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOKHA YOZHPTNBGYA P OBUFTPKLBI HMB, RTPGEUUBI BRHEOOOSCHI U DTHZYI HHMPCH Y F.D.,B FBLCE RPNEOSFSH YUBUFSH RBTBNEFTCH.

6. LURETENE.

l UPTSBMEOYA, NOE OE HDBMPUSH BUFBCHYFSH CHSHCHRPMOSFUS LBLLPK-FP PYO RTPGEUU PDOCHTENEOOP OM OEULPMSHLYI HMBBI. nBLUYNKHN, YuEZP S DPUFYZ H RTPGEUUE LLURETYNEOPCH U LMBUFETPN-YURPMSHЪPCHBOYE DMS CHSHCHRPMOEOIS TEUKHTUPENLYI RTPGEUUPCH OM DTHZPN KHME.
dBCHBKFE TBUUNPFTYN PYO Y RTYNETCH:
dPRHUFYN, UFP X OBU H LMBUPETE TBVPFBAF DCHE NBYOSCH (DCHB HMB), PYO Y LPFPTSHI U OPNETPN 1 (366 Celeron), DTHZPK - U OPNETPN 5 (PIII450). LURETYNEOPHYTPCHBFSH NSCH VKHDEN OM 5-PN HONOM. 1-K HEM H FFP CHTENS RTPUFBYCHBM. ;-)
yFBL, BRHULBEN OM 5-N XHME HFYMYFH crark DMS RPDVPTB RBTPMS L rar BTIYCHH.eUMY LFP YЪ CHBU RTPVPCHBM TBVPFBFSH U RPDPVOSCHNY HFYMYFBNY, FP PO DPMTSEO RVPTPGESH, RPPLPSEO RVPTPGESH, 99 RTPGEOPCH RTPGEUUPTB. oX UFP CE - RPUME BRHULB NSCH OBVMADBEN, UFP RTPGEUU PUFBEFUS OM LFPN, 5-PN XHME. tBKHNOP - CHEDSH YNEOOP X FFPZP HMB RTPYCHPDYFEMSHOPUFSH RTECHSHCHYBEF 1-K HEM RPYUFY H DCHB TBB.
dBMEE NSC RTPUFP ЪBRHUFYMY UVPTLH kde 2.0. unNPFTYN FBVMYGHH RTPGEUUPCH Y CHYDYN, UFP crark HUREYOP NYZTYTPCHBM OM 1-K HEM, PUCHPPVPDYCH RTPGEUUPT Y RBNSFSH (DB, DB - RBNSFSH FPYuOP FBLCE PUCHPPVPTSDBEFUS) DMS make. b LBL FPMSHLP gör BLPOYUYM UCHPA TBVPPHH - crark CHETOHMUS PVTBFOP, OM TPDOPC ENH 5-K HEM.
YOFETEWOSCHK JZHELF RPMHYUBEFUS, EUMY crark BRHUlbfsh OM VPMEE NEDMEOOPN 1-N HYME.
fBN NSCH OBVMADBEN RTBLFYUEULY RTPFYCHPRMPTSOSCHK TEEKHMSHFBF - RTPGEUU UTBYH-TSE NYZTYTHEF OB 5-K, VPMEE VSHCHUFTSHCHK HEM. RTY LFPN PO CHPCHTBEBEFUS PVTBFOP, LPZDB IPSYO RSFPZP LPNRSHAFETTB OBYUYOBEF LBLIE-FP DECUFCHYS U UYUFENPK.

7. YURPMSH'CHBOYE

dBCHBKFE CH LPOGE TBVETENUS, BYUEN Y LBL NSCH NPTSEN YURPMSHЪCHBFSH LMBUFET CH UCHPEK RPCHUEDOECHOPC TSYOY.
DMS OBYUBMB OHTSOP TB Y OBCHUEZDB ЪBRPNOYFSH - LMBUFET CHSCHZPDEO FPMSHLP CH FPN UMHYUBE, LPZDB CH CHBYEK UEFY EUFSH IOOPE LPMYUEUFCHP NBYYO, LPFPTSCHE YUBUFEOSHLP BAFRTPUFSCHЕ HTUSCH OBRTYNET DMS UVPTLY KDE YMY DMS MAVSHCHI UETSHEOSCHI RTPGEUUPCH. CHEDSH VMBZPDBTS LMBUFETH YЪ 10 NBYYO NPTsOP PDOCHTENEOOP
LPNRYMYTPCHBFSH DP 10 FTSEMSHCHI RTPZTBNN OM FPN-CE C++. yMY RPDVYTBFSH LBLPK-FP RBTPMSh,
OE RTELTBEBS OY OM UELHODH LFPZP RTPGEUUB OEBCHYUYNP PF OBZTHЪLY OM CHBY LPNRSHAFET.
dB Y CHPPVEE - FFP RTPUFP YOFETEUOP ;-).

8. bblmayueoye

h BLMAYUEOYE IPYUKH ULBBFSH, YuFP Ch FFK UVBFSHOE OE TBUUNPFTEOSHCHUE ChPNPTSOPUFY MOSIX, F.L. S RTPUFP DP OYI EEE OE DPVTBMUS. eUMY DPVETHUSH - TsDYFE RTPPDPMTSEOIS. :-)

Bestäm först och främst vilka komponenter och resurser som kommer att krävas. Du behöver en huvudnod, minst ett dussin identiska beräkningsnoder, en Ethernet-switch, en kraftdistributionsenhet och ett rack. Bestäm mängden ledningar och kylning, såväl som hur mycket utrymme du behöver. Bestäm även vilka IP-adresser du vill använda för noderna, vilken programvara du ska installera och vilka tekniker som kommer att krävas för att skapa parallell datorkraft (mer om detta nedan).

  • Även om hårdvaran är dyr, är all programvara i den här artikeln gratis, och det mesta är öppen källkod.
  • Om du vill veta hur snabb din superdator teoretiskt sett kan vara, använd det här verktyget:

Montera noderna. Du kommer att behöva bygga värdar eller köpa förbyggda servrar.

  • Välj serverramar som utnyttjar utrymme och energi mest effektivt, samt effektiv kylning.
  • Eller du kan "återvinna" ett dussintal begagnade servrar, några föråldrade - och även om deras vikt överstiger komponenternas totala vikt kommer du att spara en anständig summa. Alla processorer nätverkskort och moderkort måste vara desamma för att datorerna ska fungera bra tillsammans. Glöm naturligtvis inte RAM och hårddiskar för varje nod, och minst en optisk enhet för masternoden.
  • Installera servrarna i racket. Börja längst ner så att ställningen inte överbelastas. Du kommer att behöva en väns hjälp - monterade servrar kan vara väldigt tunga, och det är ganska svårt att placera dem i cellerna där de stöds i racket.

    Installera en Ethernet-switch bredvid racket. Det är värt att konfigurera switchen omedelbart: ställ in jumboramstorleken till 9000 byte, ställ in den statiska IP-adressen du valde i steg 1 och stäng av onödiga protokoll som SMTP.

    Installera en kraftdistributionsenhet (PDU eller Power Distribution Unit). Beroende på vilken maximal belastning ge ut noder på ditt nätverk kan du behöva 220 volt för en högpresterande dator.

  • När allt är inställt, fortsätt till konfigurationen. Linux är i själva verket det bästa systemet för högpresterande (HPC)-kluster - inte bara är det idealiskt för vetenskaplig beräkning, utan du behöver inte heller betala för att installera ett system på hundratals eller till och med tusentals noder. Tänk vad det skulle kosta Windows installation för alla noder!

    • Börja med installationen senaste versionen BIOS för moderkort och programvara från tillverkaren, som måste vara densamma för alla servrar.
    • Ställ in din favorit Linux distribution till alla noder, och till huvudnoden - ett distributionspaket med GUI. Populära system: CentOS, OpenSuse, Scientific Linux, RedHat och SLES.
    • Författaren rekommenderar starkt att du använder Rocks Cluster Distribution. Förutom att installera all nödvändig programvara och verktyg för klustret, erbjuder Rocks en utmärkt metod för att snabbt "portera" flera kopior av systemet till liknande servrar med PXE-start och Red Hats "Kick Start"-procedur.
  • Installera gränssnittet för meddelandeöverföring, resurshanteraren och andra nödvändiga bibliotek. Om du inte installerade Rocks i föregående steg, måste du manuellt installera den nödvändiga programvaran för att ställa in den parallella beräkningslogiken.

    • För att komma igång behöver du bärbart system att arbeta med bash, som Torque Resource Manager, som låter dig dela upp och fördela uppgifter över flera maskiner.
    • Lägg till Maui Cluster Scheduler till Torque för att slutföra installationen.
    • Därefter måste du ställa in ett gränssnitt för meddelandeöverföring, vilket är nödvändigt för att de enskilda processerna i varje enskild nod ska kunna dela data. OpenMP är det enklaste alternativet.
    • Glöm inte flertrådade matematiska bibliotek och kompilatorer som kommer att "sätta ihop" dina program för distribuerad datoranvändning. Har jag redan sagt att du bara ska installera Rocks?
  • Anslut datorer till nätverket. Masternoden skickar uppgifter för beräkning till slavnoder, som i sin tur måste returnera resultatet, och även skicka meddelanden till varandra. Och ju tidigare detta händer, desto bättre.

    • Använd ett privat Ethernet-nätverk för att ansluta alla noder i ett kluster.
    • Masternoden kan också fungera som NFS, PXE, DHCP, TFTP och NTP-servrar när den är ansluten till Ethernet.
    • Du måste separera detta nätverk från det offentliga nätverket för att säkerställa att paket inte överlappas av andra på LAN.
  • Testa klustret. Det sista du bör göra innan du ger användarna tillgång till datorkraft är prestandatestning. HPL (High Performance Lynpack) benchmark är ett populärt alternativ för att mäta datorhastigheten i ett kluster. Du måste kompilera programvara från källan med den högsta grad av optimering som din kompilator tillåter för den arkitektur du har valt.

    • Du måste naturligtvis kompilera med alla möjliga inställningar optimeringar som är tillgängliga för den plattform du har valt. Till exempel, om du använder en AMD CPU, kompilera till Open64 med en optimeringsnivå på -0.
    • Jämför dina resultat med TOP500.org för att jämföra ditt kluster med de 500 snabbaste superdatorerna i världen!
  • Om du upptäcker ett fel, välj en textbit och tryck på Ctrl + Retur
    DELA MED SIG: