Ventanas.  virus  Cuadernos.  Internet.  oficina.  Utilidades.  Conductores

Hoy en día, los procesos de negocio de muchas empresas están completamente ligados a la información.
tecnologías Con la creciente dependencia de las organizaciones del trabajo de la informática
redes, la disponibilidad de servicios en cualquier momento y bajo cualquier carga juega un papel importante
role. Una computadora solo puede proporcionar Primer nivel confiabilidad y
escalabilidad, el nivel máximo se puede lograr combinando en
un solo sistema de dos o más computadoras: un clúster.

¿Para qué sirve un clúster?

Los clústeres se utilizan en organizaciones que necesitan las 24 horas del día y
disponibilidad ininterrumpida de los servicios y cuando las interrupciones en el funcionamiento no son deseables y
no están permitidos. O en los casos en que sea posible un aumento de carga, con lo cual
el servidor principal no puede hacer frente, luego adicional
hosts que normalmente realizan otras tareas. Para servidor de correo Procesando
decenas y cientos de miles de cartas por día, o un servidor web que sirve
compras en línea, el uso de clústeres es muy deseable. para el usuario
dicho sistema permanece completamente transparente: todo el grupo de computadoras será
parece un servidor. El uso de varios, incluso más baratos,
computadoras le permite obtener ventajas muy significativas sobre una sola
y servidor rápido. Esta es una distribución uniforme de solicitudes entrantes,
mayor tolerancia a fallas, ya que cuando un elemento sale, su carga
recoger otros sistemas, escalabilidad, mantenimiento conveniente y reemplazo
nodos de clúster y mucho más. Fallo de un nodo automáticamente
se detecta y se redistribuye la carga, para el cliente todo esto quedará
inadvertido.

Características de Win2k3

En términos generales, algunos clústeres están diseñados para aumentar la disponibilidad de datos,
otros son para el máximo rendimiento. En el contexto del artículo,
estará interesado MPP (procesamiento paralelo masivo)- racimos,
que el mismo tipo de aplicaciones se ejecutan en varios equipos, proporcionando
escalabilidad del servicio. Hay varias tecnologías que
distribuir la carga entre varios servidores: redirección de tráfico,
traducción de direcciones, Ronda Robin de DNS, uso de especial
programas
operando en la capa de aplicación, como aceleradores web. EN
Win2k3, a diferencia de Win2k, el soporte de agrupación está integrado y
Se admiten dos tipos de clústeres, que difieren en aplicaciones y detalles
datos:

1. Clústeres NLB (equilibrio de carga de red)- proporcionar
escalabilidad y alta disponibilidad de servicios y aplicaciones basadas en protocolos TCP
y UDP, combinando en un clúster hasta 32 servidores con el mismo conjunto de datos, en
que ejecutan las mismas aplicaciones. Cada solicitud se ejecuta como
transacción separada. Están acostumbrados a trabajar con conjuntos de cambios que rara vez cambian.
datos como WWW, ISA, servicios de terminal y otros servicios similares.

2. Clústeres de servidores– puede combinar hasta ocho nodos, su principal
la tarea es garantizar la disponibilidad de las aplicaciones en caso de falla. consisten en activos y
nodos pasivos. El nodo pasivo está inactivo la mayor parte del tiempo, desempeñando el papel
reserva del nodo principal. Para aplicaciones individuales es posible personalizar
varios servidores activos, repartiendo la carga entre ellos. Ambos nodos
conectado a un único almacén de datos. El clúster de servidores se utiliza para el trabajo.
con grandes volúmenes de datos que cambian con frecuencia (correo, archivo y
servidores SQL). Además, dicho clúster no puede consistir en nodos que operen bajo
gestión de varias variantes de Win2k3: Enterprise o Datacenter ( versiones web Y
Los clústeres de servidores estándar no son compatibles).

EN Centro de aplicaciones de Microsoft 2000(y solo) había un tipo más
grupo - CLB (equilibrio de carga de componentes), brindando la oportunidad
distribuir aplicaciones COM+ a través de múltiples servidores.

Clústeres de NLB

Al usar el equilibrio de carga, cada uno de los hosts crea
un adaptador de red virtual con su propia dirección IP y MAC independientes.
Esta interfaz virtual representa el clúster como un solo nodo, clientes
dirigirse a ella en la dirección virtual. Todas las solicitudes son recibidas por cada
nodo del clúster, pero son procesados ​​por uno solo. Se ejecuta en todos los nodos
Servicio de equilibrio de carga de red
,
que, utilizando un algoritmo especial que no requiere intercambio de datos entre
nodos, decide si un nodo en particular necesita procesar una solicitud o
No. Se intercambian nodos mensajes de latidos del corazón mostrándoles
disponibilidad. Si un host deja de emitir un latido o aparece un nuevo nodo,
comienzan otros nodos proceso de convergencia, de nuevo
redistribuir la carga. El equilibrio se puede implementar de una de dos maneras
modos:

1) unidifusión– unicast cuando en lugar de un MAC físico
se utiliza la MAC del adaptador virtual del clúster. En este caso, los nodos del clúster no están
pueden comunicarse entre sí usando direcciones MAC solo a través de IP
(o un segundo adaptador no asociado con el clúster);

Solo uno de estos modos debe usarse dentro del mismo clúster.

puede ser personalizado varios clústeres NLB en un adaptador de red,
especificando reglas específicas para los puertos. Estos clústeres se denominan virtuales. Su
aplicación le permite configurar para cada aplicación, host o dirección IP
equipos específicos en el clúster principal o bloquear el tráfico para
alguna aplicación sin afectar el tráfico de otros programas en ejecución
en este nodo. O, por el contrario, un componente NLB puede vincularse a varios
adaptadores de red, que le permitirán configurar una cantidad de clústeres independientes en cada
nodo. También debe tener en cuenta que configurar clústeres de servidores y NLB en el mismo nodo
no es posible porque funcionan de manera diferente con los dispositivos de red.

El administrador puede realizar algún tipo de configuración híbrida que tiene
las ventajas de ambos métodos, por ejemplo, creando un clúster NLB y configurando la replicación
datos entre nodos. Pero la replicación no se realiza constantemente, sino de vez en cuando,
por lo tanto, la información sobre diferentes nodos será diferente durante algún tiempo.

Terminemos con la teoría, aunque se puede hablar de construir clusters
durante mucho tiempo, enumerando las posibilidades y formas de construir, dando varios
recomendaciones y opciones para su implementación específica. Dejemos todas estas sutilezas y matices.
para el autoaprendizaje y pasar a la parte práctica.

Configuración de un clúster NLB

Para Organizaciones de clúster de NLB no se requiere software adicional
producido por los medios disponibles de Win2k3. Para crear, mantener y monitorear
Los clústeres de NLB usan el componente Administrador de equilibrio de carga de red
(Administrador de equilibrio de carga de red)
, que está en la pestaña
"Administración" "Panel de control" (comando NLBMgr). Dado que el componente
"Equilibrio de carga de red" se instala como un controlador de red estándar de Windows,
También puede instalar NLB usando el " Conexiones de red", V.
que el artículo correspondiente está disponible. Pero es mejor usar solo el primero.
opción, activación simultánea del administrador NLB y "Conexiones de red"
puede conducir a resultados impredecibles.

NLB Manager le permite configurar y administrar el trabajo desde un lugar a la vez
múltiples clústeres y nodos.

También es posible instalar un clúster NLB en una computadora con una red
adaptador asociado con el componente Equilibrio de carga de red, pero esto
En el caso del modo de unidifusión, el administrador de NLB en esta computadora no puede ser
se utiliza para controlar otros nodos, y los nodos mismos no pueden intercambiar
información entre sí.

Ahora llamamos al despachador de NLB. Todavía no tenemos clústeres, por lo que apareció
la ventana no contiene ninguna información. Seleccione "Nuevo" en el menú "Cluster" y
comenzamos a completar los campos en la ventana "Parámetros del clúster". En el campo "Configuración"
Configuración IP del clúster" ingrese el valor de la dirección IP virtual del clúster, la máscara
subred y nombre completo. El valor de la dirección MAC virtual se establece
automáticamente. Un poco más abajo seleccionamos el modo de funcionamiento del clúster: unicast o
multidifusión. Preste atención a la casilla de verificación "Permitir control remoto" - en
todo documentos de microsoft recomienda encarecidamente no utilizarlo en
evitar problemas de seguridad. En su lugar, debe aplicar
despachador u otros medios control remoto, por ejemplo, kit de herramientas
Administración de Windows (WMI). Si se toma la decisión de usarlo, entonces
tomar todas las medidas apropiadas para proteger la red, cubriendo
cortafuegos puertos UDP 1717 y 2504.

Después de completar todos los campos, haga clic en "Siguiente". En la ventana "Direcciones IP del clúster", cuando
necesario, agregamos direcciones IP virtuales adicionales que serán
utilizado por este clúster. En la siguiente ventana de Reglas de puerto, puede
establecer el equilibrio de carga para uno o para un grupo de puertos de todos o
IP seleccionada a través de protocolos UDP o TCP, así como bloquear el acceso al clúster
ciertos puertos (que un firewall no reemplaza). Clúster predeterminado
procesa solicitudes para todos los puertos (0-65365); es mejor limitar esta lista,
añadiendo sólo los que son realmente necesarios. Aunque, si no hay ganas de perder el tiempo,
puedes dejar todo como está. Por cierto, en Win2k, por defecto, todo el tráfico
dirigido al clúster, procesaba solo el nodo que tenía la prioridad más alta,
los nodos restantes se conectaron solo cuando falló el principal.

Por ejemplo, para IIS, solo necesita habilitar los puertos 80 (http) y 443 (https).
Además, puede hacer que, por ejemplo, el proceso de conexiones seguras
solo servidores específicos que tienen el certificado instalado. Para añadir
nueva regla, haga clic en "Agregar", en el cuadro de diálogo que aparece, ingrese
La dirección IP del nodo, o si la regla se aplica a todos, deje la casilla de verificación
"Todo". En los campos "Desde" y "Hasta" del rango de puertos, establezca el mismo valor:
80. El campo clave es "Modo de filtrado" - aquí
especifica quién procesará esta solicitud. Hay tres campos que definen el modo
filtrado: "Múltiples nodos", "Nodo único" y "Deshabilitar este rango de puertos".
Seleccionar "Single Host" significa que el tráfico dirigido a la IP seleccionada (computadora
o clúster) con el número de puerto especificado será procesado por el nodo activo,
tener el indicador de prioridad más bajo (más sobre eso a continuación). Seleccionando "Deshabilitar..."
significa que todos los miembros del clúster eliminarán dicho tráfico.

En el modo de filtrado "Múltiples nodos", también puede especificar la opción
definiciones de afinidad de cliente para dirigir el tráfico de un cliente dado a
el mismo nodo de clúster. Hay tres opciones: "Ninguno", "Único" o "Clase
C". Elegir la primera significa que cualquier solicitud será respondida de forma arbitraria.
nodo. Pero no debe usarlo si la regla selecciona protocolo UDP o
"Ambos". Al elegir otros artículos, la similitud de los clientes estará determinada por
IP específico o rango de red de clase C.

Entonces, para nuestra regla con el puerto 80, optaremos por la opción
"Múltiples nodos - Clase C". La regla para 443 se llena de la misma manera, pero usamos
"Nodo único", de forma que al cliente siempre le contesta el nodo principal con menor
prioridad. Si el despachador encuentra una regla incompatible, mostrará
mensaje de advertencia, opcional en el registro eventos de Windows será realizado
entrada correspondiente.

A continuación, nos conectamos al nodo del futuro clúster ingresando su nombre o IP real, y
defina la interfaz que se conectará a la red del clúster. En la ventana de Opciones
nodo "seleccione una prioridad de la lista, especifique la configuración de red, establezca la inicial
estado del nodo (en ejecución, detenido, en pausa). prioridad al mismo tiempo
es el identificador único del nodo; Cuanto menor sea el número, mayor es la prioridad.
El nodo con prioridad 1 es el servidor maestro que primero recibe
paquetes y actuando como un administrador de enrutamiento.

La casilla de verificación "Mantener el estado después de reiniciar la computadora" permite, en caso de
la falla o el reinicio de ese nodo lo pondrá automáticamente en línea. Después de presionar
para "Terminar" en la ventana del Administrador, aparecerá una entrada sobre el nuevo clúster, en el que hasta ahora
hay un nodo.
El siguiente nodo también es fácil de agregar. Seleccione "Agregar nodo" en el menú o
"Conectar a existente", dependiendo de qué computadora
se realiza una conexión (ya es miembro del clúster o no). Luego en la ventana
especifique el nombre o la dirección de la computadora, si hay suficientes derechos para conectarse, uno nuevo
el nodo se conectará al clúster. La primera vez que aparecerá el icono junto a su nombre
difieren, pero cuando se complete el proceso de convergencia, será el mismo que el de
primera computadora.

Dado que el despachador muestra las propiedades de los nodos en el momento de su conexión, por
aclaración del estado actual, seleccione un grupo y en Menú de contexto párrafo
"Actualizar". El administrador se conectará al clúster y mostrará los datos actualizados.

Después de la instalación clúster NLB no olvides cambiar el registro DNS a
la resolución de nombres ahora se muestra en la IP del clúster.

Cambiar la carga del servidor

En esta configuración, todos los servidores se cargarán uniformemente (a excepción de
opción "Un nodo"). En algunos casos es necesario redistribuir la carga,
la mayor parte del trabajo se asigna a uno de los nodos (por ejemplo, el más poderoso).
Para un clúster, las reglas se pueden modificar después de que se hayan creado seleccionando
menú contextual que aparece al hacer clic en el nombre, el elemento "Propiedades del clúster".
Todas las configuraciones de las que hablamos anteriormente están disponibles aquí. Opción del menú
"Propiedades del nodo" ofrece algunas opciones más. En "Configuración del nodo"
puede cambiar el valor de prioridad para un nodo en particular. En "Reglas
para puertos" no puede agregar o eliminar una regla, está disponible solo en el nivel
grupo. Pero, al elegir editar una regla específica, tenemos la oportunidad
ajustar algunas configuraciones. Entonces, con el modo de filtrado establecido
"Múltiples nodos", el elemento "Estimación de carga" está disponible, lo que le permite
redistribuir la carga en un nodo específico. Comprobado de forma predeterminada
“Igual”, pero en la “Estimación de carga” puede especificar un valor diferente de la carga en
nodo específico, como porcentaje de la carga total del clúster. Si el modo está activado
filtrando "Un nodo", en esta ventana aparece nuevo parámetro"Una prioridad
Procesando". Usándolo, puede hacer que el tráfico a un puerto específico
será procesado en primer lugar por un nodo del clúster, y a otro, por otros
nodo.

El registro de eventos

Como ya se mencionó, el componente Equilibrio de carga de red registra todo
acciones de clúster y cambios en el registro de eventos de Windows. Para verlos
seleccione "Visor de eventos - Sistema", NLB incluye mensajes WLBS (de
Servicio de equilibrio de carga de Windows, como se llamaba este servicio en NT). Además, en
la ventana del despachador muestra los últimos mensajes que contienen información sobre errores
y cualquier cambio de configuración. Por defecto, esta información no es
se guarda Para escribirlo en un archivo, seleccione "Opciones -\u003e
Opciones de registro", seleccione la casilla de verificación "Habilitar registro" y especifique un nombre
archivo. Se creará un nuevo archivo en un subdirectorio de su cuenta en Documentos
y ajustes.

Configuración de IIS con replicación

Un clúster es un clúster, pero sin un servicio no tiene sentido. Entonces agreguemos IIS (Internet
servicios de información)
. servidor IIS incluido con Win2k3, pero para reducirlo a
para minimizar la posibilidad de ataques al servidor, no viene instalado por defecto.

Hay dos formas de instalar IIS: a través del "Panel de control" o
maestro de gestión de roles Este servidor. Consideremos el primero. Ir a
"Panel de control - Agregar o quitar programas" (Panel de control - Agregar o
Quitar programas), seleccione "Instalar Componentes de Windows» (Agregar/Quitar Windows
componentes). Ahora vaya al elemento "Servidor de aplicaciones" y marque en "Servicios
IIS" es todo lo que se necesita. De forma predeterminada, el directorio de trabajo del servidor es \Inetpub\wwwroot.
Una vez instalado, IIS puede mostrar documentos estáticos.

centro de Prensa

Creación de un clúster basado en Windows 2000/2003. Paso a paso

Un clúster es un grupo de dos o más servidores que trabajan juntos para proporcionar tiempo de actividad conjunto de aplicaciones o servicios y percibido por el cliente como un solo elemento. Los nodos del clúster están interconectados mediante hardware de red, recursos compartidos y software de servidor.

Microsoft Windows 2000/2003 admite dos tecnologías de agrupación en clústeres: clústeres de Equilibrio de carga de red y clústeres de servidores.

En el primer caso (clústeres de equilibrio de carga), Network Load Balancing hace que los servicios y las aplicaciones sean altamente confiables y escalables al combinar hasta 32 servidores en un solo clúster. Consultas de clientes en este caso distribuida entre los nodos del clúster de forma transparente. Cuando falla un nodo, el clúster cambia automáticamente su configuración y cambia el cliente a cualquiera de los nodos disponibles. Este modo de configuración de clúster también se denomina modo activo-activo, en el que una sola aplicación se ejecuta en varios nodos.

El clúster de servidores distribuye su carga entre los servidores del clúster, y cada servidor lleva su propia carga. Si falla un nodo del clúster, las aplicaciones y los servicios configurados para ejecutarse en el clúster se reinician de forma transparente en cualquiera de los nodos libres. Los clústeres de servidores usan discos compartidos para comunicarse dentro del clúster y proporcionar acceso transparente a las aplicaciones y servicios del clúster. Requieren equipo especial, pero esta tecnología proporciona un nivel muy alto de confiabilidad porque el clúster en sí no tiene ningún punto único de falla. Este modo de configuración de clúster también se denomina modo activo-pasivo. Una aplicación en un clúster se ejecuta en un solo nodo con datos compartidos ubicados en un almacenamiento externo.

Enfoque de clúster para la organización red interna proporciona los siguientes beneficios:

Alta Disponibilidad Es decir, si un servicio o aplicación falla en algún nodo de un clúster configurado para trabajo conjunto en un racimo, agrupado software le permite reiniciar esta aplicación en un host diferente. Al mismo tiempo, los usuarios experimentarán un breve retraso durante alguna operación, o no notarán ningún fallo en el servidor. Escalabilidad Para las aplicaciones que se ejecutan en un clúster, agregar servidores al clúster significa aumentar las capacidades: tolerancia a fallas, equilibrio de carga, etc. entre los nodos del clúster y eliminar la carga de los nodos para el mantenimiento preventivo.

En este artículo, intentaré recopilar mi experiencia en la creación de sistemas de clúster en base de ventanas y dale un poco guía paso por paso para crear un clúster de servidor de dos nodos con almacenamiento de datos compartido.

Requisitos de Software

  • Microsoft Windows 2000 Advanced (Datacenter) Server o Microsoft Windows 2003 Server Enterprise Edition instalado en todos los servidores del clúster.
  • Servicio DNS instalado. Voy a explicar un poco. Si está creando un clúster basado en dos controladores de dominio, entonces es mucho más conveniente usar el servicio DNS, que de todos modos configuró cuando creó Active Directory. Si está creando un clúster basado en dos servidores que son miembros de un dominio de Windows NT, deberá usar WINS o hacer coincidir los nombres y las direcciones de las máquinas en el archivo de hosts.
  • Servicios de terminal para la gestión remota del servidor. No necesariamente, pero si tienes Terminal Services, es conveniente administrar los servidores desde tu lugar de trabajo.

Requisitos de hardware

  • La mejor opción de hardware para un nodo de clúster se basa en la lista de compatibilidad de hardware (HCL) del servicio de clúster. Según lo recomendado por Microsoft Hardware se debe probar la compatibilidad con los servicios de clúster.
  • En consecuencia, necesitará dos servidores con dos adaptadores de red; Adaptador SCSI con una interfaz externa para conectar una matriz de datos externa.
  • Una matriz externa que tiene dos interfaces externas. Cada uno de los nodos del clúster está conectado a una de las interfaces.

Comentario: para crear un clúster de dos nodos, no es necesario tener dos servidores absolutamente idénticos. Después de una falla en el primer servidor, tendrá algo de tiempo para analizar y restaurar el funcionamiento del nodo principal. El segundo nodo funcionará para la confiabilidad del sistema en su conjunto. Sin embargo, esto no significa que el segundo servidor estará inactivo. Ambos nodos del clúster pueden ocuparse tranquilamente de sus asuntos, resolver diferentes problemas. Pero podemos configurar un cierto recurso crítico para trabajar en un clúster, aumentando su (este recurso) tolerancia a fallas.

Requisitos de configuración de red

  • Nombre NetBIOS único para el clúster.
  • Cinco direcciones IP estáticas únicas. Dos para adaptadores de red por red de clúster, dos para adaptadores de red por red y uno para el clúster.
  • Cuenta de dominio para el servicio de Cluster Server.
  • Todos los nodos del clúster deben ser un servidor miembro en el dominio o controladores de dominio.
  • Cada servidor debe tener dos adaptadores de red. Uno para conectarse a una red común (red pública), el segundo para el intercambio de datos entre nodos de clúster (red privada).

Comentario: Según las recomendaciones de Microsoft, su servidor debe tener dos adaptadores de red, uno para la red general y el segundo para el intercambio de datos dentro del clúster. ¿Es posible construir un clúster en una interfaz? Probablemente sí, pero no lo he probado.

Instalación de un clúster

Al diseñar un clúster, debe comprender que usar uno red física tanto para el intercambio de clústeres como para red local, aumentas el porcentaje de fallo de todo el sistema. Por lo tanto, es muy deseable que el intercambio de datos de clúster utilice una subred asignada como un elemento de red física independiente. Y para la red local, debe usar una subred diferente. Por lo tanto, aumenta la confiabilidad de todo el sistema en su conjunto.

En el caso de construir un clúster de dos nodos, se utiliza un conmutador red común. Dos servidores de clúster se pueden conectar directamente con un cable cruzado, como se muestra en la figura.

La instalación de un clúster de 2 nodos se puede dividir en 5 pasos

  • Instalación y configuración de nodos en un clúster.
  • Instalación y configuración de un recurso compartido.
  • Compruebe la configuración del disco.
  • Configuración del primer nodo del clúster.
  • Configuración del segundo nodo en el clúster.

Esta guía paso a paso lo ayudará a evitar errores durante la instalación y ahorrará mucho tiempo. Vamos a empezar.

Instalación y configuración de nodos

Simplificaremos un poco la tarea. Dado que todos los nodos del clúster deben ser miembros del dominio o controladores de dominio, haremos que el primer nodo del clúster sea el titular raíz del directorio AD (Active Directory), y el servicio DNS se ejecutará en él. El segundo nodo del clúster será un controlador de dominio completo.

Instalación Sistema operativo Estoy dispuesto a saltarme, asumiendo que no deberías tener ningún problema con eso. Y aquí está la configuración. dispositivos de red quiero explicar

Configuración de la red

Antes de comenzar la instalación del clúster y Active Directory, debe completar la configuración de la red. Me gustaría dividir todas las configuraciones de red en 4 etapas. Para resolver nombres en la red, es conveniente tener un servidor DNS con registros existentes sobre servidores de clúster.

Cada servidor tiene dos tarjetas de red. Una tarjeta de red servirá para intercambiar datos entre los nodos del clúster, la segunda funcionará para los clientes de nuestra red. En consecuencia, el primero se llamará Conexión de clúster privado, el segundo se llamará Conexión de clúster público.

La configuración del adaptador de red para uno y otro servidor es idéntica. En consecuencia, mostraré cómo configurar el adaptador de red y daré una placa con la configuración de red de los 4 adaptadores de red en ambos nodos del clúster. Para configurar el adaptador de red, siga estos pasos:

  • Mis sitios de red → Propiedades
  • Conexión de clúster privado → Propiedades → Configurar → Avanzado

    Este punto necesita alguna explicación. El hecho es que, de acuerdo con las fuertes recomendaciones de Microsoft, todos los adaptadores de red de los nodos del clúster deben configurarse a la velocidad óptima del adaptador, como se muestra en la siguiente figura.

  • Protocolo de Internet (TCP/IP) → Propiedades → Utilice la siguiente IP: 192.168.30.1

    (Para el segundo host, use 192.168.30.2). Introduzca la máscara de subred 255.255.255.252. Utilice 192.168.100.1 como dirección del servidor DNS para ambos hosts.

  • Además, en la pestaña Avanzado → WINS, seleccione Deshabilitado NetBIOS sobre TCP/IP. Para la configuración de los adaptadores de red de la red pública (Pública), omita este elemento.
  • Haz lo mismo con tarjeta de red para la conexión de clúster público de red local. Use las direcciones dadas en la tabla. La única diferencia en la configuración de las dos NIC es que la conexión de clúster público no requiere que WINS - NetBIOS sobre TCP/IP esté deshabilitado.

Utilice la siguiente tabla para configurar todos los adaptadores de red en los nodos del clúster:

Nudo Nombre de red dirección IP MASCARILLA Servidor DNS
1 Conexión de clúster público 192.168.100.1 255.255.255.0 192.168.100.1
1 Conexión de clúster privado 192.168.30.1 255.255.255.252 192.168.100.1
2 Conexión de clúster público 192.168.100.2 255.255.255.0 192.168.100.1
3 Conexión de clúster privado 192.168.30.2 255.255.255.252 192.168.100.1

Instalación de directorio activo

Dado que mi artículo no pretende hablar sobre la instalación de Active Directory, omitiré este punto. Hay bastantes recomendaciones y libros escritos sobre esto. Estás tomando Nombre de dominio, como mycompany.ru, instale Active Directory en el primer nodo, agregue el segundo nodo al dominio como controlador de dominio. Cuando haya terminado, verifique las configuraciones de su servidor, Active Directory.

Instalación de una cuenta de usuario de clúster

  • Inicio → Programas → Herramientas administrativas → Directorio activo de usuarios y computadoras
  • Agregue un nuevo usuario, por ejemplo, ClusterService.
  • Marque las casillas para: El usuario no puede cambiar la contraseña y la contraseña nunca caduca.
  • Agregue también este usuario al grupo de administradores y asígnele los derechos Iniciar sesión como servicio (los derechos se asignan en la Política de seguridad local y Política de seguridad del controlador de dominio).

Configuración de una matriz de datos externa

Para configurar un arreglo de datos externo en un clúster, recuerde que antes de instalar el Servicio de clúster en los nodos, primero debe configurar los discos en el arreglo externo, solo luego instale el servicio de clúster primero en el primer nodo, solo luego en el segundo . Si viola el orden de instalación, fallará y no alcanzará la meta. ¿Se puede arreglar?, probablemente sí. Cuando se produzca un error, tendrá tiempo para corregir la configuración. Pero Microsoft es algo tan misterioso que no sabes en absoluto qué tipo de rastrillo pisarás. Es más fácil tener instrucciones paso a paso frente a tus ojos y recordar presionar los botones. Paso a paso, la configuración de un arreglo externo se ve así:

  1. Ambos servidores deben estar apagados, el arreglo externo encendido, conectado a ambos servidores.
  2. Encienda el primer servidor. Obtenemos acceso a la matriz de discos.
  3. Verificamos que la matriz de discos externos se haya creado como Básica. Si este no es el caso, transferiremos el disco usando la opción Volver al disco básico.
  4. Creamos una pequeña partición en un disco externo a través de Administración de equipos → Administración de discos. Según las recomendaciones de Microsoft, debería tener al menos 50 MB. Recomiendo crear una partición de 500 MB. o un poco más. Esto es suficiente para acomodar datos agrupados. La partición debe estar formateada en NTFS.
  5. En ambos nodos del clúster, esta partición se nombrará con la misma letra, por ejemplo, Q. En consecuencia, al crear una partición en el primer servidor, seleccione el elemento Asigne la siguiente letra de unidad - Q.
  6. Puede marcar el resto del disco como desee. Por supuesto, es muy recomendable utilizar sistema de archivos NTFS. Por ejemplo, al configurar los servicios DNS, WINS, las bases de datos del servicio principal se transferirán a un disco compartido (no al volumen del sistema Q, sino al segundo que creó). Y por motivos de seguridad, le resultará más cómodo utilizar volúmenes NTFS.
  7. Cierre Administración de discos y verifique el acceso a la partición recién creada. Por ejemplo, puedes crear en él Archivo de texto test.txt , escribir y eliminar. Si todo salió bien, hemos terminado con la configuración del arreglo externo en el primer nodo.
  8. Ahora apague el primer servidor. La matriz externa debe estar habilitada. Encendemos el segundo servidor y verificamos el acceso a la partición creada. También comprobamos que la letra asignada a la primera sección es idéntica a la que elegimos, es decir, Q.

Esto completa la configuración del arreglo externo.

Instalación del software del servicio de clúster

Configuración del primer nodo del clúster

Antes de iniciar la instalación del software de servicio de clúster, todos los nodos del clúster deben estar apagados y todos los arreglos externos deben estar encendidos. Pasemos a la configuración del primer nodo. La matriz externa está activa, el primer servidor está activo. Todo el proceso de instalación se lleva a cabo mediante el asistente de configuración del servicio de clúster:


Configuración del segundo nodo del clúster

Para instalar y configurar el segundo nodo del clúster, el primer nodo debe estar habilitado y todas las unidades de red deben estar habilitadas. El procedimiento para configurar el segundo nodo es muy similar al que describí anteriormente. Sin embargo, hay algunos cambios menores. Para hacer esto, use la siguiente instrucción:

  1. En el cuadro de diálogo Crear o unirse a un clúster, seleccione El segundo o siguiente nodo en el clúster y haga clic en siguiente.
  2. Ingrese el nombre del clúster que establecimos anteriormente (en el ejemplo es MyCluster) y haga clic en siguiente.
  3. Después de conectar el segundo nodo al clúster, el asistente de configuración del servicio de clúster recogerá automáticamente todas las configuraciones del nodo principal. Para iniciar el Servicio de clúster, use el nombre que creamos anteriormente.
  4. Ingrese la contraseña de su cuenta y haga clic en siguiente.
  5. En el siguiente cuadro de diálogo, haga clic en Finalizar para completar la instalación.
  6. El servicio de clúster se iniciará en el segundo nodo.
  7. Cierre la ventana Agregar o quitar programas.

Para instalar nodos de clúster adicionales, use las mismas instrucciones.

posdata, gracias

Para no confundirse con todas las etapas de instalación de un clúster, daré una pequeña tabla que refleja todas las etapas principales.

Paso Nodo 1 Nodo 2 matriz externa

tBVPFBFSH SOBRE PDOK NBYE HCE OE NAPAP
YMY DEMBEN LMBUPET H DPNYOYI HUMPCHYSI.

1. CHEDEOIE

NOPZYE Y ChBU YNEAF H MPLBMSHOPC UEFY OEULPMSHLP Linux NBYYO, U RTBLFYUEULY CHUEZDB UCHPVPDOSHCHN RTPGEUUPTPN. fBLTSE NOPZYE UMSCHYBMY P UYUFENBI, CH LPFPTSCHI NBYYOSCH PVIEDEOSAPHUS CH PYO UHRETLPNRSHAFET. OP TEBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSH FBLIE LURETYNEOFSHCH X UEVS SOBRE TBVPFE YMY DPNB. dBCHBKFE RPRTPVKHEN CHNEUFE UPVTBFSH OEPPMSHYPK LMBUFET. rPUFTPYCH LMBUFET CHSC UNPCEFE TEBMSHOP HULPTYFSH CHSHCHRPMOOEOYE YUBUFY BDBYu. obrtynet LPNRYMSGYA YMY PDOCHTENEOOHA TBVPFKH OEULPMSHLYI TEUKHTUPENLYI RTPGEUUPCH. h LFPC UFBFSH S RPUFBTBAUSH TBUULBBFSH CHBN LBL NPTsOP VE PUPVSCHI KHUYMYK PVYAEDEOYFSH NBYYOSCH UCHPEK MPLBMSHOPK UEFY CH EDYOSCHK LMBUFET ACERCA DE VBE MOSIX.

2. LBL, UFP Y ZDE.

MOSIX - LFP RBFYU DMS SDTB Linux U LPNRMELFPN HFYMYF, LPFPTSHK RPCHPMSEF RTPGEUUBN U CHBYEK NBYYOSCH RETEIPDYFSH (NYZTYTPCHBFSH) ACERCA DE DTHZYE HHMSCH MPLBMSHOPK UEFY. CHÉSFSH EZP NPTsOP RP BDTEUKH HTTP://www.mosix.cs.huji.ac.il B TBURTPUFTBOSEPHUS POR CH YUIDDOSCHI LPDBI RPD MYGEOJEK GPL. RBFUY UHEEUFCHHAF DMS CHUEI SDETH YUUFBVMSHOPK CHEFLY Linux.

3. HUFBOPCHLB RTPZTBNNOPZP PVEUREYEOIS.

h OBYUBME HUFBOPCHLY IPYUH RPTELPNEODPCHBFSH CHBN ЪBVYTBFSH U HMB MOSIX OE FPMSHLP EZP, OP Y UPRKHFUFCHHAEYE HFYMYFSCH - mproc, mexec Y DT.
h BTIYCHE MOSIX EUFSH HUFBOCHPUOSCHK ULTYRF mosix_install. oE SBVHDSHFE H PVSBFEMSHOPN RPTSDLE TBURBLPCHBFSH YUIDOSCHE LPDSH SDTB H /usr/src/linux-*.*.*, OBRTYNET LBL UDEMBM S - H /usr/src/linux-2.2.13 DBMEE BRHULBEFE mosix_install JP FCHEYUBEFE ACERCA DE CHUE EZP CHPRTPUSCH, HLBBCH ENH UCHPK NEOEDTSET ЪBZTKHЪLY (LILO), RHFSH L YUIPDOILBN SDTB Y KHTPCHOY BRHULP.
RTH OBUFTPCLE SDTB CHLMAYUFE PRHYY CONFIG_MOSIX, CONFIG_BINFMT_ELF Y CONFIG_PROC_FS. CHUE LFY PRGYY RPDTPVOP PRYUBOSCH CH THLPCHPDUFCHE RP HUFBOPCLE MOSIX.
HUFFBOCHYMY? oX UFP CE - RETEZTHTSBKFE CHBY Linux U OPCHSHCHN SDTPN, OBCHBOIE LPFPTPZP PYUEOSH VHDEF RPIPTS SOBRE mosix-2.2.13.

4. OBUFTPKLB

JOBYUBMSHOP HUFBOCHMEOOOSCHK MOSIX UCHETIEOOOP OE OBEF, LBLIE X CHBU NBYOSCH CH UEFY Y U LEN ENH UPEDEOSFUS. OH B OBUFTBYCHBEFUUS FFP PYUEOSH RTPUFP. eUMY CHS FPMSHLP RPUFBCHYMY mosix Y EUMY CHBY DYUFTYVHFICH - SuSE YMY RedHat - UPCNEUFYNSCHK, FP ЪBIPDYFE CH LBFBMPZ /etc/rc.d/init.d Y DBCHBKFE LPNBODH mosix start. rTY RETCHPN ЪBRHULE FFPF ULTYRF RTPUYF CHBU OBUFTPYFSH MOSIX Y ЪBRHULBEF FELUFPCHSCK TEBLFPPT DMS UPDBOYS JBKMB /etc/mosix.map, H LPFPTPN OBIPDYFUS URYUPL HUMCH BW YEZP LMBUFETB. fHDB RTPRYUSCHCHBEN: CH UMHYUBE, EUMY H CHBU CHUEZP DCHE-FTY NBYYOSCH Y YI IP-BDTEUB UMEDHAF
DTHZ ЪB DTHZPN RP OPNETBGYY RYYEN FBL:



1 10.152.1.1 5

ZDE RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP HMB, CHFPTPK - IP BDTEU RETCHPZP HMB Y RPUMEDOYK - LPMYUEUFCHP HHMPCH U FELHEEPK. f.e. UEKYUBU X OBU H LMBUPETE PMHYUBEFUS RSFSH HHMPCH, IP BDTEUB LPFPTSCHK BLBOYUYCHBAFUS SOBRE 1, 2, 3, 4 Y 5.
yMY DTHZPK RTYNET:

OPNET HMB IP LPMYUEUFCHP HHMPH U FELHEESP
______________________________________
1 10.152.1.1 1
2 10.150.1.55 2
4 10.150.1.223 1

h FFK LPOJYZHTBGYY NS RPMHYUN UMEDHAEIK TBULMBD:
IP 1-PZP HMB 10.150.1.1
IP 2-PZP HMB 10.150.1.55
IP 3-PZP HMB 10.150.1.56
IP 4-PZP HMB 10.150.1.223
FERETSH OHTSOP SOBRE CHUEI NBYOBI VHDHEEZP LMBUFETB HUFBOPCHYFSH MOSIX Y UPDBFSH CHEDE PDYOBLPCHSCK LPOZHYZHTBGIPOOSCHK JBKM /etc/mosix.map .

FERETSh RPUME RETEBRHULB mosix CHBYB NBYOB HCE VKhDEF TBVPFBFSH H LMBUPETE, UFP NPTsOP HCHYDEFSH ЪBRHUFYCH NPOYFPT LPNBODPK mon. h UMHYUBE, EUMY CHSH HCHYDYFE CH NPOYFPTE FPMSHLP UCHPA NBYYOKH YMY CHPPVEE OE HCHYDYFE OILPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CBU PYVLB YNEOOP H /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. uFP dbmshye? b DBMSHYE PYUEOSH RTPUFP :-) - OHTSOP UPVTBFSH HFIMYFSCH DMS TBVPFSCH U YNEOEOOOSCHN /proc ê RBLEFB mproc. h YUBUFOPUFY H FFPN RBLEFE YDEF OERMPIBS NPDYZHYLBGYS top - mtop, CH LPFPTSHCHK DPVBCHYMY CHPNPTSOPUFSH PFPVTBTSEOIS HMB(nodo), UPTFITPCHLY RP HMBN, RETEOPUB RTPGEUUB U FELHEEE ZP HMB ACERCA DE DTHZPK Y HUFBOPCMEOYS NYOYNBMSHOPK OBZTHЪLY RTPGEUUPTB HMB, RPUME LPFPTPK RTPGEUUSCH OBYOBAF NYZTYTPCHBFSH SOBRE DTHZYE MOSIX - HHMSCH.
ъBRHULBEN mtop, CHSHVYTBEN RPOTBCHYCHYKUS OE URSEIK RTPGEUU (TELPNEODHA BRHUFYFSH bzip) Y UNEMP DBCHYN LMBCHYYKH "g" OB CHBYEK LMBCHYBFKHTE, RPUM UEZP CHCHPDYN OB BRTPPU PID CHSHVT BOOPZP CH LBYUEUFCHE CETFCHSC RTPG EUUB Y ЪBFEN - OPNET HЪMB, LHDB NSCH IPFYN EZP PFRTBCHYFSH. b XCE RPUME LFPZP CHOYNBFEMSHOP RPUNPFTYFE ACERCA DE TEEKHMSHFBFSCH, PFPVTTBTSBENSCHE LPNBODPK mon - FB NBYOB DPMTSOB OBYUBFSH VTBFSH ACERCA DE UEVS OBZTHÉLH CHSHCHVTBOOPZP RTPGEUUB.
b UPVUFCHEOOP mtop - H RPME #N PFPVTTBTSBFS OPNET HMB, AQUÍ EN CHSCRPMOSEPHUS.
OP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPYUEFUS PFRTBCHMSFSH SOBRE DTHZYE HHMSCH RTPGEUUSCH CHTHYuOHA? NUEVO BIPFEMPUSH OE. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUYTPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPCHPMSEF VPMEE-NEOE TBCHOPNETOP TBURTEDEMSFSH OBZTH'LH ACERCA DE CHUE KHMSCH. OH B CHPF ЪDEUSH OBN RTYDEFUS RPFTHDYFUS. dms OBYUBMB S TBUULBTSH, LBL UDEMBFSH FPOLHA OBUFTPCLH (sintonizar) DMS DHHI HHMPH LMBUFETB? H RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPPUFSI RTPGEUUPTPCH Y UEFY:
BRPNOYFE TB Y OBCHUEZDB - sintonizar NPTsOP CHSHCHRPMOSFSH FPMSHLP Ch monomodo. YOBYUE ChSCH MYVP RPMHYUFE OE UPCHUEN LPTTELFOSHCHK TEHMSHFBF, MYVP CHBYB NBYYOB NPCEF RTPUFP ЪBCHYUOHFSH.
yFBL, CHSHCHRPMOSEN melodía. rPUME RETECHPDB PRETBGYPOOPK UYUFENSCH H monomodo OBRTYNET LPNBODPK init 1 YMYY init S BRHULBEN ULTYRF prep_tune,LPFPTSCHK RPDOYNEF SEFECHSE
YOFETJEKUSCH Y BRHUFYF MOSIX. rPUME LFPZP SOBRE PDOK Yê NBYYO BRHULBEN tune, CHCHPDYN ENH OPNET DTHZPZP HMB DMS OBUFTPKLY Y TsDEN TEHMSHFBFB - HFYMYFB DPMTSOB CHSCHDBFSH BRTPPU OB CHPD YEUFY YUYUEM, RPMHYUEOOOSCHI PF CHSHCHRPMOEOIS LPNBODSCH tune -a<ХЪЕМ>ACERCA DE DTHZPN HYME. uPVUFCHEOOP PRETBGYA RTYDEFUS RPCHFPTYFSH ACERCA DE DTHZPN HJME LPNBODPK sintonizar -a<ХЪЕМ>. rPUME RPDPVOPZP FAOIOZB CH CHBYEK UYUFENE DPMTSEO RPSCHIFUS ZHBKM /etc/overheads, UPDETTSBEIK YOZHPTNBGYA DMS MOSIX CH CHYDE OELLYI YUYUMPCHSHCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYUYOBN tune OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE Y FELHEESP LBFBMPZB ZhBKM mosix.cost H /etc/overheads. fpRPNPCEF ;-).
rTY FAOOYOSE LMBUFETB Y VPMEE YUEN DCHHI NBYYO OHTSOP YURPMSHЪPCHBFSH HFYMYFH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBTEOS HFYMYFB RPCHPMSEF
CHBN H VPMEE RTPUFPN Y RTCHSHCHUOPN CHYDE OBUFTPIFSH LMBUFET, PFCHEFYCH SOBRE OEULPMSHLP CHPRTPPUCH Y RTPCHEDS FAOIOZ U DCHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNKH PRSHCHFH NPZH ULBBFSH, UFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪBZTHTSBFSH UEFSH, B OBPVPTPF - RTYPUFBOPCHYFSH CHUE BLFYCHOSCHE PRETBGYY H M PLBMSHOPC UEFY.

5. hRTBCHMEOYE LMBUFETPN

dMS HRTBCHMEOYS HHMPN LMBUFETB UHEEUFCHHEF OEPPMSHYPK OBVPT LPNBOD, UTEDY LPFPTSCHI:

mosctl - LPOFTPMSH OBD HIMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSHCH HMB - FBLIE, LBL bloquear, permanecer, lpermanecer, retrasar Y F.D
dBCHBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTCH LFPK HFYMYFSCH:
permanecer - RPCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH SOBRE DTHZYE HIMSCH U FELHEEK NBYOSCH. pFNEOSEFUS RBTBNEFTPN nostay YMY -stay
me quedo - BRTEEBEF FPMSHLP MPLBMSHOSHCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYYO NPZHF RTPDPMTSBFSH FFP DEMBFSH. pFNEOSEFUS RBTBNEFTPN nolstay YMYY -lstay.
bloquear - BRTEEBEF HDBMEOOSHCHN / ZPUFECHSHCHN RTPGEUUBN CHSHCHRPMOSFUS SOBRE FFPN ÉL. pFNEOSEFUS RBTBNEFTPN noblock YMY -block.
traer - CHPCHTBEBEF PVTBFOP CHUE RTPGEUUSCH U FELHEEZP HMB CHSHCHRPMOSENSCHE SOBRE DTHZYI NBYYOBI LMBUFETB. ffpf RBTBNEFT NPTSEF OE UTBVBFSHCHBFSH, RPLB NYZTYTPCHBCHYYK RTPGEUU OE RPMKHYUYF RTETSCHCHBOYE PF UYUFENSCH.
establecer retraso HUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBJOBEF NYZTYTPCHBFSH.
CHEDSH UZMBUIFEUSH - CH UMHYUBE, EUMY CHTENS CHSHCHRPMOEOIS RTPGEUUB NEOSHIE UELHODSCH UNSCHUM RETEOPUIFSH EZP SOBRE DTHZYE NBYYOSCH UEFY YUYUEBEF. yNEOOP FFP CHTENS Y CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN setdecay. rTYNET:
mosctl setdecay 1 500 200
HUFBOBCHMYCHBEF CHTENS RETEIPDB SOBRE DTHZYE HHMSCH 500 NYMMYUELHOD CH UMHYUBE, EUMY RTPGEUU BRHEEO LBL lento Y 200 NYMYUELHOD DMS rápido RTPGEUUPCH. pVTBFIFE CHOYNBOYE, UFP RBTBNEFT lento CHUEZDB DPMTSEO VSHFSH VPMSHIE YMI TBCHEO RBTBNEFTKh rápido.

Mosrun - BRHULBEF RTYMPSEOYE CH LMBUPET. OBRTYNET mosrun -e -j5 hacer JBRHUFYF hacer OB 5-PN XHME LMBUFETB, RTY LFPN CHUE EZP DPUETOIE RTPGEUUSCH VHDHF FBLCE CHSHCHRPMOSFUS OB 5-PN XME. rTBCHDB ЪDEUSH EUFSH PYO OABOU, RTY YUEN DPCHPMSHOP UHEEUFCHEOOOSCHK:
CH UMHYUBE, EUMY DPUETOYE RTPGEUUSCH CHSHCHRPMOSAFUS VSHCHUFTEE YUEN HUFBOPCMEOOOBS HFYMYFPK mosctl ЪBDETSLB (retraso) FP RTPGEUU OE VHDEF NYZTYTPCHBFSH ACERCA DE DTHZYE HHMSCH LMBUFETB. X mosrun EEE DPCHPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTCH, OP RPDTPVOP HOBFSH
P OYI CHSCH UNPTSFE Y THLPCHPDUFCHB RP LFPK HFIYMYFE. (manmosrun)

lun - LBL NSC HCE OBEN, LFP NPOYFPT LMBUFETB, LPFPTSCCHK CH RUECHDPZTBJYUEULPN CHYDE PFPVTBTSBEF ЪBZTHêLH LBTsDPZP TBVPYUEZP HMB CHBYEZP LMBUFETB, LPMYUEUFCHP UCHPVDO PK Y ЪBOSFPK RBNSFY HHMPCH Y CHSHCHDBEF NO PZP DTHZPK, OE NEOEE YOFETEUOPK YOZHPTNBGYY.

arriba - NPDYZHYGYTPCHBOOBS DMS YURPMSH'CHBOYS OB HHMBI LMBUFETB CHETUYS LPNBODSCH arriba. pFPVTTBTSBEF SOBRE LTBOE DYOBNYUEULHA YOZHPTNBGYA P RTPGEUUBI, BRHEEOOSCHI SOBRE DBOOPN KHME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RPGEUUSCH.

parlamentarios - FPCE NPDYZHYGYTPCHBOOBS CHETUYS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET HMB, SOBRE LPFPTSCHK NYZTYTPCHBM RTPGEUU.

CHPF SOBRE NPK CHZMSD Y CHUE PUOPCHOSHE HFIMYFSHCH. ACERCA DE UBNPN DEME LPOEIOP NPTsOP PVPKFYUSH DBTSE VOYI. OBRTYNET JURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
fBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOKHA YOZHPTNBGYA P OBUFTPKLBI HMB, RTPGEUUBI BRHEOOOSCHI U DTHZYI HHMPCH Y F.D.,B FBLCE RPNEOSFSH YUBUFSH RBTBNEFTCH.

6. LURETENO DE FITO.

l UPTSBMEOYA, NOE OE HDBMPUSH BUFBCHYFSH CHSHCHRPMOSFUS LBLLPK-FP PYO RTPGEUU PDOCHTENEOOP SOBRE OEULPMSHLYI HMBBI. nBLUYNKHN, YuEZP S DPUFYZ H RTPGEUUE LLURETYNEOPCH U LMBUFETPN-YURPMSHЪPCHBOYE DMS CHSHCHRPMOEOIS TEUKHTUPENLYI RTPGEUUPCH ACERCA DE DTHZPN KHME.
dBCHBKFE TBUUNPFTYN PYO Y RTYNETCH:
dPRHUFYN, UFP X OBU H LMBUPETE TBVPFBAF DCHE NBYOSCH (DCHB HMB), PYO Y LPFPTSHI U OPNETPN 1 (366 Celeron), DTHZPK - U OPNETPN 5 (PIII450). LURETYNEOPHYTPCHBFSH NSCH VKHDEN SOBRE 5-PN ÉL. 1-K HEM H FFP CHTENS RTPUFBYCHBM. ;-)
yFBL, BRHULBEN SOBRE 5-N XHME HFYMYFH crark DMS RPDVPTB RBTPMS L rar BTIYCHH.eUMY LFP Yê CHBU RTPVPCHBM TBVPFBFSH U RPDPVOSCHNY HFYMYFBNY, FP PO DPMTSEO OBFSH, YuFP RTPGE UU RPDVPTB RBTPMS "LHYBEF" DP 99 RTPGEOPCH RTPGEUUPTB. oX UFP CE - RPUME BRHULB NSCH OBVMADBEN, UFP RTPGEUU PUFBEFUS SOBRE LFPN, 5-PN XHME. tBKHNOP - CHEDSH YNEOOP X FFPZP HMB RTPYCHPDYFEMSHOPUFSH RTECHSHCHYBEF 1-K HEM RPYUFY H DCHB TBB.
dBMEE NSC RTPUFP ЪBRHUFYMY UVPTLH kde 2.0. unNPFTYN FBVMYGHH RTPGEUUPCH Y CHYDYN, UFP crack HUREYOP NYZTYTPCHBM SOBRE 1-K HEM, PUCHPPVPDYCH RTPGEUUPT Y RBNSFSH (DB, DB - RBNSFSH FPYuOP FBLCE PUCHPPVPTSDBEFUS) Marca DMS. b LBL FPMSHLP marca BLPOYUYM UCHPA TBVPPHH - crack CHETOHMUS PVTBFOP, SOBRE TPDOPC ENH 5-K HEM.
YOFETEWOSCHK JZHELF RPMHYUBEFUS, EUMY crack BRHUlbfsh ACERCA DE VPMEE NEDMEOOPN 1-N HYME.
fBN NSCH OBVMADBEN RTBLFYUEULY RTPFYCHPRMPTSOSCHK TEEKHMSHFBF - RTPGEUU UTBYH-TSE NYZTYTHEF OB 5-K, VPMEE VSHCHUFTSHCHK HEM. RTY LFPN PO CHPCHTBEBEFUS PVTBFOP, LPZDB IPSYO RSFPZP LPNRSHAFETTB OBYUYOBEF LBLIE-FP DECUFCHYS U UYUFENPK.

7. YURPMSH'CHBOYE

dBCHBKFE CH LPOGE TBVETENUS, BYUEN Y LBL NSCH NPTSEN YURPMSHЪCHBFSH LMBUFET CH UCHPEK RPCHUEDOECHOPC TSYOY.
DMS OBYUBMB OHTSOP TB Y OBCHUEZDB ЪBRPNOYFSH - LMBUFET CHSCHZPDEO FPMSHLP CH FPN UMHYUBE, LPZDB CH CHBYEK UEFY EUFSH IOOPE LPMYUEUFCHP NBYYO, LPFPTSCHE YUBUFEOSHLP RTPUFBYCH BAF Y CHS IPFIFE YURPMSHЪPCHBFSH YI TEUKHTUSCH O BRTYNET DMS UVPTLY KDE YMY DMS MAVSHCHI UETSHEOSCHI RTPGEUUPCH. CHEDSH VMBZPDBTS LMBUFETH YЪ 10 NBYYO NPTsOP PDOCHTENEOOP
LPNRYMYTPCHBFSH DP 10 FTSEMSHCHI RTPZTBNN ACERCA DE FPN-CE C++. yMY RPDVYTBFSH LBLPK-FP RBTPMSh,
OE RTELTBEBS OY SOBRE UELHODH LFPZP RTPGEUUB OEBCHYUYNP PF OBZTHЪLY SOBRE CHBY LPNRSHAFET.
dB Y CHPPVEE - FFP RTPUFP YOFETEUOP ;-).

8. bblmayueoye

h BLMAYUEOYE IPYUKH ULBBFSH, YuFP Ch FFK UVBFSHOE OE TBUUNPFTEOSHCHUE ChPNPTSOPUFY MOSIX, F.L. S RTPUFP DP OYI EEE OE DPVTBMUS. eUMY DPVETHUSH - TsDYFE RTPPDPMTSEOIS. :-)

En primer lugar, decida qué componentes y recursos se necesitarán. Necesitará un nodo maestro, al menos una docena de nodos informáticos idénticos, un conmutador Ethernet, una unidad de distribución de energía y un bastidor. Determine la cantidad de cableado y refrigeración, así como la cantidad de espacio que necesita. Decida también qué direcciones IP desea usar para los nodos, qué software instalará y qué tecnologías se requerirán para crear potencia informática paralela (más sobre esto a continuación).

  • Aunque el hardware es caro, todo el software de este artículo es gratuito y la mayor parte es de código abierto.
  • Si quieres saber qué tan rápida podría ser teóricamente tu supercomputadora, usa esta herramienta:

Monte los nodos. Deberá construir hosts o comprar servidores preconstruidos.

  • Elija marcos de servidor que hagan el uso más eficiente del espacio y la energía, así como una refrigeración eficiente.
  • O puede "reciclar" una docena de servidores usados, algunos obsoletos, e incluso si su peso supera el peso total de los componentes, ahorrará una cantidad decente. Todos los procesadores adaptadores de red y las placas base deben ser iguales para que las computadoras funcionen bien juntas. Por supuesto, no olvide la memoria RAM y los discos duros para cada nodo, y al menos una unidad óptica para el nodo principal.
  • Instale los servidores en el bastidor. Comience en la parte inferior para que el estante no se sobrecargue en la parte superior. Necesitará la ayuda de un amigo: los servidores ensamblados pueden ser muy pesados ​​y es bastante difícil colocarlos en las celdas en las que se apoyan en el bastidor.

    Instale un conmutador Ethernet junto al bastidor. Vale la pena configurar el conmutador de inmediato: configure el tamaño de trama gigante en 9000 bytes, configure la dirección IP estática que eligió en el paso 1 y desactive los protocolos innecesarios como SMTP.

    Instale una unidad de distribución de energía (PDU o Unidad de distribución de energía). dependiendo de cual carga máxima dar nodos en su red, es posible que necesite 220 voltios para una computadora de alto rendimiento.

  • Cuando todo esté configurado, proceda a la configuración. De hecho, Linux es el sistema de referencia para clústeres de alto rendimiento (HPC): no solo es ideal para la computación científica, sino que tampoco tiene que pagar para instalar un sistema en cientos o incluso miles de nodos. Imagina cuánto costaría instalación de ventanas para todos los nodos!

    • Empezar con la instalación ultima versión BIOS para tarjeta madre y software del fabricante, que debe ser el mismo para todos los servidores.
    • Establece tu preferido distribución de linux a todos los nodos, y al nodo principal - un kit de distribución con interfaz gráfica de usuario. Sistemas populares: CentOS, OpenSuse, Scientific Linux, RedHat y SLES.
    • El autor recomienda enfáticamente usar Rocks Cluster Distribution. Además de instalar todo el software y las herramientas necesarios para el clúster, Rocks proporciona un método excelente para "portar" rápidamente varias copias del sistema a servidores similares mediante el arranque PXE y el procedimiento "Kick Start" de Red Hat.
  • Instale la interfaz de paso de mensajes, el administrador de recursos y otras bibliotecas necesarias. Si no instaló Rocks en el paso anterior, deberá instalar manualmente el software requerido para configurar la lógica de computación paralela.

    • Para empezar necesitarás sistema portátil para trabajar con bash, como Torque Resource Manager, que le permite dividir y distribuir tareas en varias máquinas.
    • Agregue Maui Cluster Scheduler a Torque para completar la instalación.
    • A continuación, debe configurar una interfaz de paso de mensajes, que es necesaria para que los procesos individuales en cada nodo individual compartan datos. OpenMP es la opción más fácil.
    • No se olvide de las bibliotecas y compiladores matemáticos de subprocesos múltiples que "ensamblarán" sus programas para computación distribuida. ¿Ya dije que deberías instalar Rocks?
  • Conectar computadoras a la red. El nodo maestro envía tareas de cálculo a los nodos esclavos, que a su vez deben devolver el resultado y también enviarse mensajes entre sí. Y cuanto antes pase esto, mejor.

    • Use una red Ethernet privada para conectar todos los nodos en un clúster.
    • El nodo maestro también puede operar como NFS, PXE, DHCP, TFTP y servidores NTP cuando está conectado a Ethernet.
    • Debe separar esta red de la red pública para asegurarse de que otros paquetes no se superpongan en la LAN.
  • Pruebe el clúster. Lo último que debe hacer antes de otorgar a los usuarios acceso a la potencia informática es realizar pruebas de rendimiento. El benchmark HPL (High Performance Lynpack) es una opción popular para medir la velocidad de computación en un clúster. Necesita compilar software desde la fuente con el mayor grado de optimización que su compilador permita para la arquitectura que ha elegido.

    • Por supuesto, debe compilar con todos configuraciones posibles optimizaciones que están disponibles para la plataforma que ha elegido. Por ejemplo, si usa una CPU AMD, compile en Open64 con un nivel de optimización de -0.
    • ¡Compare sus resultados con TOP500.org para comparar su clúster con las 500 supercomputadoras más rápidas del mundo!
  • Si nota un error, seleccione un fragmento de texto y presione Ctrl + Enter
    COMPARTIR: