Home

CLUSTER DE ALTA DISPONIBILIDADE ATRAVÉS DE

image

Contents

1. 18 4 METODOLOGIA E RESULTADOS eterno caeeeeseseeensaeees 20 4 1 COMPONENTES DO CLUSTER 0 cccccscssssscsseesseeseesseseeseeseesesess seessaeees 20 41T Hardware es peee e ass dee Tua ERAS AREA ATE Lisi ep eee 20 4 1 2 Sistema operacional reereres ceceesesesteeeesseeaes 21 ADORO oopen sms Crab ria on en Tua i aN 21 AVA Heartbeat ese serie erentustasa A amet ud end once bat oo pedrada Ran horda ias 33 41 5 Aplica o sede mera beea presas quro dee De aaa anuidade ata o PE PS 35 4 2 INSTALA O E CONFIGURA O DOS SERVI OS 37 4 2 1 Configura o do sistema operacional cccceceseesteeeeceeeeeeee cenas 37 4 2 2 Contiguracao de Tede nerone euie lak pia decano Mae R atri venia 40 4 2 3 Instala o e configura o do EXIM cccceccssceessesseesteeetee saeeeeeeeteaes 42 4 2 4 Instala o e configura o do DRBD eereeeeeeaeees aes 48 4 2 5 Instala o e configura o do Heartbeat sete 59 5 VALIDA O DO CROSS TER srie aid ro NOTE RSRS E 65 6 CONCLUS ES E TRABALHOS FUTUROS eee 72 7 REFER NCIAS BIBLIOGR FICAS eee 74 vi LISTA DE FIGURAS Figura 2 1 Modelo de cluster de alto desempenho ou Beowulf 8 Figura 2 2 Modelo de cluster para balanceamento de carga c cs 9 Figura 2 3 Modelo de cluster de alta de disponibilidade cl 12 Figura 3 1 RAID 0 Divis o dos dados ras 15 Figura 3 2 RA
2. dispon veis e a tabela 4 10 os par metros Tabela 4 9 Se es do arquivo de configura o drbd conf SE O DESCRI O skip Utilizada para comentar peda os de texto Tudo que estiver incluso em uma se o skip ser ignorado global Utilizada para a configura o de par metros globais Na vers o 0 7 do DRBD somente os par metros minor count dialog refresh e disable ip verification detalhados na tabela 4 10 s o permitidos nessa se o resource name Configura um recurso DRBD ou seja um dispositivo que ser espelhado Cada se o resource precisa conter obrigatoriamente duas se es on host uma para cada n do cluster e adicionalmente uma se o startup syncer net e disk O par metro protocol obrigat rio nesta se o e o par metro incon degr cmd opcional on hostname Esta uma se o que engloba os par metros para os dispositivos DRBD inclusos em uma se o resource A palavra chave hostname mandat ria e deve ser exatamente igual ao nome de host de um dos n s do cluster Os par metros device disk address e meta disk s o obrigat rios nesta se o disk Esta se o permite fazer configura es detalhadas tunning nas propriedades dos dispositivos de armazenamento do DRBD Os par metros on io error e size s o opcionais nessa se o net Esta se o permite fazer configura es detalhadas tunning nas propriedades de rede do DRBD Os par metros sndbu
3. o DRBD cujas caracter sticas ser o detalhadas no Cap tulo 4 19 4 METODOLOGIA E RESULTADOS Neste cap tulo ser o abordados os componentes que integram o cluster incluindo o hardware e o sistema operacional utilizado assim como o software escolhido para manuten o e gerenciamento do cluster Os aspectos t cnicos da solu o como instala o e configura o dos componentes tamb m ser o abordados 4 1 COMPONENTES DO CLUSTER 4 1 1 Hardware Duas m quinas foram utilizadas para a cria o do cluster A configura o m nima de cada m quina depender dos requisitos exigidos pela aplica o que ser hospedada Para um servi o de SMTP com carga m dia de 35000 mensagens dia foram utilizadas m quinas com a seguinte configura o cada v Processador 2 Pentium II de 500MHz v Mem ria 768 MB vo DISCO si istisna 2 discos SCSI de 9GB vo Rede imeno 2 placas de 100 Mbit 20 E importante destacar que as m quinas que ir o compor o cluster n o precisam necessariamente ter as mesmas configura es de hardware no entanto um pr requisito importante a exist ncia de espa o em disco suficiente para a cria o de uma parti o de mesmo tamanho em cada uma delas 4 1 2 Sistema operacional Uma das condi es para realiza o desse trabalho o uso integral de software livre em todos os componentes do cluster Dessa forma o sistema operacional utilizado foi o G
4. 3 1 2 Espelhamento de dados em m quinas remotas O espelhamento de dados em m quinas remotas uma solu o eficiente quando o objetivo criar um ambiente de alta disponibilidade para servi os 18 cr ticos isso porque poss vel obter a redund ncia n o apenas dos dados como no caso do RAID mas de todo o conjunto de hardware existente diminuindo significativamente o SPOF Em um ambiente de espelhamento de discos n o h nenhum tipo de compartilhamento entre os n s servidores Atrav s do uso de software os dados s o espelhados ou replicados de um servidor para o outro atrav s da rede O princ pio deste modelo que todos servidores potenciais substitutos devem possuir seu pr prio meio de armazenamento e ao mesmo tempo uma r plica do armazenamento do servidor a ser substitu do SIM ES e TORRES 2003 Alguns autores denominam essa t cnica como sendo um RAID 1 via TCP IP ou seja um espelhamento de disco atrav s da rede Todo dado gravado em disco duplicado em outro por m em m quinas diferentes garantindo que se houver qualquer falha de hardware a m quina de backup esteja pronta para a opera o de failover assumindo imediatamente os servi os Esse processo pode ser manual ou autom tico assim como o failback ou seja o retorno do servi o para a sua m quina de origem ap s a resolu o da falha O software utilizado para fazer o espelhamento de disco em m quinas remotas ser
5. NBD NFS OCFS2 PVM RAID SAN LISTA DE ABREVIATURAS Advanced Packaging Tool Central Processing Unit Cyclic Redundancy Check Domain Name System Distributed Replicated Block Device Fully Qualified Domain Name Global File System General Public Licence GNU is Not Unix High Availability Hypertext Transfer Protocol Input Output Internet Protocol Message Digest Algorithm 5 Message Passing Interface Message Transfer Agent National Aeronautics and Space Administration Network Block Device Network File System Oracle Cluster File System Paralell Virtual Machine Redundant Array of Independent Disks Random Access Memory Storage Area Network SCSI SHA1 SMTP SPOF TCP UDP Small Computer System Interface Secure Hash Algorithm 1 Simple Message Transfer Protocol Single Point Of Failure Transmission Control Protocol User Datagram Protocol 1 INTRODU O O grande avan o tecnol gico tornou a depend ncia dos sistemas computacionais cada vez maior na vida das pessoas e no dia a dia das empresas Transa es banc rias compra e venda de produtos comunica o interpessoal e concretiza o de neg cios s o realizados eletronicamente a todo instante Os recursos tecnol gicos deixaram de ser apenas uma ferramenta de trabalho tornando se um fator competitivo de suma import ncia para pequenas m dias e grandes empresas A indisponibilidade de um servidor que hospeda um site de e commerce ou o servi o
6. dos dados portanto se um disco falhar todo o volume l gico falhara Figura 3 1 RAID O Divis o dos dados Fonte Dell 2008 15 e RAID1 O RAID n vel 1 ilustrado na Figura 3 2 a maneira mais simples para manter a redund ncia dos dados Neste caso os dados gravados em um disco s o espelhados duplicados em outro portanto se houver uma falha o array poder ser reconstru do a partir do disco ntegro O RAID 1 prov melhor desempenho no processo de leitura por m mais lento no processo de grava o devido a necessidade de duplica o dos dados para prover redund ncia Figura 3 2 RAID 1 Espelhamento de dados Fonte Dell 2008 e RAIDS O RAID n vel 5 ilustrado na Figura 3 3 consiste na divis o dos dados assim como ocorre no RAID n vel 0 associado com a distribui o da paridade dos dados alternadamente entre os discos do array A vantagem em rela o ao 16 RAID 1 que neste caso n o necess rio um par para cada disco utilizado sendo o tamanho l gico do array igual a capacidade de n 1 disco o que prov al m da redund ncia um bom aproveitamento da capacidade de armazenamento Strip Figura 3 3 RAID 5 Fonte Dell 2008 poss vel tamb m obter n veis de RAID que derivam da combina o dos n veis aqui apresentados como por exemplo RAID 10 RAID 0 1 e RAID 50 Al m disso existem os n veis 2 3 4 e 6 descritos em SILBERSCHATZ 2004 cuja utiliza
7. 2 2 TIPOS DE CLUSTER 2 2 1 Alto desempenho Como o pr prio nome j diz esse tipo de cluster tem foco na obten o de desempenho para aplica es que precisam de grande poder de processamento na execu o de atividades complexas Uma grande tarefa computacional pode ser dividida em tarefas menores e ent o distribu da atrav s dos n s de um cluster denominando se ent o de processamento distribu do ou processamento paralelo reduzindo dessa forma o tempo gasto na execu o total da tarefa O processamento paralelo caracteriza se pela distribui o dos processos para mais de uma CPU e o processamento distribu do caracteriza se pelo compartilhamento dos recursos de computadores otimizando dessa forma uma tarefa computacional ALVARENGA 2007 comum encontrarmos nas fontes de pesquisa a associa o de clusters ao projeto Beowulf da NASA principalmente em refer ncia aos clusters de alto desempenho por isso muitos autores simplesmente denominam um cluster de alto desempenho como Cluster Beowulf Segundo FERREIRA 2003 Beowulf uma arquitetura multicomputador que pode ser usada para computa es paralelas um sistema que normalmente consiste em um n servidor e um ou mais n s clientes conectados via rede Nenhum hardware especialmente feito sob encomenda requerido sendo necess rio para cria o de um cluster Beowulf apenas componentes de hardware comuns e o sistema operacional Linux al m das bibliotecas
8. Caso 2 Falha no n prim rio REISNER 2001 Se o n prim rio falhar e retornar antes do n secund rio tornar se o principal ent o ser necess ria uma sincroniza o total do n prim rio para o secund rio Isso ocorre porque n o poss vel determinar quais blocos gravados pouco antes da falha alcan aram o n secund rio e a sincroniza o total portanto a nica forma de garantir a integridade dos dados Se o n secund rio tornar se o principal durante a falha do n prim rio ent o a sincroniza o tamb m ser total desta vez no sentido inverso Isto necess rio pelo mesmo motivo da situa o anterior Se os dois n s ficam indispon veis por interrup o de energia el trica por exemplo ent o ocorrer sincroniza o total do n em estado prim rio para o 32 n em estado secund rio logo ap s a reinicializa o do cluster importante ressaltar que o estilo de opera o do DRBD discutido at aqui permite a execu o da aplica o em apenas um dos n s por vez enquanto o segundo n permanece pronto para assumir as atividades do principal em caso de falha Ativo Passivo Isto pode ser visto como um desperd cio de recurso uma vez que o n secund rio fica ocioso a maior parte do tempo Segundo ELLENBERG 2007 a partir da vers o 8 do DRBD poss vel que dependendo da aplica o a execu o ocorra em todos os n s do cluster simultaneamente Ativo Ativo Para tornar isso po
9. PVM ou MPI por esse motivo que o custo total de uma solu o de cluster Beowulf relativamente baixo se comparado ao custo de supercomputadores sendo este um grande atrativo para 1 http Avww nas nasa gov SC2000 GSFC beowulf html cria o de clusters utilizando conjuntos de hardware comuns encontrados no mercado Os clusters de alto desempenho s o utilizados geralmente em projetos cient ficos ou em an lises financeiras onde grandes c lculos matem ticos s o necess rios exigindo dessa forma um grande poder de processamento A Figura 2 1 ilustra um modelo de cluster de alto desempenho composto por um n controlador e 24 n s escravos interligados por um switch A comunica o entre os n s ocorre por uma rede Ethernet Nodos escravos pma E ato Barramento ethernet Pl DD p Switch S gt Nodo controlador Figura 2 1 Modelo de cluster de alto desempenho ou Beowulf 2 2 2 Balanceamento de carga No modelo de Clusters de balanceamento de carga todos os n s executam as mesmas aplica es e o tr fego entrante ent o dividido de forma equilibrada entre eles Se houver falha em um algum o as requisi es ser o ent o redistribu das para os n s dispon veis no momento O cluster de balanceamento de carga apesar de ter como objetivo principal o aumento do desempenho difere do modelo de cluster de alto desempenho pois as requisi es dos clientes s o atendidas completamen
10. dev ttySO dead heartbeat 2 116 2008 03 16 14 49 38 INFO Link hostl ethl dead Filesystem 2727 2008 03 16 14 49 39 INFO Running status for dev drbd0 on exim Filesystem 2727 2008 03 16_ 14 49 39 INFO exim is unmounted stopped Filesystem 2663 2008 03 16_ 14 49 40 INFO Filesystem Resource is stopped ResourceManager 2300 2008 03 16 14 49 40 INFO Running etc ha d resource d Filesystem dev drbdO exim jfs start Filesystem 2836 2008 03 16 14 49 41 INFO Running start for dev drbdO on exim Filesystem 2772 2008 03 16 14 49 41 INFO Filesystem Success ResourceManager 2300 2008 03 16 14 49 42 INFO Running etc ha d resource d drbdlinks start ResourceManager 2300 2008 03 16 14 49 42 INFO Running etc init d exim4 start heartbeat 2280 2008 03 16 14 49 56 INFO all HA resource acquisition completed standby harc 2972 2008 03 16 14 49 56 INFO Running etc ha d rc d status status mach down 2982 2008 03 16 14 49 56 INFO Taking over resource group IPaddr 192 168 0 53 24 eth0 ResourceManager 3002 2008 03 16 14 49 57 INFO Acquiring resource group host IPaddr 192 168 0 53 24 eth0 drbddisk exim Filesystem dev drbd0 exim jfs drbdlinks exim4 IPaddr 3026 2008 03 16 14 49 58 INFO IPaddr Running OK Filesystem 3211 2008 03 16 14 49 59 INFO Running status for dev drbd0 on exim Filesystem 3211 2008 03 16_ 14 50 00 INFO exim is mounted running Filesystem 3 147 2008 03 16_ 14 50 00 INFO Filesystem Run
11. dfsg 1 12 1686 deb Figura 4 12 Compila o e instala o do DRBD O DRBD deve ser instalado nos dois n s do cluster utilizando o mesmo procedimento O script de inicializa o etc init d drbd criado e configurado para execu o autom tica durante o processo de boot da m quina e respons vel pelo carregamento do m dulo drbd ko no kernel do Linux Quando o m dulo carregado o arquivo proc drbd criado e serve como interface para obter informa es sobre o estado do sistema A Figura 4 13 demonstra o conte do do proc drbd obtido logo ap s a instala o host1 cat proc drbd version 0 7 21 api 79 proto 74 SVN Revision 2326 build by root host1 2008 03 08 09 32 29 0 cs Unconfigured 1 cs Unconfigured Figura 4 13 Conte do do proc drbd antes da configura o do sistema O resultado obtido demonstra que o sistema ainda n o foi configurado e por isso n o est pronto para o uso A configura o do DRBD pode ser feita atrav s da ferramenta drbdsetup ou diretamente no arquivo etc drbd conf que foi projetado para permitir o uso de arquivos id nticos em todos os n s do cluster facilitando dessa forma o gerenciamento O arquivo de configura o 50 consiste de se es e par metros Cada se o iniciada com um identificador que em alguns casos pode ser acompanhado de um nome seguido do caractere 1 O caractere encerra a se o A tabela 4 9 cont m a rela o de se es
12. e um software para monitoramento dos n s do cluster Os procedimentos para implementar essa solu o ser o detalhados no Cap tulo 4 12 2 2 4 Discuss o Cada tipo de cluster melhor utilizado na solu o de um determinado tipo de problema Para resolver o problema de alta disponibilidade que est sendo abordado neste trabalho o cluster de alta disponibilidade a solu o mais apropriada Para construir um cluster de alta disponibilidade necess rio definir a forma como os dados ser o armazenados de forma a manter a alta disponibilidade No Cap tulo 3 ser o abordados os v rios tipos de espelhamento que podem ser utilizados em um cluster de alta disponibilidade 13 3 ESPELHAMENTO DE DADOS Este cap tulo apresenta os diferentes tipos de espelhamento de dados existentes e que podem ser utilizados em um cluster Al m disso s o apresentados os algoritmos necess rios para realizar o espelhamento de dados em m quinas remotas 3 1 TIPOS DE ESPELHAMENTO DE DADOS 3 1 1 Espelhamento de discos Em sistemas de miss o cr tica redund ncia um termo que deve ser levado a s rio para que seja poss vel garantir a continuidade dos servi os fornecidos por um sistema computacional Uma forma de aumentar a disponibilidade e diminuir o SPOF tentar garantir que um dado armazenado em disco esteja dispon vel mesmo quando esse disco apresentar falha Isso poss vel quando o dado al m de ser gravado em um disco
13. o menos comum O RAID pode ser implementado atrav s de hardware utilizando uma placa controladora que gerencia os n veis de RAID e processa as opera es de I O nos arrays ou atrav s de software utilizando fun es do sistema operacional por m com desempenho muito inferior a qualquer implementa o de RAID via hardware 17 Devido s caracter sticas de desempenho e redund ncia encontradas em cada n vel de RAID conclui se que o m todo mais adequado depender da aplica o envolvida A tabela 3 1 resume essas caracter sticas e serve como base de compara o entre elas Tabela 3 1 Compara o de desempenho entre os n veis de RAID Fonte Dell 2008 N vel Disponibilidade Desempenho de Desempenho Desempenho Quantidade Recomenda o de do dado leitura de grava o na m nima de de uso RAID reconstru o discos dos dados 0 Baixa Muito bom Muito bom N Dados nao criticos Pequenas bases 1 Excelente Muito bom Bom Bom 2 N 1 de dados logs dados cr ticos Leitura Bases de dados sequencial e aplica es 5 Boa Boa Leitura Razo vel Ruim N 1 N gt 2 com alta transacional intensidade de Muito boa leitura Aplica es com 10 Excelente Muito bom Razo vel Bom 2NxY grande volume de dados Aplica es com 50 Excelente Muito bom Razo vel Razo vel N 2 N gt 4 grande volume de dados N N mero de discos no array Y N mero de conjuntos RAID
14. pacotes de software mais recentes por m que ainda n o foram aceitos na vers o est vel O software disponibilizado na vers o teste somente depois que passa por um grau de testes na vers o inst vel A vers o inst vel onde ocorre o desenvolvimento do Debian e portanto a distribui o utilizada pelos desenvolvedores do sistema As ltimas vers es de software est o presentes na vers o inst vel do Debian e podem conter falhas justamente por estarem em fase de desenvolvimento Por se tratar de um ambiente de produ o ser utilizada a vers o est vel do Debian que at a data de conclus o deste trabalho a 4 0r3 com a vers o 2 6 18 4 do kernel do Linux Os detalhes sobre o processo de instala o podem ser obtidos no Manual de Instala o Debian GNU Linux dispon vel em http www debian org releases stable installmanual muito importante que seja feita uma instala o b sica do sistema e que 11 http www debian org 37 sejam adicionados apenas o software necess rio para execu o do cluster e da aplica o Essa medida pode proporcionar um maior desempenho e diminuir os riscos de poss veis vulnerabilidades existentes em software que n o ser utilizado O mesmo procedimento de instala o pode ser adotado nas duas m quinas que ir o compor o cluster N o necess rio que os dois equipamentos possuam a mesma configura o de hardware No entanto imprescind vel que exista e
15. seja tamb m copiado espelhado para outro criando se portanto a redund ncia Neste caso ser necess rio dois ou mais dispositivos caracterizando se um array de discos Os arrays de discos s o conhecidos como RAID Redundant Array os Independent Disks e s o usados atualmente para melhorar o desempenho e a confiabilidade de um sistema de armazenamento armazenando dados redundantes SILBERSCHATZ 2004 Existem diferentes possibilidades de configura o do array permitindo 14 a cria o de arrays dedicados redund ncia de dados aumento de desempenho expans o da capacidade de armazenamento ou uma combina o dessas caracter sticas O RAID utiliza diferentes t cnicas para armazenar e recuperar dados como striping espelhamento e paridade A implementa o de RAID pode ocorrer atrav s de software ou hardware sendo o custo e o desempenho significativamente inferiores no primeiro caso Tamb m existem alguns n veis de RAID cada qual com seu pr prio m todo para manipular os dados que s o armazenados em disco A escolha do melhor n vel depender da necessidade da aplica o e do que deve ser priorizado e RAIDO O RAID nivel 0 ilustrado na Figura 3 1 tamb m conhecido como Striping consiste na divis o dos dados em segmentos de igual tamanho que s o dessa forma gravados nos discos do array proporcionando melhor desempenho tanto no processo de leitura como grava o O RAID 0 n o prov a redund ncia
16. ser utilizado o Heartbeat Quando a comunica o com o host que falhou for retomada este passar ent o a ser o host secund rio e portanto dever sincronizar os dados com o host atualmente em estado prim rio O conjunto de software livre utilizado para prover a solu o foi e Sistema operacional GNU Linux e Software DRBD para sincroniza o dos dados entre os membros do cluster e Software Heartbeat para monitorar os n s e em caso de falha passar o controle de execu o da aplica o para o outro host e Aplica o Exim para prover o servi o de SMTP Ap s a montagem e configura o do cluster os resultados apresentados mostraram que a solu o foi eficiente reduzindo a indisponibilidade do servi o e satisfazendo melhor as necessidades dos usu rios 1 3 ESTRUTURA DO TRABALHO O texto est dividido em cinco cap tulos incluindo esta introdu o que apresenta o problema e tamb m os objetivos propostos O Cap tulo 2 define o que um cluster e quais s o os tipos geralmente utilizados como cluster de alto desempenho cluster para balanceamento de carga e cluster de alta disponibilidade que o tema desta pesquisa e portanto ter uma abrang ncia maior no decorrer do trabalho O Capitulo 3 aborda o espelhamento de dados atrav s de RAID e o espelhamento de dados em m quinas remotas utilizando o software DRBD O Cap tulo 4 apresenta a metodologia utilizada e os resultados alcan ad
17. 8 brd ff ff ff ff f ff inet 192 168 0 51 24 brd 192 168 0 255 scope global eth0 inet 192 168 0 53 24 brd 192 168 0 255 scope global secondary eth0 0 inet6 fe80 5054 ff fel2 3458 64 scope link valid_Ift forever preferred_Ift forever host2 grep i exim proc mounts dev drbd0 exim jfs rw 0 0 host2 Is l etc exim4 etc default exim4 var spool exim4 Irwxrwxrwx 1 root root 23 2008 03 16 14 49 etc default exim4 gt exim etc default exim4 Irwxrwxrwx 1 root root 15 2008 03 16 14 49 etc exim4 gt exim etc exim4 Irwxrwxrwx 1 root root 21 2008 03 16 14 49 var spool exim4 gt exim var spool exim4 host2 ne 192 168 0 53 25 220 host2 drbd ESMTP Exim 4 63 Sun 16 Mar 2008 15 38 34 0300 host2 Is l var spool exim4 input total 8 rFW F 1 Debian exim Debian exim 861 2008 03 16 11 47 IJau8T 00013h VO D rW r 1 Debian exim Debian exim 677 2008 03 16 11 47 1Jau8T 00013h VO H Figura 5 8 Disponibilidade dos recursos no host2 durante indisponibilidade do hostl 70 Clientes Heartbeat C108 J ethy gt eth Secundario Primario Figura 5 9 Cluster operando com o host2 no estado prim rio 71 6 CONCLUS ES E TRABALHOS FUTUROS Atualmente a utiliza o de recursos tecnol gicos possui not vel relev ncia para os neg cios de uma empresa e a consegii ncia disso uma depend ncia cada vez mais s lida da tecnologia e dos sistemas computacionais de um modo geral Dessa forma a interrup o
18. ID 1 Espelhamento de dados 16 Fig ra 3 3 SRAID S essi Ssavcn a aeaa aE a o pio coa seas a EATS 17 Figura 4 1 Funcionamento do DRBD tes seresseessssee 24 Figura 4 2 Vis o geral do Heartbeat its caeeeenueeeseeeeeneas 34 Figura 4 3 Interfaces de rede e tabela de roteamento do hostI 41 Figura 4 4 Interfaces de rede e tabela de roteamento do host2 41 Figura 4 5 Comando para configura o do Exim via Debconf 42 Figura 4 6 Configura o do Exim Tipo de configura o c 43 Figura 4 7 Configura o do Exim Nome do sistema ececceseeceeeeeeeneeeeeees 45 Figura 4 8 Configura o do Exim IP por onde receber requisi es 46 Figura 4 9 Configura o do Exim Smarthost cristas 47 Figura 4 10 Impedindo a inicializa o do Exim no boot do sistema 48 Figura 4 11 Instala o do c digo fonte do kernel sirene cre 49 Figura 4 12 Compila o e instala o do DRBD eeteeeeeneetenees 50 Figura 4 13 Conte do do proc drbd antes da configura o do sistema 50 Figura 4 14 Promovendo 0 host para prim rio cccccccsseesseesecees cesteeeeeseteaes 56 Figura 4 15 Arquivo drbd conf do cluster errar 57 Figura 4 16 Arquivo etc drbdlinks conf re reereeraeraneaanto teas 58 Figura 4 17 Instala o do Heartbeat ereto seseeeseaee
19. NU Linux que al m de ser software livre oferece seguran a desempenho e confiabilidade A distribui o escolhida foi o Debian que entre outras caracter sticas possui uma filosofia que se aproxima ao m ximo das diretrizes do movimento Software Livre e utiliza por padr o apenas software distribu do sob licen a de c digo aberto O Debian tamb m possui um sistema de pacotes pr prio e oferece ferramentas como o APT e o Aptitude que tornam o processo de instala o de aplicativos muito simples e eficiente principalmente quanto satisfa o de depend ncias Mais informa es sobre o Debian assim como orienta es sobre como adquirir uma c pia do sistema podem ser obtidas no site http www debian org 4 1 3 DRBD 21 O DRBD Distributed Replicated Block Device desenvolvido por Philipp Reisner e Lars Ellenberg um dispositivo de bloco para sistemas Linux implementado atrav s de um m dulo do kernel que permite o espelhamento em tempo real de um dispositivo de bloco local para uma m quina remota A fun o do DRBD manter a disponibilidade dos dados e consequentemente a continuidade dos neg cios que dependem de um sistema computacional Essa disponibilidade uma quest o muito s ria e pode se tornar um grande problema para um projeto de cluster Se os dados devem estar dispon veis a maior parte do tempo poss vel ent o um sistema de armazenamento compartilhado como SAN NFS e NBD por exempl
20. RA REALIZAR ESTE TRABALHO A realiza o deste trabalho foi motivada pela necessidade cada vez maior de manter o uptime do servi o SMTP em uma empresa que utiliza este servi o tanto para o tr fego de e mail com a internet como tamb m para envio de alertas disparados pelos sistemas legados da companhia e pelos sistemas que monitoram o ambiente computacional Essa criticidade proporcionou o desafio de buscar uma alternativa para manter a alta disponibilidade do servi o SMTP utilizando software livre e recursos de hardware existentes na empresa 1 2 OBJETIVOS O objetivo geral deste trabalho resolver o problema do fornecimento com alta disponibilidade do servi o SMTP em uma empresa Devido restri o de recursos computacionais os objetivos espec ficos deste trabalho compreendem alcan ar uma solu o utilizando recursos j existentes na empresa e software livre A solu o encontrada para alcan ar estes objetivos foi criar um cluster de alta disponibilidade sobre o qual ser executado o servi o SMTP O cluster composto por duas m quinas interligadas em rede denominadas host e host2 Cada host do cluster poder estar em um dos seguintes estados prim rio ou secund rio A aplica o executada no host que estiver no estado prim rio e todos os dados s o espelhados para o host secund rio atrav s de uma interface de rede dedicada Para promover o host em estado secund rio para prim rio em caso de falha
21. REIRA 2003 e Disponibilidade convencional a disponibilidade encontrada na maioria dos computadores dispon veis no mercado sem nenhum recurso extra que de alguma forma oculte eventuais falhas Os recursos computacionais pertencentes a essa classe possuem uma disponibilidade entre 99 a 99 9 ou seja em um ano de opera o poder existir indisponibilidade por um per odo de nove horas a quatro dias e Alta disponibilidade 10 encontrada em computadores que possuem algum recurso para detectar recuperar e ocultar eventuais falhas Os recursos computacionais pertencentes a essa classe possuem uma disponibilidade entre 99 99 a 99 999 ou seja em um ano de opera o poder existir indisponibilidade por um per odo de pouco mais de cinco minutos e Disponibilidade cont nua E encontrada em computadores sofisticados que possuem recursos muito eficientes para detectar recuperar e ocultar eventuais falhas obtendo se disponibilidade cada vez mais pr xima de 100 tornando dessa forma o per odo de inatividade insignificante ou at mesmo inexistente comum encontrar o termo toler ncia a falhas para indicar sistemas de alta disponibilidade Segundo Jalot apud PEREIRA FILHO 2004 um sistema tolerante a falhas se ele pode mascarar a presen a de falhas Gartner 2007 demonstra que para tolerar falhas preciso ter redund ncia e que em sistemas redund ncia pode ser hardware software ou tempo Dessa forma co
22. a o s o eles etc ha d ha cf etc ha d haresources e etc ha d authkeys Estes arquivos n o s o criados durante a instala o portanto precisam ser criados manualmente ou copiados do diret rio usr share doc heartbeat 2 onde encontram se vers es de exemplo e a documenta o do Heartbeat O arquivo etc ha d ha cf apresentado na Figura 4 18 o principal arquivo de configura o A tabela 4 11 cont m a descri o de cada par metro utilizado debugfile var log ha debug logfile var log ha log keepalive 2 deadtime 5 warntime 2 initdead 60 serial dev ttySO udpport 694 bcast eth auto_failback off node hostl node host2 Figura 4 18 Conte do do arquivo etc ha d ha cf 60 Tabela 4 11 Descri o das diretivas utilizadas na configura o do Heartbeat PAR METRO DESCRI O debugfile Especifica o arquivo de log do Heartbeat para mensagens de depura o logfile Especifica o arquivo de log do Heartbeat keepalive Especifica o intervalo de tempo em segundos ou milissegundos se utilizado o sufixo ms entre os heartbeats deadtime Especifica o intervalo de tempo em segundos ou milissegundos que o n ser declarado indispon vel se n o responder a um heartbeat Este um par metro de configura o muito importante e o valor utilizado deve ser analisado minuciosamente em cada caso Um valor muito baixo pode causar uma falsa declara o de indisponibilidade do n enquanto um valor m
23. acesso permitindo dessa forma que os dados sejam espelhados para o outro n do cluster atrav s da rede Todos os dispositivos disponibilizados pelo DRBD possuem um estado que pode ser prim rio ou secund rio A aplica o que estiver em execu o no cluster deve obrigatoriamente ser executada no n com estado prim rio e somente este ter permiss o para acessar o dispositivo de bloco Toda opera o de escrita ser realizada localmente e enviada para o n que possuir o dispositivo em estado secund rio que por sua vez ir simplesmente gravar os dados no seu dispositivo de bloco local As opera es de leitura ocorrer o somente no n em estado prim rio Se o n prim rio do cluster falhar o Heartbeat dar in cio ao processo de failover alterando automaticamente o estado do n secund rio para prim rio montando o dispositivo de bloco espelhado e iniciando a aplica o Quando o n que falhou for reativado este receber o estado secund rio e dever sincronizar o seu conte do com o n promovido para prim rio A partir da vers o 7 o DRBD capaz de identificar apenas os dados que foram alterados durante a indisponibilidade do n problem tico tornando a sincroniza o seletiva e consequentemente mais r pida 23 Service Service Im m er H H File system Buffer cache Disk scheduler Figura 4 1 Funcionamento do DRBD REISNER 2001 Segundo REISNER 2001 o DRBD
24. ado como ponto 57 de montagem da parti o dev drbd0 e o local para onde a rea de dados da aplica o deve apontar A montagem do dispositivo ser feita pelo Heartbeat abordado na Se o 4 2 5 deste cap tulo No Debian o Exim mant m a sua configura o no diret rio etc exim4 e no arquivo etc default exim4 O spool das mensagens armazenado no diret rio var spool exim4 necess rio que esses locais apontem para o diret rio exim que o ponto de montagem do dispositivo DRBD Dessa forma os dados ser o replicados entre os n s do cluster e estar o dispon veis quando o servi o for transferido para o n secund rio assim que o n prim rio falhar O DRBDLinks uma ferramenta utilizada para automatizar os apontamentos que precisam ser criados Ele ser utilizado pelo Heartbeat quando o n de um cluster alterado de secund rio para prim rio Os apontamentos devem ser configurados no arquivo etc drbdlinks conf conforme demonstra a Figura 4 16 mountpoint exim link etc exim4 link etc default exim4 link var spool exim4 Figura 4 16 Arquivo etc drbdlinks conf O par metro mountpoint deve conter o ponto de montagem utilizado pelo dispositivo DRBD no caso exim Os par metros link definem quais apontamentos ser o criados quando o programa for executado De acordo com a configura o apresentada na Figura 4 16 ser o criados os seguintes links 58 simb licos etc e
25. ail Neste tipo de configura o todas as mensagens cujo destino seja um dom nio diferente do que o MTA est respondendo ser o encaminhadas para outro servidor denominado de smarthost que por sua vez deve estar configurado para fazer o relay das mensagens e Mensagens enviadas por smarthost nenhuma mensagem local Este tipo de configura o semelhante anterior no entanto n o haver entrega de mensagens locais ou seja na pr pria m quina onde o MTA est sendo executado Todas as mensagens ser o encaminhadas para um smarthost e Somente entrega local Neste caso dever ser configurado os dom nios para o qual o MTA dever considerar a si mesmo como o destino final portanto todas as mensagens recebidas ser o entregues localmente O MTA que ser configurado para o cluster n o estar conectado diretamente internet e receber somente mensagens oriundas da pr pria rede 192 168 0 0 24 As mensagens cujo destino seja um dom nio externo ser o encaminhadas para um smarthost portanto a melhor op o neste caso utilizar 44 a configura o Mensagens enviadas por smarthost nenhuma mensagem local A pr xima informa o que ser solicitada o nome do sistema de correio que deve ser o nome do dom nio utilizado para qualificar as mensagens sem um nome de dom nio A Figura 4 7 ilustra o par metro utilizado neste caso Figura 4 7 Configura o do Exim Nome do sistema Em s
26. buffers n mero Define o n mero m ximo de requisi es que ser o alocadas pelo DRBD O valor m nimo 32 que corresponde a 128KB em sistemas cujo PAGE SIZE igual a 4KB Os buffers s o utilizados para armazenar blocos de dados enquanto eles s o gravados em disco portanto quanto maior for esse valor maior ser o desempenho do sistema e consequentemente o consumo de mem ria RAM ko count n mero Se o n em estado secund rio n o completar uma requisi o de escrita pelo tempo definido no par metro timeout multiplicado pelo valor desse par metro ent o ele ser expelido do cluster e o n prim rio entrar no modo StandAlone O valor padr o 0 que desabilita essa funcionalidade on disconnect a o Este par metro define a a o que o DRBD deve tomar quando o n perder a comunica o com o seu par Os valores dispon veis s o stand alone para que o n entre no modo StandAlone em situa es como essa ou reconnect para que sejam feitas novas tentativas de conex o sendo este o valor padr o do par metro 53 on io error a o Este par metro define a a o que ser tomada pelo DRBD se o dispositivo de armazenamento reportar erro de 1 0 As op es dispon veis s o pass on Reporta o erro para o sistema de arquivos montado se o erro acontecer no n prim rio e ignora o problema se o erro acontecer no n secund rio panic O n abandona o cluster reportando um k
27. d XU FLS UNIVERSIDADE FEDERAL DE LAVRAS CLUSTER DE ALTA DISPONIBILIDADE ATRAVES DE ESPELHAMENTO DE DADOS EM MAQUINAS REMOTAS DANIEL ZAMINHANI 2008 DANIEL ZAMINHANI CLUSTER DE ALTA DISPONIBILIDADE ATRAV S DE ESPELHAMENTO DE DADOS EM M QUINAS REMOTAS Monografia de P s Gradua o Lato Sensu apresentada ao Departamento de Ci ncia da Computa o da Universidade Federal de Lavras para obten o do t tulo de Especialista em Administra o em Redes Linux Orientador Prof Marluce Rodrigues Pereira LAVRAS MINAS GERAIS BRASIL 2008 DANIEL ZAMINHANI CLUSTER DE ALTA DISPONIBILIDADE ATRAV S DE ESPELHAMENTO DE DADOS EM M QUINAS REMOTAS Monografia de P s Gradua o Lato Sensu apresentada ao Departamento de Ci ncia da Computa o da Universidade Federal de Lavras para obten o do t tulo de Especialista em Administra o em Redes Linux Aprovada em de de Prof Joaquim Quinteiro Uch a Prof Sandro Pereira Melo Prof Marluce Rodrigues Pereira Orientador LAVRAS MINAS GERAIS BRASIL A minha querida esposa pelo apoio e compreens o e aos meus pais pela orienta o que me deram ao longo da minha vida ensinando me a respeitar o pr ximo e crescer como homem Resumo A indisponibilidade de um servidor que hospeda um site de e commerce ou o servi o de correio eletr nico de uma empresa reflete negativamente no relacionamento da empresa com seus client
28. de correio eletr nico reflete negativamente n o apenas no faturamento de uma empresa mas tamb m no relacionamento com seus clientes e fornecedores Atualmente o site de uma empresa o seu cart o de visitas e o correio eletr nico um canal muito importante para comunica o entre entidades internas e externas companhia Toda essa depend ncia torna cr tico qualquer processo que envolva recursos computacionais resultando em uma necessidade cada vez mais constante da disponibilidade dos servi os providos por esses recursos O conceito de disponibilidade pode ser definido como o percentual de tempo em que o sistema e a aplica o est o operando permitindo a livre utiliza o pelos usu rios TAURION 2007 Para garantir a alta disponibilidade de um sistema computacional al m de um conjunto de software est vel necess rio tamb m que exista redund ncia de hardware a fim de diminuir o SPOF Single Point Of Failure e consequentemente a probabilidade de interrup es n o programadas O objetivo deste trabalho apresentar uma solu o que garanta a alta disponibilidade de um sistema computacional atrav s da cria o de um cluster utilizando o sistema operacional GNU Linux O cluster ser criado para garantir a alta disponibilidade de um gateway SMTP por m os conceitos aqui apresentados podem ser utilizados em qualquer outra aplica o para o qual se deseja aplicar a alta disponibilidade 1 1 MOTIVA O PA
29. e G para especificar o valor em Kilobytes Megabytes ou Gigabytes Para a configura o do cluster foi criado um recurso chamado exim utilizando o modo de opera o sincrono atrav s do Protocolo C que garante um maior n vel de confiabilidade para o processo de espelhamento dos dados Foi configurado atrav s do par metro incon degr cmd que o sistema deve ser desligado quando o n iniciar como um cluster degradado e for identificado inconsist ncia nos dados deste n 54 Foram inclu das na configura o uma se o startup definindo os par metros wfc timeout e degr wfc timeout para 60 segundos e 120 segundos respectivamente uma se o disk com o par metro on io error detach definindo a a o que deve ser tomada pelo DRBD quando for encontrado erro de 1 O no dispositivo de armazenamento e uma se o syncer limitando em 10MB a taxa de transfer ncia do processo de sincroniza o total As configura es do espelhamento foram feitas nas se es on host e on host2 A defini o da parti o que ser espelhada foi feita atrav s dos par metros device e disk com os valores dev drbd0 e dev sdb1 respectivamente Isso significa que fisicamente os dados ser o armazenados na parti o dev sdb1 mas como essa parti o est associada a um dispositivo DRBD todo processo de leitura e escrita em disco deve ocorrer atrav s do dispositivo dev drbdo Portanto a parti o onde estar o os dados da aplica
30. e de rede Heartbeat Hostl Host2 192 168 50 1 192 168 50 2 Figura 4 2 Vis o geral do Heartbeat 34 As falhas s o detectadas quando o Heartbeat deixa de receber sinais dos outros n s do cluster por exemplo se o Heartbeat do n secund rio deixa de receber os sinais enviados pelo Heartbeat do n prim rio ent o ele assume que existe uma falha e d inicio ao processo de failover ou seja inicia os servi os necess rios para que a aplica o seja executada no servidor backup preservando assim o funcionamento do sistema como um todo Essa opera o abrange a promo o do n secund rio para prim rio a montagem no modo leitura e escrita da parti o que cont m os dados replicados pelo DRBD e a configura o do IP virtual do cluster no n secund rio que passa a responder pelas requisi es feitas aplica o Atrav s do arquivo de configura o do Heartbeat poss vel determinar se o processo de failback ou seja o retorno dos servi os para a m quina original ap s resolu o do problema deve ser autom tico ou n o Algumas vezes o n onde a aplica o est sendo executada indiferente portanto o processo autom tico de failback indesejado O procedimento de instala o do Heartbeat ser abordado na se o 4 2 5 deste cap tulo assim como os par metros de configura o dispon veis para cria o do cluster em conjunto com o DRBD 4 1 5 Aplica o O DRBD em conjunto com o Hear
31. eeneas 59 Figura 4 18 Conte do do arquivo etc ha d ha Cf eee cesesesteeeeesseaes 60 Figura 4 19 Conte do do arquivo etc ha d haresources c sia 62 Figura 4 20 Conte do do arquivo etc ha d authkeys cccccccccsccees onanan 64 vii LISTA DE TABELAS Tabela 3 1 Compara o de desempenho entre os n veis de RAID 18 Tabela 4 1 Tamanho da rea de meta dados do DRBD cs 26 Tabela 4 2 Comportamento do DRBD Exemplol sesse 29 Tabela 4 3 Comportamento do DRBD Exemplo2 0 cecceecceeceeeeeeeeeeeneeeenees 29 Tabela 4 4 Comportamento do DRBD Exemplo3 30 Tabela 4 5 Comportamento do DRBD Exemplo4 30 Tabela 4 6 Comportamento do DRBD ExemploS cecceccceeceeeeeeeeeeneeeenees 31 Tabela 4 7 Esquema de particionamento dos discos ci ceras 38 Tabela 4 8 Configura o de rede dos 0S cccecsseesseeteceseceeeeeseeeseeene ceeeeeseaaes 40 Tabela 4 9 Se es do arquivo de configura o drbd conf 51 Tabela 4 10 Par metros do arquivo de configura o drbd conf cece 52 Tabela 4 11 Descri o das diretivas utilizadas na configura o do Heartbeat 61 Tabela 4 12 Descri o dos recursos do arquivo etc ha d haresources 62 Tabela 4 13 Diretivas de autentica o do Hearibeat ii sistemas 63 viii APT CPU CRC DNS DRBD FQDN GFS GPL GNU HA HTTP VO IP MDS MPI MTA NASA
32. eguida necess rio informar as interfaces de rede por onde o Exim receber requisi es Por padr o est configurada a interface de loopback no entanto isso permitir apenas o roteamento das mensagens enviadas pelos servi os locais Para a configura o do cluster o endere o IP virtual deve 45 adicionalmente ser informado A Figura 4 8 ilustra essa configura o Figura 4 8 Configura o do Exim IP por onde receber requisi es Por padr o o Exim considera a si mesmo como destino final da mensagem o pr prio hostname da m quina e o nome localhost isso significa por exemplo que mensagens destinadas a root hostl root localhost e root hostl localhost ser o sempre entregues localmente No caso aqui apresentado nenhum outro dom nio deve ser informado pois as mensagens que 46 n o s o locais devem ser encaminhadas para o smarthost O pr ximo par metro o hostname ou endere o IP da m quina que ser utilizada como smarthost que dever ser previamente configurada para fazer relay do IP virtual do cluster No caso aqui apresentado ser utilizado um provedor de servi os respons vel pelo roteamento das mensagens para a internet A Figura 4 9 ilustra a configura o Terminal Figura 4 9 Configura o do Exim Smarthost Os par metros que foram apresentados aqui s o essenciais para uma configura o b sica do Exim e s o suficientes para atender o objetivo proposto O Exim o
33. er e portanto possui os dados mais atualizados Dessa forma ele dever tornar se o prim rio ap s uma reinicializa o do cluster Tabela 4 2 Comportamento do DRBD Exemplo1 Fonte REISNER 2001 Host1 Host2 Situa o P lt 0 0 0 1 gt S lt 0 0 0 0 gt Os dois n s est o no ar O generation count igual P lt 0 1 0 1 gt lt 0 0 0 0 gt O Host cai e o Host aumenta o connected count lt 0 1 0 1 gt lt 0 0 0 0 gt Os dois n s caem 2 lt 0 1 0 1 gt 2 lt 0 0 0 0 gt O cluster reiniciado P lt 0 2 0 1 gt S lt 0 2 0 0 gt Host atualiza o generation count do Host e o connected count aumenta porque os n s est o novamente conectados Exemplo2 Este exemplo demonstra o comportamento do DRBD em uma situa o t pica em clusters de alta disponibilidade ou seja quando o Host2 precisa assumir o papel de n principal enquanto o Host est indispon vel Tabela 4 3 Comportamento do DRBD Exemplo2 Fonte REISNER 2001 Host1 Host2 Situa o P lt 0 0 0 1 gt S lt 0 0 0 0 gt Os dois n s est o no ar O generation count igual lt 0 0 0 1 gt S lt 0 0 0 0 gt O Host cai e o Host n o aumenta o generation count lt 0 0 0 1 gt P lt 0 0 1 1 gt O Heartbeat inicializa os servi os no Host2 lt 0 0 0 1 gt lt 0 0 1 1 gt Os dois n s caem 2 lt 0 0 0 1 gt lt 0 0 1 1 gt O cluster reinicializado S lt 0 1 1 1 gt P lt 0 1 1 1 gt O Ho
34. erliga atrav s de um cabo crossover os dois n s do cluster e dedicada para a replica o dos dados e monitoramento dos n s Ap s a instala o e configura o das ferramentas cujo procedimento foi apresentado em detalhes no Cap tulo 4 foram realizados testes para a valida o da solu o Ao desligar o servidor que fornecia o servi o SMTP simulando uma falha o Heartbeat detectou com precis o o problema e executou todas as a es programadas transferindo o servi o para o servidor de conting ncia Os dados espelhados pelo DRBD estavam atualizados e a falha simulada no teste foi prontamente contornada de forma transparente aos usu rios do sistema comprovando a efic cia da solu o Como recomenda o para trabalhos futuros poderia ser implementado um cluster utilizando o DRBD8 em conjunto com um sistema de arquivos para cluster como o OCFS2 ou o GFS Uma solu o deste tipo permite que o dispositivo de bloco espelhado seja montado simultaneamente nos dois n s unindo as vantagens de um cluster de alta disponibilidade e de um cluster para balanceamento de carga em uma nica solu o 73 7 REFER NCIAS BIBLIOGR FICAS ALVARENGA F V Uma Proposta de Aplica o para a Solu o do Problema da rvore Geradora de Custo M nimo com Grupamentos Utilizando Cluster em Linux 2007 63f Monografia Especializa o em Administra o em Redes Linux Departamento de Ci ncia da Computa o Universidade Federal de Lav
35. ernel panic detach O n desconecta o dispositivo e continua a opera o no modo disk less wfc timeout tempo O script de inicializa o do DRBD interrompe o processo de boot da m quina e aguarda at que os resources estejam conectados Esse comportamento evita que o gerenciador do cluster no caso o Heartbeat configure um dispositivo que acha ser o n prim rio enquanto n o Se for desejado limitar o tempo de espera pela conex o com o par necess rio informar o tempo em segundos nesse par metro O valor padr o 0 e significa que a espera pela conex o com o par ilimitada degr wfc timeout tempo Esse par metro ser utilizado apenas quando um n que fazia parte de um cluster degradado ou seja um cluster que operava com apenas um n reiniciado Neste caso o degr wfc timeout substitui o wfc timeout pois pode ser indesej vel o n aguardar pelo seu par que j estava inativo antes da reinicializa o do cluster O valor padr o desse par metro 60 que corresponde a 60 segundos Um valor igual a O faz com que a espera seja por um per odo ilimitado rate velocidade Este par metro utilizado para limitar a taxa de transfer ncia entre os n s O objetivo garantir que a aplica o em execu o no cluster n o seja comprometida por um processo de sincroniza o total do DRBD O valor padr o 250 que corresponde a 250KBps permitida a utiliza o dos sufixos K M
36. es e fornecedores consequentemente impactando no seu faturamento O objetivo deste trabalho apresentar uma solu o utilizando software livre para a cria o de um cluster de alta disponibilidade atrav s do espelhamento de dados em m quinas remotas para hospedar uma aplica o SMTP Os testes realizados para valida o da solu o mostraram que o cluster montado garante alta disponibilidade do servi o SMTP SUM RIO LISTA DE FIGURAS ini eei naa n ad as vii EISTADE TABELAS Sorea nn a a e E e IE viii LISTA DE ABREVIATURAS Soina ioana a a EA Sead ix LINTRODU O eo csc nao e r e EE id 1 1 1 MOTIVA O PARA REALIZAR ESTE TRABALHO 2 2 OBJETIVOS sul nin dele ainda ad Se Rial Boies 2 1 3 ESTRUTURA DO TRABALHO cc siste ceseeceeesseeensaas 4 DO BUSTERS orais oiee nao e a a e vestaediguse utes E a eaa raia o nah io 2 1 DEFINI O DE CLUSTER siissiatn keris SDS pisa saia tiem etapa 5 2 2 TIPOS DE CLUSTER sir otra 7 22 Alto desempenho s csveeeeaeeas e ene E e EE EE ao 7 2 2 2 Balanceamento de carga eee seestesesseesresessee recanto 9 2 2 3 Alta disponibilidade kiani a 10 DD A DISCUSS O sais hie Scaled bere perereca a vege dead a T whee 13 3 ESPELHAMENTO DE DADO ccccccccessceseeseeseeeeceteeseeseee saeeeeeeeeeeeseeeee 14 3 1 TIPOS DE ESPELHAMENTO DE DADOS s see 14 3 1 1 Espelhamento de discos seeesesececesseteeeees 14 3 1 2 Espelhamento de dados em m quinas remotas
37. f size timeout connect int ping int max buffers max epoch size ko count e on disconnect s o opcionais nesta se o startup Esta se o permite fazer configura es detalhadas tunning nas propriedades de inicializa o do DRBD Os par metros wfc timeout e degr wfc timeout s o opcionais nessa se o syncer Esta se o utilizada para configurar em detalhes tunning o servi o de sincroniza o do dispositivo do DRBD Os par metros rate e group s o opcionais nessa se o 51 Tabela 4 10 Par metros do arquivo de configura o drbd conf PAR METRO DESCRI O minor count valor O par metro minor count deve ser utilizado quando desejado adicionar resources no arquivo de configura o sem precisar recarregar o m dulo do DRBD O valor deve estar entre 1 e 255 e o padr o exatamente o n mero de resouces configurados no arquivo drbd conf dialog refresh tempo O DRBD exibe um texto que inclui um contador enquanto o n aguarda pela conex o com o seu par Esse par metro permite desabilitar essa funcionalidade ou aumentar o tempo de atualiza o do contador o que pode ser interessante em casos onde a console do servidor est conectada a um terminal serial com capacidade limitada de Jog O valor padr o desse par metro 1 que corresponde a 1 segundo O valor 0 desabilita completamente a atualiza o do contador disable ip verification Este par metro pr
38. ferece centenas de outros par metros que n o est o dispon veis no 47 Debconf mas podem ser alterados diretamente nos arquivos de configura o dispon veis no diret rio etc exim4 conf d A inicializa o e paraliza o do Exim ser controlada pelo Heartbeat abordado na Se o 4 2 5 deste cap tulo por isso necess rio impedir a inicializa o autom tica do servi o durante o boot do sistema conforme demonstrado na Figura 4 10 host1 update rc d f exim4 remove Figura 4 10 Impedindo a inicializa o do Exim no boot do sistema Para o correto funcionamento do cluster as configura es apresentadas nesta se o devem ser feitas nos dois n s 4 2 4 Instala o e configura o do DRBD At a data de conclus o deste trabalho a vers o do DRBD dispon vel no reposit rio do Debian est vel a 0 7 21 A instala o pode ser feita atrav s de um pacote pr compilado para a vers o do kernel em uso ou atrav s do c digo fonte utilizando o module assistant do Debian Optou se pela instala o atrav s do c digo fonte com o objetivo de otimizar o software para a arquitetura utilizada Isso pode trazer um aumento significativo de desempenho dependendo das caracter sticas do software que ser instalado 48 Para utilizar esse m todo de instala o necess rio que o c digo fonte do kernel do Linux e os arquivos de cabe alho para a arquitetura utilizada estejam dispon veis no sis
39. forever preferred_Ift forever host1 ip addr show dev eth1 2 ethl lt BROADCAST MULTICAST UP 10000 gt mtu 1500 qdisc pfifo_fast qlen 1000 link ether 52 54 00 12 34 55 brd ff ff ff fff ff inet 10 0 0 1 24 brd 10 0 0 255 scope global eth1 inet6 fe80 5054 ff fel2 3455 64 scope link valid_Ift forever preferred_Ift forever host1 ip route show 10 0 0 0 24 dev eth1 proto kernel scope link src 10 0 0 1 192 168 0 0 24 dev eth0 proto kernel scope link src 192 168 0 50 default via 192 168 0 1 dev eth0 Figura 4 3 Interfaces de rede e tabela de roteamento do host1 host2 ip addr show dev eth0 3 eth0 lt BROADCAST MULTICAST UP 10000 gt mtu 1500 qdisc pfifo_fast qlen 1000 link ether 52 54 00 12 34 58 brd ff ff ff fff ff inet 192 168 0 51 24 brd 192 168 0 255 scope global eth0 inet6 fe80 5054 ff fel2 3458 64 scope link valid_Ift forever preferred_Ift forever host2 ip addr show dev eth1 2 ethl lt BROADCAST MULTICAST UP 10000 gt mtu 1500 qdisc pfifo_fast qlen 1000 link ether 52 54 00 12 34 57 brd ff ff ff ff f inet 10 0 0 2 24 brd 10 0 0 255 scope global eth1 inet6 fe80 5054 ff fel2 3457 64 scope link valid_Ift forever preferred_Ift forever host2 ip route show 10 0 0 0 24 dev ethl proto kernel scope link src 10 0 0 2 192 168 0 0 24 dev eth0 proto kernel scope link src 192 168 0 51 default via 192 168 0 1 dev ethO Figura 4 4 Interfaces de rede e tabela de roteamento do host2 41 importante destacar
40. host no modo prim rio necess rio confirmar se todos os recursos ser o transferidos para o host e o servi o SMTP estar dispon vel ap s falha do hostl Para simular essa situa o o host foi desligado A Figura 5 6 ilustra o cluster degradado ap s desligamento do host 67 host1 nc 192 168 0 53 25 220 hostl drbd ESMTP Exim 4 63 Sun 16 Mar 2008 11 46 12 0300 helo teste 250 host drbd Hello root at teste 192 168 0 53 mail from lt teste Dhost gt 250 OK rcpt to lt mickey mouse gt 250 Accepted data 354 Enter message ending with on a line by itself Mensagem de teste 250 OK id 1Jau8T 00013h VO quit 221 hostl drbd closing connection host1 Is l var spool exim4 input FW r 1 Debian exim Debian exim 861 2008 03 16 11 47 1JauST 00013h VO D FW r 1 Debian exim Debian exim 677 2008 03 16 11 47 IJau8T 00013h VO H Figura 5 5 Exim recebimento de mensagem no modo queue_only Clientes Indispon vel Prim rio Figura 5 6 Cluster degradado 68 Atrav s do arquivo de log do Heartbeat exibido na Figura 5 7 poss vel observar que a falha foi detectada e os recursos foram transferidos para o host2 heartbeat 2116 2008 03 16 14 49 38 WARN node hostl is dead heartbeat 2116 2008 03 16 14 49 38 INFO Cancelling pending standby operation heartbeat 2 116 2008 03 16 14 49 38 INFO Dead node hostl gave up resources heartbeat 2 116 2008 03 16 14 49 38 INFO Link host1
41. ications drbd paper for NLUUG 2001 pdf Arquivo capturado em 23 de fevereiro de 2008 SILBERSCHATZ A GALVIN P B CAGNE G Sistemas Operacionais com Java Tradu o da Sexta Edi o Editora Campus 2004 SIM ES E I TORRES G M Alta Disponibilidade em Servidores 2003 51f Disserta o Bacharel em Engenharia da Computa o Escola de Engenharia El trica e de Computa o Universidade Federal de Goi s Goi nia TAURION C on line Dispon vel na internet via www url http www timaster com br revista artigos main_artigo asp codigo 530 amp pag 2 Arquivo capturado em 16 de maio de 2007 75
42. ionada acima Se um n com o inconsistent flag ativado estiver presente ent o o outro n possui os dados mais atualizados Se o human intervention counters for diferente entre os n s aquele que tiver o maior valor possui os dados mais atualizados O connected count ser utilizado somente se o human intervention possuir o mesmo valor em todos os n s do cluster Se o connected count possuir o mesmo valor em todos os n s ent o o arbitrary count ser utilizado e assim por diante Para ajudar o leitor a entender melhor como os meta dados s o utilizados pelo DRBD ser o apresentados alguns exemplos que simulam diversas situa es e as decis es que s o tomadas em cada um dos casos Em cada tabela de exemplo a primeira coluna apresenta o generation counter do hostl a segunda coluna o generation counter do host e a terceira coluna descreve a situa o Os n meros separados por v rgula e envoltos entre o caractere lt e o caractere gt significam o valor do human intervention count do connected count do arbitrary count e do primary indicator nesta ordem O caracteres que precedem os valores do generation counter indicam o estado do host no cluster onde P indica o host prim rio S indica o host secund rio indica que o host est inativo e indica que o host possui estado indefinido no cluster 28 Exemplol A tabela 4 2 apresenta a situa o onde o Host o principal n do clust
43. liza o dos dois n s Inicialmente o host assume a posi o de prim rio pois foi especificado como n preferencial na configura o do Heartbeat O endere o IP 192 168 0 53 atribu do a interface eth0 0 do host o dispositivo de bloco do DRBD montado em exim os links simb licos que direcionam os diret rios de configura o e spool do Exim para a parti o espelhada s o criados e o servi o SMTP inicializado Clientes ttySO ethl Prim rio Secund rio Figura 5 1 Cluster operando com o hostl no estado prim rio 65 A Figura 5 2 demonstra o conte do do arquivo proc drbd nos dois n s confirmando o estado prim rio do host1 o estado secund rio do host e a consist ncia dos dados replicados conforme esperado host1 cat proc drbd version 0 7 21 api 79 proto 74 SVN Revision 2326 build by root host1 2008 02 21 20 22 14 0 cs Connected st Primary Secondary Id Consistent ns 56 nr 0 dw 12 dr 192 al 0 bm 2 lo 0 pe 0 ua 0 ap 0 host2 cat proc drbd version 0 7 21 api 79 proto 74 SVN Revision 2326 build by root hostl 2008 02 21 20 22 14 0 cs Connected st Secondary Primary Id Consistent ns 0 nr 56 dw 56 dr 0 al 0 bm 2 lo 0 pe 0 ua 0 ap 0 Figura 5 2 Host1 prim rio conte do do proc drbd nos dois n s A Figura 5 3 demonstra o resultado da listagem das parti es montadas em ambos os n s comprovando que o dispositivo dev drbd0 foi montado corretamente
44. lu da a opera o de espelhamento somente quando receber a confirma o que o n secund rio recebeu e gravou em disco o bloco de dados enviado Este o modo que requer um maior n mero de opera es para concluir a tarefa e tamb m o de menor desempenho no entanto o protocolo que oferece o n vel mais alto de confiabilidade em todo o processo de espelhamento Na eventualidade de ter que decidir qual n do cluster possui a c pia mais atual dos dados o DRBD precisa manter uma rea denominada de meta dados Essa rea deve ser armazenada em um espa o n o vol til em cada n do cluster e pode ser interna ou seja no mesmo dispositivo onde s o gravados os dados de produ o ou externa armazenada em uma parti o dedicada At a vers o 7 o DRBD exige 128MB para a rea de meta dados independente do tamanho do dispositivo de blocos que estiver em uso A partir da vers o 8 houve uma otimiza o do algoritmo permitindo definir o tamanho da rea de meta dados de acordo com o tamanho do dispositivo de bloco gerenciado pelo DRBD conforme a tabela 4 1 Tabela 4 1 Tamanho da rea de meta dados do DRBD Fonte ELLENBERG 2003 Tamanho do dispositivo de Tamanho da rea de meta bloco dados 1 GB 2 MB 100 GB 5 MB 1 TB 33 MB 4 TB 128 MB 26 Segundo REISNER 2001 os meta dados s o constitu dos pelo inconsistent flag e o generation counter O primeiro indica se o n alvo de um pr
45. m outros colaboradores na Red Hat O sistema de arquivos escolhido para utiliza o no cluster foi o JFS pois al m de possuir bom desempenho e baixo consumo de processador o mais r pido no processo de montagem segundo testes realizados 4 2 2 Configura o de rede As m quinas que ir o compor o cluster possuem duas interfaces de rede cada A primeira interface ser conectada na rede 192 168 0 0 24 e por onde a aplica o responder A segunda interface ser dedicada para o DRBD fazer a replica o dos dados e ser conectada ponto a ponto interligando os dois n s do cluster atrav s de um cabo crossover A tabela 4 8 demonstra a configura o de rede em cada um dos n s do cluster Tabela 4 8 Configura o de rede dos n s HOSTNAME IP ETHO IP ETH1 GATEWAY host1 192 168 0 50 24 10 0 0 1 24 192 168 0 1 host2 192 168 0 51 24 10 0 0 2 24 192 168 0 1 13 http www redhat com 14 Os testes podem ser conferidos em http www debian administration org articles 388 40 As Figuras 4 2 2 1 e 4 2 2 2 apresentam os endere os atribu dos s interfaces de rede e a tabela de roteamento do host e do host2 host1 ip addr show dev eth0 3 eth0 lt BROADCAST MULTICAST UP 10000 gt mtu 1500 qdisc pfifo fast qlen 1000 link ether 52 54 00 12 34 56 brd ff ff ff ff ff inet 192 168 0 50 24 brd 192 168 0 255 scope global eth0 inet6 fe80 5054 ff fel2 3456 64 scope link valid_Ift
46. mpreende se que a redund ncia de recursos um pr requisito para alcan ar alta disponibilidade em um sistema computacional portanto a aus ncia de redund ncia acarretar em pontos nicos de falha SPOF Segundo Marcus e Stern apud PEREIRA FILHO 2004 muitos projetos de alta disponibilidade s o ineficientes porque n o contemplam a conting ncia de todos os recursos necess rios para disponibilidade do sistema como equipamentos de rede e energia el trica por exemplo permitindo dessa forma a presen a de SPOF no ambiente A Figura 2 3 ilustra um modelo de cluster de alta disponibilidade 11 utilizando um sistema de armazenamento de dados compartilhado conectado ao cluster via conex es redundantes de fibra ptica Application Application Server B Server A Heartbeat Private Boot Drive Boot Data A Drive Data B x Shared FC Disc System Both servers have redundant connections to disk system s but MSCS controls access One server talks to the disks at a time Figura 2 3 Modelo de cluster de alta de disponibilidade Fonte Dell 2008 Conforme informado anteriormente o objetivo deste trabalho criar um cluster de alta disponibilidade para executar uma aplica o SMTP Uma solu o poss vel para alcan ar esse objetivo baseada em quatro elementos o sistema operacional GNU Linux um sistema de arquivos robusto um software para espelhamento de dados
47. n o programada de um servidor pode resultar em preju zos financeiros perda de novos neg cios ou at manchar a imagem da empresa que por sua vez precisa utilizar todos os artif cios dispon veis com o prop sito de evitar esse acontecimento ou pelo menos contornar a situa o a curto prazo A redund ncia de recursos uma das maneiras mais adequadas para sanar o problema da indisponibilidade no entanto pode se tornar invi vel devido ao custo elevado como adquirir e manter uma solu o propriet ria de cluster por exemplo Neste trabalho foi realizado um estudo sobre as alternativas existentes para resolver o problema do fornecimento com alta disponibilidade do servi o SMTP em uma empresa O requisito inicial foi a utiliza o de software livre O maior desafio foi encontrar uma solu o que al m da redund ncia de hardware e software tamb m proporcione a redund ncia dos dados pois um sistema de armazenamento compartilhado tornaria se um ponto nico de falha algo indesejado em uma solu o de alta disponibilidade O objetivo foi alcan ado com a utiliza o do sistema operacional GNU Linux o servidor SMTP Exim e o software DRBD e Heartbeat para o espelhamento de dados em m quina remotas e monitora o dos n s do cluster respectivamente Foram utilizados dois servidores com duas interfaces de rede 72 cada A primeira interface utilizada para as requisi es ao servi o SMTP A segunda interface int
48. ning OK mach down 2982 2008 03 16 14 50 01 INFO mach down takeover complete for node hostl heartbeat 2116 2008 03 16 14 50 01 INFO mach down takeover complete Figura 5 7 Arquivo var log ha log do host2 A Figura 5 8 confirma que ap s o desligamento do host todas as a es tomadas pelo Heartbeat no host foram bem sucedidas e o servi o SMTP continua dispon vel Dando continuidade aos testes o host foi religado e observou se que o host manteve o estado prim rio no cluster enquanto o host assume o estado secund rio Este o comportamento esperado pois o Heartbeat foi configurado 69 para n o executar o procedimento de failback autom tico A Figura 5 9 ilustra o funcionamento do cluster com os dois n s ativos e o host no estado prim rio O ltimo teste realizado foi o desligamento do host Neste caso observou se o comportamento esperado ou seja o Heartbeat detectou a falha e transferiu todos os recursos para o hostil que estava operando no estado secund rio at ent o e a partir desse momento tornou se o n prim rio no cluster host2 cat proc drbd version 0 7 21 api 79 proto 74 SVN Revision 2326 build by root host1 2008 02 21 20 22 14 0 cs WF Connection st Primary Unknown Id Consistent ns 0 nr 112 dw 124 dr 152 al 0 bm 2 lo 0 pe 0 ua 0 ap 0 host2 ip addr show eth0 3 eth0 lt BROADCAST MULTICAST UP 10000 gt mtu 1500 qdisc pfifo fast qlen 1000 link ether 52 54 00 12 34 5
49. no n prim rio e est pronto para receber dados e replic los para o dispositivo remoto host1 grep i exim proc mounts dev drbd0 exim jfs rw 0 0 host2 grep i exim proc mounts Figura 5 3 Host1 prim rio listagem das parti es montadas nos dois n s 66 A Figura 5 4 demonstra que todos os links simb licos que direcionam a configura o e o spool do Exim foram criados pelo DRBDLinks e que a aplica o est rodando somente no n prim rio conforme esperado host1 Is l etc exim4 etc default exim4 var spool exim4 Irwxrwxrwx 1 root root 23 2008 03 16 10 52 etc default exim4 gt exim etc default exim4 Irwxrwxrwx 1 root root 15 2008 03 16 10 52 etc exim4 gt exim etc exim4 Irwxrwxrwx 1 root root 21 2008 03 16 10 52 var spool exim4 gt exim var spool exim4 host1 etc exim4 ne 192 168 0 53 25 220 hostl drbd ESMTP Exim 4 63 Sun 16 Mar 2008 11 08 57 0300 Figura 5 4 Host1 prim rio links simb licos e execu o da aplica o Para efeito de teste o Exim foi configurado para trabalhar no modo queue only ou seja para n o fazer o roteamento imediato das mensagens recebidas deixando as armazenadas no spool Dessa forma ser poss vel comprovar a replica o dos dados entre os n s do cluster A Figura 5 5 demonstra o recebimento de uma mensagem pelo Exim e em seguida a disponibilidade dessa mensagem no spool Ap s confirmar o correto funcionamento do cluster com os dois n s ativos e o
50. nte de alta disponibilidade Al m disso se a falha no n prim rio ocorreu quando dados estavam sendo gravados no disco o fsck n o conseguir completar a grava o resultando em perda de dados Sistemas de arquivos com a tecnologia journaling possuem a capacidade de acompanhar as atualiza es de dados que s o feitas no sistema de arquivos antes que realmente sejam feitas As informa es que o journaling captura s o armazenadas em uma rea separada do sistema de arquivos denominada journal tamb m conhecida como registros de log Os registros de log s o escritos antes que as mudan as efetivamente ocorram no sistema de arquivos e esses registros somente s o eliminados quando as mudan as s o feitas Assim se o computador indevidamente desligado o processo de montagem na pr xima inicializa o verificar se h mudan as gravadas no journal marcadas como n o feitas Se houver tais mudan as ser o aplicadas no sistema de arquivos reduzindo o risco de perda de dados Existem v rios sistemas de arquivos dispon veis com a tecnologia journaling como o XFS desenvolvido originalmente pela Silicon Graphics e 12 http www sgi com 39 posteriormente disponibilizado com c digo aberto o ReiserFS desenvolvido especialmente para Linux o JFS desenvolvido originalmente pela IBM mas tamb m liberado com c digo aberto e o mais conhecido de todos o ext3 desenvolvido pelo Dr Stephen Tweedie juntamente co
51. o podem n o ser a melhor escolha pois tornam se um ponto de falha n o redundante al m de ser uma solu o de alto custo financeiro no caso da SAN Outros m todos de espelhamento de disco como o RAID explicado no Cap tulo 3 ou o rsync tornam se ineficientes em uma solu o de alta disponibilidade O RAID resolver o problema apenas quando houver falha de disco por m n o haver redund ncia para os demais itens de hardware o que pode gerar a indisponibilidade em caso de falha A sincroniza o remota de dados via rsync n o uma alternativa adequada para uma solu o de alta disponibilidade porque no caso de falha do n principal do cluster o secund rio assumir os servi os com perda dos dados alterados desde a ltima sincroniza o Este tipo de problema superado com o DRBD uma vez que os dados s o replicados entre os n s do cluster em tempo real O dispositivo de bloco http www drbd org http www gta ufrj br grad 04_1 san http nfs sourceforge net http nbd sourceforge net ARUN 22 disponibilizado pelo DRBD geralmente dev drbd0 dever estar presente em todos os n s do cluster dessa forma toda opera o local de escrita em disco ser espelhada no dispositivo de bloco remoto atrav s da rede Esta opera o pode ser vista como um RAI D 1 via TCP IP Atrav s da Figura 4 1 poss vel observar que o DRBD adicionado no processo de O antes do driver de disco efetivar o
52. o deve sempre ser montada utilizando o dispositivo de bloco dev drbd0 e nunca dev sdal Nas se es on host e on host tamb m foram configuradas as interfaces de rede exclusivas para a opera o de espelhamento No host ser utilizada a interface 10 0 0 1 e a porta 7788 e no host a interface 10 0 0 2 e a porta 7788 Estas interfaces est o conectadas diretamente atrav s de um cabo crossover o que reduz a possibilidade de falhas j que a comunica o n o depende de outros dispositivos de rede como hubs ou switches Em ambos os n s a rea de meta dados do DRBD ser interna ou seja na pr pria parti o onde ser o armazenados os dados da aplica o O par metro meta disk internal define essa configura o Essas foram as nicas configura es necess rias para o DRBD Os demais par metros dispon veis foram omitidos e portanto o valor padr o de cada 55 um ser utilizado o que atende a necessidade do cluster As mesmas configura es devem ser feitas nos dois n s inclusive recomendado que ap s a configura o de um n o arquivo drbd conf apresentado na Figura 4 15 seja copiado para o seu par Ap s a configura o o servi o do DRBD pode ser reiniciado nos dois n s que a princ pio estar o ambos em estado secund rio Isso acontece porque o sistema ainda n o tem condi es de saber qual deles deve ser o prim rio O comando drdbsetup ser utilizado para eleger o host como prim rio e de
53. ocesso de sincroniza o ativo ou seja se est recebendo blocos de dados do n prim rio naquele momento e portanto possui inconsist ncia J o generation counter se divide em quatro partes Vv Vv human intervention count um contador que aumenta quando o estado do cluster alterado por interven o humana Este contador possui a maior prioridade sobre todos os outros do generation counter connected count um contador que aumenta quando o estado do cluster muda e o n membro de um cluster DRBD ou quando o n secund rio for desconectado do cluster arbitrary count um contador que aumenta quando o estado do n alterado pelo software de gerenciamento do cluster por m aquele n n o faz parte de cluster em execu o primary indicator 1 indica o n prim rio em um cluster DRBD enquanto 0 indica o n secund rio Segundo REISNER 2001 quando existe comunica o entre os n s do cluster 0 generation count do n prim rio sobrep e o generation count do n 27 secund rio com exce o do primary indicator Durante a inicializa o do cluster necess rio que cada n procure e se comunique com o seu par Se isso n o for poss vel ele deve esperar at que a comunica o seja restabelecida ou deve se tornar o n ativo atrav s de interven o humana Para identificar o n que possui os dados mais atualizados os componentes dos meta dados s o analisados na ordem menc
54. oibe que o DRBD fa a uso do comando ip ou ifconfig para verifica es no endere o IP protocol tipo Define o protocolo que ser utilizado pelo DRBD Os tipos dispon veis s o A Be C cujas caracter sticas foram abordadas na Se o 4 1 3 do Cap tulo 4 incon degr cmd comando Se um n iniciado em modo degradado ou seja como membro de um cluster que est operando com apenas um n e o DRBD identifica que esse n possui inconsist ncia nos dados o comando especificado nesse par metro ser executado device nome Define o nome do dispositivo de bloco que ser utilizado por um resource do DRBD Por exemplo dev drbdo disk nome Define o nome do dispositivo de bloco que ser utilizado por um resource para armazenamento de dados Deve ser uma parti o do disco dedicada para replica o do DRBD Por exemplo dev hdal address endere o porta Cada resource do DRBD precisa de um endere o IP e uma porta TCP exclusiva para ser utilizada na comunica o com o seu par Dois resources diferentes n o devem utilizar a mesma porta TCP em um mesmo n meta disk dispositivo internal Define se a rea de meta dados ser interna ou externa Para definir uma rea interna o valor internal deve ser utilizado e para definir uma rea externa deve ser informado o dispositivo de bloco exclusivo que ser utilizado Por exemplo dev hda6 52 on io error a o Este par met
55. os Ser o discutidos os componentes que integram o cluster incluindo o hardware e o sistema operacional utilizado assim como o software escolhido para manuten o e gerenciamento do cluster Tamb m ser apresentado o Exim que uma aplica o de SMTP que ser executada sobre o cluster e os aspectos t cnicos da solu o incluindo todo o processo de instala o e configura o desde o sistema operacional passando pelo software de cluster at a aplica o O Cap tulo 4 tamb m apresentar os testes realizados para valida o da solu o de cluster O Cap tulo 5 apresenta conclus es e trabalhos futuros que podem ser desenvolvidos a partir dos conceitos abordados nesta pesquisa 2 CLUSTERS Este cap tulo aborda a defini o de cluster suas vantagens e desvantagens quando surgiram e como podem se classificados 2 1 DEFINI O DE CLUSTER De origem inglesa a palavra cluster significa um conjunto ou grupo de coisas similares Em computa o o termo cluster utilizado para definir um grupo de dois ou mais computadores interligados cujo objetivo obter disponibilidade desempenho ou aumentar de forma geral a capacidade de um sistema JUNIOR E FREITAS 2005 Segundo FERREIRA 2003 clusters s o definidos como grupos de computadores configurados para trabalhar em conjunto com aplica es espec ficas e o modo como s o configurados d a impress o de serem um nico computador Para alcan a
56. os n s e cont m a configura o dos recursos que ser o transferidos de um n para o outro quando falhas s o encontradas O arquivo possui o seguinte formato 61 nome do no recursol recurso2 recurso3 recursoN O primeiro par metro n o precisa necessariamente ser o nome do n onde a configura o est sendo feita mas sim o nome do n preferencial para executar a aplica o Esta informa o ser utilizada pelo Heartbeat quando a diretiva auto failback on for definida Os recursos s o scripts utilizados pelo Heartbeat quando s o encontradas falhas em um n do cluster host IPaddr 192 168 0 53 24 eth0 drbddisk exim Filesystem dev drbdO exim jfs drbdlinks exim4 Figura 4 19 Conte do do arquivo etc ha d haresources O Heartbeat busca os scripts no diret rio etc ha d resources e etc init d Por padr o esses scripts devem aceitar como par metro os valores start utilizado para iniciar recursos em um processo de failover e stop utilizado para finalizar recursos em um processo de failback Outros par metros podem ser passados para os scripts utilizando o separador A tabela 4 12 apresenta a descri o de cada recurso utilizado no arquivo etc ha d haresources Tabela 4 12 Descri o dos recursos definidos no arquivo etc ha d haresources RECURSO DESCRI O IPaddr Este script criado durante a instala o do Heartbeat e utilizado para configurar o endere o IP vi
57. possui 3 protocolos de opera o que podem ser utilizados de acordo com a necessidade de implementa o S o eles Protocolo A Protocolo B e Protocolo C O usu rio deve especificar o tipo de protocolo que deseja utilizar atrav s do arquivo de configura o do DRBD abordado na se o 4 2 4 deste cap tulo 24 e Protocolo A Utiliza um modo de opera o ass ncrono ou seja o DRBD assume como conclu da a opera o de espelhamento assim que os dados s o gravados localmente e enviados para a rede Neste caso n o existe a garantia de que os dados chegaram e foram gravados no n secund rio Esta pode n o ser a melhor configura o dependendo do servi o disponibilizado pelo cluster por m com certeza a melhor op o quando o quesito desempenho o mais importante e Protocolo B Utiliza um modo de opera o semi s ncrono ou seja o DRBD assume como conclu da a opera o de espelhamento somente quando receber a confirma o que o n secund rio do cluster recebeu o bloco de dados no entanto n o existe a confirma o de que esses dados foram gravados no disco Neste caso importante destacar que o Protocolo B oferece mais seguran a do que o Protocolo A no entanto ainda existe um risco residual que pode n o ser desejado dependendo da import ncia dos dados manipulados e do tipo de aplica o utilizada e Protocolo Utiliza um modo de opera o s ncrono ou seja o DRBD assume como 25 conc
58. que a aplica o responder no endere o 192 168 0 53 24 que o JP virtual do cluster e ser configurado pelo Heartbeat na interface eth0 0 do n que estiver em estado prim rio Os detalhes dessa configura o ser o abordados na se o 4 2 5 desse cap tulo 4 2 3 Instala o e configura o do Exim O Exim o MTA padr o do Debian e portanto est incluso no pacote de instala o b sico do sistema dispensando a necessidade de instala o manual Ap s a instala o do Debian o Exim pode ser configurado utilizando o Debconf uma ferramenta para gerenciamento da configura o do sistema A Figura 4 5 demonstra o comando utilizado para configurar o pacote do Exim host1 dpkg reconfigure exim4 config Figura 4 5 Comando para configura o do Exim via Debconf 42 Terminal Figura 4 6 Configura o do Exim Tipo de configura o A primeira decis o que precisa ser tomada para configurar o MTA o tipo de servidor que ser instalado O Exim oferece quatro op es conforme demonstrado na Figura 4 6 e descrito a seguir e Mensagens enviadas e recebidas diretamente via SMTP Neste tipo de configura o necess rio um P v lido pois o roteamento de mensagens ser feito diretamente via internet Ser preciso configurar os dom nios para o qual o sistema receber mensagens e o endere o das m quinas para o qual far relay 43 e Mensagens enviadas por smarthost recebidas por SMTP ou fetchm
59. r este objetivo os membros do cluster geralmente denominados de n s ou nodos precisam se comunicar entre si para controlar todas as tarefas que devem ser executadas PEREIRA FILHO 2004 Do ponto de vista do usu rio o cluster um sistema nico independentemente da quantidade de n s que o comp e Todos os aspectos relativos a distribui o de carga dados troca de mensagens sincroniza o e organiza o f sica devem ser transparentes e abstra dos do usu rio Dentre as vantagens oferecidas pelo cluster segundo JUNIOR E FREITAS 2005 destacam se e Alto desempenho Possibilidade de resolver problemas complexos atrav s de processamento paralelo diminuindo assim o tempo gasto para execu o das tarefas e Escalabilidade Conforme aumenta a carga de trabalho poss vel aumentar tamb m o poder de processamento atrav s da adi o de novos componentes ao cluster e Toler ncia a falhas Permite a continuidade do servi o em caso de falhas aumentando dessa forma a confiabilidade do sistema Os clusters podem ser aplicados em diferentes situa es ou cen rios e geralmente s o utilizados nos casos onde desejado manter a alta disponibilidade de servi os cr ticos como p ginas web e mail etc Tamb m utiliza se clusters para obter alto desempenho em aplica es que requeiram grande poder de processamento A Se o 2 2 detalha os diferentes tipos de cluster e onde s o geralmente utilizados
60. ras Lavras DELL Understanding Storage Concepts on line Dispon vel na Internet via www url http support dell com Arquivo capturado em 15 de janeiro de 2008 ELLENBERG L Data Redundancy By DRBD 2003 on line Dispon vel na Internet via www url http Awww drbd org drbd article html Arquivo capturado em 25 de fevereiro de 2008 ELLENBERS L Shared Disk semantics on a Shared Nothing Cluster 2007 on line Dispon vel na Internet via WWW url http www drbd org fileadmin drbd publications drbd8 linux conf eu 2007 pdf Arquivo capturado em 23 de fevereiro de 2008 FERREIRA R E Linux Guia do Administrador de Sistemas S o Paulo Novatec 2003 510p GARTNER F C Fundamentals of fault tolerant distributed computing in asynchronous environments on line Disponivel na Internet via www url http portal acm org Arquivo capturado em 24 de junho de 2007 JUNIOR E P F FREITAS R B Construindo Supercomputadores com Linux Cluster Beowulf 2005 104f Monografia Tecn logo em Redes de Comunica o Departamento de Telecomunica es CEFET Goi nia 74 PEREIRA FILHO N A Servi os de Pertin ncia Para Clusters de Alta Disponibilidade 2004 270f Disserta o Mestrado em Ci ncia da Computa o Instituto de Matem tica e Estat stica Universidade de S o Paulo S o Paulo REISNER P DRBD 2001 on line Dispon vel na Internet via www url http Awww drbd org fileadmin drbd publ
61. ro define a a o que ser tomada pelo DRBD se o dispositivo de armazenamento reportar erro de 1 0 As op es dispon veis s o pass on Reporta o erro para o sistema de arquivos montado se o erro acontecer no n prim rio e ignora o problema se o erro acontecer no n secund rio panic O n abandona o cluster reportando um kernel panic detach O n desconecta o dispositivo e continua a opera o no modo disk less sndbuf size tamanho Define o tamanho do buffer de envio para o socket TCP O padr o 128K timeout tempo Define o tempo que o n aguardar por uma resposta esperada do seu par antes de consider lo indispon vel Este valor deve ser inferior aos valores dos par metros connect int e ping int sendo o padr o igual a 60 que corresponde a 6 segundos connect int tempo Nos casos onde n o poss vel obter conex o com o dispositivo DRBD remoto o sistema continuar tentando se conectar por um per odo de tempo indeterminado Esse par metro define o intervalo de tempo entre duas tentativas e o valor padr o 10 que corresponde a 10 segundos ping int tempo Se a conex o TCP IP que estiver interligando um par de dispositivos DRBD estiver ociosa por um per odo de tempo maior do que o valor especificado nesse par metro ser gerado um pacote keep alive para verificar se o par ainda est ativo O valor padr o desse par metro 10 que corresponde a 10 segundos max
62. rtual do cluster Ele recebe como par metro o endere o IP m scara de rede e a interface que ser utilizada No caso aqui apresentado o endere o 192 168 0 53 com m scara de rede 255 255 255 0 ser configurado na interface eth0 0 quando o script for executado no modo start ou seja durante o processo de failover e exclu do quando o script executado no modo stop ou seja em um processo de failback 62 drbddisk Este script criado durante a instala o do DRBD e utilizado para alterar o estado do dispositivo de bloco espelhado E importante ressaltar que os dispositivos de bloco espelhados pelo DRBD s podem ser montados no n que estiver em estado prim rio No caso aqui apresentado o recurso exim do DRBD ser definido como prim rio durante o processo de failover ou secund rio durante o processo de failback Filesystem Este script criado durante a instala o do Heartbeat e respons vel pela montagem do dispositivo quer ser utilizado para armazenamento dos dos dados da aplica o Ele recebe como par metro o dispositivo de bloco o ponto de montagem e o tipo de sistema de arquivos utilizado O caso aqui apresentado tem o mesmo efeito do comando mount t jfs dev drbd0 exim drbdlinks Este script criado durante a instala o do DRBDLinks e ser utilizado pelo Heartbeat para cria o dos links simb licos da aplica o abordado na Se o 4 2 4 deste cap tulo exim4 E
63. sco do Host se recupera da falha por m a ordem do operador aceita P lt 1 0 0 1 gt S lt 1 0 0 0 gt O Hosti torna se o prim rio ExemploS Neste ltimo exemplo demonstrado o comportamento do DRBD numa situa o onde ocorre falha de rede 30 Tabela 4 6 Comportamento do DRBD Exemplo5 Fonte REISNER 2001 Host1 Host2 Situa o P lt 0 0 0 1 gt S lt 0 0 0 0 gt Os dois n s est o no ar e a rede est funcionando P lt 0 1 0 1 gt S lt 0 0 0 0 gt A rede para de funcionar O Host aumenta o connected count pois entende que o Host saiu do cluster P lt 0 1 0 1 gt P lt 0 0 1 1 gt O Heartbeat do Host o promove para prim rio e inicializa os servi os pois entende que o Host est indispon vel lt 0 1 0 1 gt lt 0 0 1 1 gt Ocorre interrup o de energia el trica 2 lt 0 1 0 1 gt lt 0 0 1 1 gt A energia e a rede s o restabelecidas P lt 0 2 0 1 gt S lt 0 2 0 0 gt O Host retoma a posi o de prim rio Al m da opera o normal onde os blocos de dados s o espelhados existem situa es onde necess rio sincronizar todo o conte do do disco espelhado O sincronismo foi projetado para n o afetar a opera o normal do n que estiver executando a aplica o do cluster e ocorre paralelamente ao espelhamento normal Para garantir que a aplica o do n ativo n o seja afetada pela sincroniza o apenas uma parte da banda de rede u
64. spa o em disco suficiente para cria o de uma parti o do mesmo tamanho em cada um deles Essa parti o ser utilizada para armazenar os dados da aplica o que ser o replicados pelo DRBD entre as m quinas Cada uma das m quinas utilizadas possui dois discos SCSI de 9GB No primeiro disco foi instalado o sistema operacional e no segundo foi criado uma nica parti o para armazenar os dados da aplica o A tabela 4 7 cont m o esquema de particionamento utilizado Tabela 4 7 Esquema de particionamento dos discos Parti o Tamanho MB Sistema de Ponto de arquivos montagem dev sdal 8448 JFS dev sda2 768 SWAP dev sdb1 9216 JFS A parti o dev sdb1 ser utilizada para o espelhamento e por isso n o possui ponto de montagem O dispositivo de bloco dev drbd0 que ser criado ap s a instala o do DRBD ser associado a parti o dev sdb e utilizado na 38 montagem do dispositivo Os detalhes desse procedimento ser o abordados na se o 4 2 4 deste cap tulo r E muito importante que seja utilizado um sistema de arquivos com tecnologia journaling caso contr rio ser necess rio verificar a consist ncia do sistema de arquivos com o fsck sempre que o n secund rio assumir os servi os do cluster ap s falha do n prim rio O fsck consegue prover resultados satisfat rios mas a corre o de erros pode levar muito tempo o que inaceit vel em um ambie
65. ss vel necess ria a utiliza o de um sistema de arquivos exclusivo para cluster como o OCFS2 e o GFS por exemplo Como a abordagem deste trabalho cluster de alta disponibilidade a utiliza o do DRBD no modo Ativo Ativo n o ser discutida 4 1 4 Heartbeat O Heartbeat um software de c digo aberto escrito por Alan Robertson que tem a fun o de fazer o gerenciamento de clusters de alta disponibilidade Por gerenciamento entende se o monitoramento dos n s e tudo aquilo que deve ser feito para que o n secund rio assuma a aplica o do cluster quando houver indisponibilidade do n prim rio O Heartbeat deve ser instalado e configurado em todos os n s e o seu 6 http oss oracle com projects ocfs2 7 http www redhat com gfs 8 http Avww linux ha org heartbeat 33 funcionamento baseia se no envio de sinais por parte dos membros do cluster Com base nas respostas obtidas os membros conseguem determinar se os outros integrantes est o ou n o funcionando SIM ES e TORRES 2003 A comunica o pode ocorrer via placa de rede conex o serial ou ambas A Figura 4 2 ilustra o funcionamento do Heartbeat utilizando dois canais de comunica o entre os n s A comunica o redundante visa diminuir pontos de falha que poderiam gerar uma falsa identifica o de inatividade onde os dois n s ficariam em estado prim rio simultaneamente A comunica o ocorre via conex o serial e via interfac
66. ssa forma iniciar o espelhamento com o host2 A Figura 4 14 demonstra esse processo assim como o conte do do arquivo proc drbd antes e ap s a elei o do host host1 cat proc drbd version 0 7 21 api 79 proto 74 SVN Revision 2326 build by root host1 2008 02 21 20 22 14 0 cs Connected st Secondary Secondary Id Inconsistent ns 0 nr 0 dw 0 dr 0 al 0 bm 2 lo 0 pe 0 ua 0 ap 0 host1 drbdsetup dev drbd0 primary do what I say host1 cat proc drbd version 0 7 21 api 79 proto 74 SVN Revision 2326 build by root host1 2008 02 21 20 22 14 0 cs Connected st Primary Secondary Id Consistent ns 0 nr 0 dw 0 dr 0 al 0 bm 2 lo 0 pe 0 ua 0 ap 0 host2 cat proc drbd version 0 7 21 api 79 proto 74 SVN Revision 2326 build by root host1 2008 02 21 20 22 14 0 cs Connected st Secondary Primary Id Consistent ns 0 nr 0 dw 0 dr 0 al 0 bm 0 lo 0 pe 0 ua 0 ap 0 Figura 4 14 Promovendo o host1 para prim rio 56 resource exim protocol C incon degr cmd echo DRBD pri on incon degr wall sleep 60 halt f startup wfc timeout 60 degr wfc timeout 120 disk on io error detach syncer rate 10M on hostl device dev drbd0 disk dev sdb1 address 10 0 0 1 7788 meta disk internal f on host2 device dev drbd0 disk dev sdbl address 10 0 0 2 7788 meta disk internal Figura 4 15 Arquivo drbd conf do cluster O diret rio exim foi criado manualmente para ser utiliz
67. ste o script padr o de inicializa o do Exim dispon vel no diret rio etc init d O Heartbeat executar esse script para iniciar o servi o do Exim durante o processo de failover ou parar o servi o em um processo de failback O arquivo etc ha d authkeys cont m as diretivas que ser o utilizadas pelo Heartbeat para autentica o dos n s e por quest o de seguran a deve ser lido apenas pelo propriet rio do arquivo A tabela 4 13 apresenta a descri o de cada diretiva dispon vel e a Figura 4 20 o conte do do arquivo etc ha d authkeys utilizado no cluster Tabela 4 13 Diretivas de autentica o do Heartbeat DIRETIVA DESCRI O CRC Oferece seguran a apenas contra o corrompimento dos pacotes de dados o m todo que exige menor esfor o computacional no entanto recomendado apenas em ambientes seguros de rede SHA1 Utiliza criptografia com chave de 160 bits Oferece maior seguran a dentre as diretivas dispon veis e exige maior esfor o computacional MDS5 Utiliza criptografia com chave de 128 bits Oferece n vel m dio de seguran a dentre as diretivas dispon veis 63 auth 1 1 cre Figura 4 20 Conte do do arquivo etc ha d authkeys 64 5 VALIDA O DO CLUSTER Ap s a instala o e configura o de todo o conjunto de software apresentado neste cap tulo o cluster est pronto para ser inicializado A Figura 5 1 ilustra o funcionamento do cluster ap s inicia
68. stl recebe a sincroniza o do Host e o Host se torna o prim rio 29 Exemplo3 Este exemplo demonstra uma situa o onde ocorre falta de energia e o cluster reinicializado Tabela 4 4 Comportamento do DRBD Exemplo3 Fonte REISNER 2001 Hosti Host2 Situa o P lt 0 0 0 1 gt S lt 0 0 0 0 gt Os dois n s est o no ar lt 0 0 0 1 gt lt 0 0 0 0 gt Ocorre o interrompimento de energia el trica 2 lt 0 0 0 1 gt 2 lt 0 0 0 0 gt O cluster reinicializado P lt 0 1 0 1 gt S lt 0 1 0 0 gt O Hostl que estava em estado prim rio antes da interrup o de energia retorna em estado prim rio Exemplos Este exemplo demonstra o comportamento do DRBD e como os meta dados s o utilizados quando ocorre alguma interven o humana Tabela 4 5 Comportamento do DRBD Exemplo4 Fonte REISNER 2001 Host1 Host2 Situa o P lt 0 0 0 1 gt S lt 0 0 0 0 gt Os dois n s est o no ar lt 0 0 0 1 gt S lt 0 0 0 0 gt O cabo de energia do Host falha O Host n o altera o generation count lt 0 0 0 1 gt P lt 0 0 1 1 gt O Heartbeat promove o Host para prim rio lt 0 0 0 1 gt lt 0 0 1 1 gt Ocorre uma falha de disco no Host2 2 lt 0 0 0 1 gt lt 0 0 1 1 gt O cabo de energia do Host reparado e o operador decide que melhor inicializar o Host imediatamente P lt 1 0 0 1 gt lt 0 0 1 1 gt Misteriosamente o di
69. tbeat pode ser utilizado para a cria o de clusters capazes de executar praticamente qualquer tipo de aplica o que necessite de alta disponibilidade como por exemplo servidores HTTP SMTP 35 banco de dados DNS firewall etc Neste trabalho o cluster ser criado para um servi o de SMTP utilizando o Exim O Exim um agente para transporte de mensagens de correio eletr nico MTA similar ao Sendmail e o Postfix que instalado por padr o no Debian Desenvolvido na Universidade de Cambridge para uso em sistemas comuns ao Unix como o caso do GNU Linux o Exim licenciado sob a GPL e oferece uma extensa variedade de configura es que o tornam muito flex vel na tarefa de roteamento e checagem das mensagens assim como na integra o com software externo 9 http www sendmail org 10 http www postfix org 36 4 2 INSTALA O E CONFIGURA O DOS SERVI OS 4 2 1 Configura o do sistema operacional O Debian mant m tr s vers es distintas que podem ser utilizadas por qualquer pessoa e que est o divididas da seguinte forma est vel teste e inst vel A vers o est vel a distribui o que sempre conter a ltima vers o oficial do sistema Embora n o contenha as ltimas vers es de software que comp e a distribui o a vers o mais indicada para uso em produ o pois garante a maior estabilidade poss vel utilizando somente vers es maduras de software A vers o teste cont m
70. te pelo n ao qual a requisi o foi direcionada O objetivo neste caso dividir as requisi es e n o as sub tarefas nelas envolvidas SIM ES e TORRES 2003 Este modelo de cluster muito utilizado na internet para distribuir a carga de servidores de p ginas e e mail A Figura 2 2 ilustra o funcionamento de um cluster para balanceamento de carga Neste exemplo existe 1 n controlador denominado de balanceador que respons vel pelo recebimento das requisi es e pela distribui o delas entre os 5 n s que comp e o cluster Balanceador em opera o Figura 2 2 Modelo de cluster para balanceamento de carga 2 2 3 Alta disponibilidade Segundo FERREIRA 2003 alta disponibilidade uma t cnica que consiste na configura o de dois ou mais computadores para que eles passem a trabalhar em conjunto Dessa forma cada computador monitora os demais e em caso de falhas assume os servi os que ficaram indispon veis A esse tipo de cluster da se o nome de cluster de alta disponibilidade ou HA do ingl s High Availability sendo este modelo o foco desse trabalho Clusters de alta disponibilidade s o usados quando existe a necessidade de fornecer servi os que estejam sempre ou quase sempre dispon veis para receber requisi es Este n vel de servi o um fator dependente do cluster PEREIRA FILHO 2004 A disponibilidade pode ser classificada em tr s classes distintas FER
71. tema A Figura 4 11 demonstra como obter a vers o do kernel em uso e o processo de instala o do c digo fonte e dos arquivos de cabe alho do Linux host1 uname a Linux host1 2 6 18 4 686 1 SMP Mon Mar 26 17 17 36 UTC 2007 i686 GNU Linux host1 aptitude install linux source 2 6 18 host1 aptitude install linux headers 2 6 18 4 686 host1 tar jxf usr src linux source 2 6 18 tar bz2 C usr sre host1 In s usr src linux source 2 6 18 usr src linux Figura 4 11 Instala o do c digo fonte do kernel Ap s o procedimento demonstrado na Figura 4 11 o ambiente est pronto para proceder com a compila o do m dulo do DRBD O module assistant uma ferramenta disponibilizada pelo Debian para facilitar a cria o de m dulos externos ao kernel do Linux e ser utilizado para a compila o Adicionalmente necess rio instalar algumas ferramentas para controle e gerenciamento do DRBD como o drbdadm o drbdsetup e o drbddisk disponibilizados pelo pacote drbd0 7 utils e o drbdlinks para gerenciamento de links simb licos A Figura 4 12 demonstra o procedimento de instala o dos pacotes assim como a compila o e instala o do m dulo 49 host1 aptitude install module assistant host1 aptitude install drbd0 7 module source host1 aptitude install drbd0 7 utils host1 aptitude install drbdlinks host1 m a build drbd0 7 module host1 dpkg i usr src drbd0 7 module 2 6 18 4 686 0 7 21 4 2 6 18
72. tilizada neste processo A forma utilizada para atualizar completamente o disco de um n a c pia de todos os blocos do n prim rio para o secund rio Este m todo recebe o nome de sincroniza o total Se um n desconectado do cluster por um per odo curto de tempo ent o ser necess ria apenas a c pia dos blocos que foram atualizadas durante o per odo de indisponibilidade Este m todo recebe o nome de sincroniza o r pida incremental A decis o mais importante que o DRBD precisa tomar Quando necess ria a sincroniza o e se ela deve ser total ou incremental Para exemplificar ser o apresentados dois casos e a decis o tomada pelo DRBD sobre o tipo de sincroniza o que deve ser realizada em cada um deles 31 Caso 1 Falha no n secund rio REISNER 2001 Quando o n secund rio desconectado do cluster independente do que houver acontecido isto n o ser um problema para o DRBD Durante a indisponibilidade do n secund rio todos os blocos gravados no n prim rio ser o marcados para permitir a sincroniza o incremental quando o n secund rio estiver novamente dispon vel Se o n prim rio tamb m falhar durante a indisponibilidade do n secund rio ent o a tabela de marca o dos blocos pendentes ser perdida uma vez que esta reside na mem ria RAM Dessa forma da pr xima vez que os dois n s estiverem dispon veis ser necess rio efetuar a sincroniza o total
73. uito alto pode gerar um retardo indesej vel no processo de failover O valor adequado pode variar dependendo da carga do sistema Para chegar ao valor ideal desse par metro recomendado analisar o log por alguns dias e verificar se alertas heartbeat atrasado aparecem Se n o aparecerem o valor escolhido deve ser adequado caso contr rio ser necess rio ajustar o valor warntime Especifica qu o r pido um alerta heartbeat atrasado ser emitido antes do n ser considerado inativo O valor recomendado deve estar entre 1 4 e 4 o valor do deadtime initdead Especifica ap s quanto tempo a partir da inicializa o do Heartbeat um n poder ser declarado indispon vel Esse par metro interessante em sistemas onde o servi o do Heartbeat iniciado antes da comunica o entre os n s estar dispon vel O valor recomendado no m nimo duas vezes o valor do deadtime serial Especifica a interface serial por onde os heartbeats ser o enviados udpport Especifica a porta UDP para ser utilizada na comunica o entre os n s beast Especifica a interface de rede por onde os heartbeats serao enviados auto_failback Especifica se o processo de failback deve ser autom tico ou n o node Especifica os n s que fazem parte do cluster O valor desse par metro deve corresponder ao hostname do n O arquivo etc ha d haresources apresentado na Figura 4 19 deve ter vers es id nticas em todos
74. xim4 gt exim etc exim4 etc default exim4 gt exim default exim4 var spool exim4 gt exim var spool exim4 O script etc ha d resource d drbdlinks criado durante a instala o do DRBDLinks ser utilizado pelo Heartbeat para cria o dos apontamentos Quando executado com o par metro start o script renomeia os arquivos e diret rios existentes adicionando o texto drbdlinks ao nome original e em seguida cria os links definidos no arquivo etc drbdlinks conf Quando executado com o par metro stop o script faz o inverso ou seja exclui os links simb licos e renomeia os arquivos e diret rios para o seu nome original sem o texto drbdlinks A configura o do DRBDLinks deve ser feita nos dois n s do cluster 4 2 5 Instala o e configura o do Heartbeat At a data de conclus o deste trabalho a vers o do Heartbeat dispon vel no reposit rio do Debian est vel a 2 0 7 A Figura 4 17 demonstra o processo de instala o host1 aptitude install heartbeat 2 Figura 4 17 Instala o do Heartbeat 59 Durante a instala o do Heartbeat o diret rio etc ha d ser criado e o local onde os arquivos de configura o devem ser armazenados O diret rio etc ha d resources armazena os scripts utilizados para o gerenciamento do cluster como configura o de endere o IP montagem de sistemas de arquivos inicializa o de servi os etc O Heartbeat mant m tr s arquivos de configur

Download Pdf Manuals

image

Related Search

Related Contents

Sony VAIO VGN-CR42S/L  User Manual - University of Kent  LED DANCE FLOOR - golden star lighting  - University of Portsmouth  ColorBlast Powercore  Überblick über VoiceMail Pro  ティーチングボックス  User Manual  FINDEVA タービンバイブレータ Tシリーズ 取扱説明書  Quick User Guide  

Copyright © All rights reserved.
Failed to retrieve file