Home

4.3 O Projeto de Cluster

image

Contents

1. 151 Minist rio do Planejamento Guia livre refer ncia de migra o para soft ware livre do governo federal http www governoeletronico gov br Ul tima Visita em 11 09 2006 12 20 152 Minist rio do Planejamento Pol tica de utiliza o do labcluster http guialivre governoeletronico gov br labcluster politica pdf ltima Visita em 11 09 2006 12 20 153 A Downey Predicting queue times on space sharing parallel computers In Proceedings of 11th International Parallel Processing Symposium IPPS 97 April 1997 154 R Dragan The meaning of moore s law PC Magazine Online Online on Fe bruary 14 2003 http www pcmag com article2 0 4149 4092 00 asp 155 DRBD Drbd nttp www drbd org Ultima Visita em 20 04 2005 12 20 156 R Durbin S Eddy A Krogh and Graeme Mitchison Biological Sequence Analysis Probabilistic Models of Proteins and Nucleic Acids Cambridge Uni versity Press 1998 VERSAO 0 6 P GINA 403 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 157 Andrea C Dusseau David E Culler Klaus E Schauser and Richard P Mar tin Fast parallel sorting under logp Experience with the cm 5 EEE Tran sactions on Parallel and Distributed Systems 7 8 791 805 1996 158 C sar A F De Rose e Philippe O A Navaux Arquiteturas Paralelas Insti tuto de Inform tica da UFRGS s rie livros did ticos n mero 15 edition 159 Renato Silveira Eduardo Rodrigues Cerejo Fabric
2. Em multiprocessadores por sua vez cada nodo de processamento pode incor porar mem ria local mem ria cache e gerenciamento de mem ria A complexi dade do processador est associada granulosidade do algoritmo Arquiteturas de gr o elevado tem poucos processadores bastante poderosos um exemplo t pico a conhecida arquitetura do Cray X MP a qual atinge no m ximo quatro processadores por m extremamente poderosos Um exemplo de arquitetura de gr o m dio o multiprocessador Cedar que emprega oito clusters do Alliant FX 8 cada cluster com oito processadores Uma arquitetura de gr o fino utiliza um grande n mero de processadores pequenos Uma representante t pica desta ar quitetura a Conection Machine que atinge 64 536 pequenos processadores Modo de opera o refere se tanto ao controle de instru es como manipula o dos dados O modo tradicional de opera o comando por fluxo command flow assim chamado porque a seqti ncia de eventos controlada por comandos deri vados do fluxo de instru es Outro m todo disparar as opera es medida que os seus operandos tornam se dispon veis de acordo com o modelo comando por dados dataflow neste caso o controle determinado pela disponibilidade dos dados Outra alternativa de controle ainda o comando por demanda de mand flow no qual as computa es ocorrem somente se seus resultados s o soli citados por outras poss vel a combin
3. Figura 13 16 Sum rio do desempenho de Storage Affinity comparado com outras heuristicas que j est o armazenados no site Note que Storage Affinity utiliza t o somente as informa es sobre o tamanho e a localiza o dos arquivos de entrada importante dizer que tais informa es po dem estar dispon veis no instante do escalonamento sem dificuldade e perda de precis o Por exemplo as informa es relacionadas aos dados de entrada de uma tarefa podem ser obtidas atrav s de requisi es aos recursos de armazenamento de dados Mesmo que estes recursos n o sejam capazes de responder s requi si es sobre quais elementos de dados eles armazenam e qual o tamanho de cada elemento de dado uma implementa o alternativa da heur stica Storage Affinity poderia facilmente manter um hist rico das informa es sobre as transfer ncias efetuadas para cada tarefa e assim possuir tais informa es Al m de aproveitar a reutiliza o dos dados Storage Affinity tamb m trata a di ficuldade na obten o de informa es din micas sobre o Grid bem como infor ma es sobre o tempo de execu o das tarefas da aplica o Para resolver este problema Storage Affinity efetua replica o de tarefas Storage Affinity executa em duas fases Na primeira fase cada tarefa associada a um processador A ordem de escalonamento determinada atrav s do c lculo do valor da afinidade das tarefas Ap s determinar as afinidades a ta
4. Figura 7 1 Vis o do n vel conceitual de funcionamento do DRBD Trata se de um driver inter medi rio entre o block device virtual dev drbd o block device real local dev sh d e os block device s remotos Todas as transfer ncias s o efetuadas pelo protocolo TCP IP o que permite sua implementa o at mesmo em m quinas geograficamente afastadas Cada dispositivo envolvido tratados localmente como parti es tem um estado que pode ser prim rio ou secund rio O DRBD cria em todos os n s um v nculo VERSAO 0 6 P GINA 124 GUIA CLUSTER 7 2 3 DISTRIBUTED REPLICATED BLOCK DEVICE DRBD entre um dispositivo virtual dev drbdX e uma parti o local inacess vel di retamente Toda a escrita realizada no servidor prim rio que ir transferir os dados para o dispositivo de bloco do n vel mais baixo a parti o e propag los para os restantes servidores de estado secund rio O secund rio simplesmente escreve os dados no dispositivo de bloco do n vel mais baixo As leituras s o sempre realizadas localmente Se o servidor prim rio falhar o DRBD mudar o dispositivo secund rio para pri m rio e as transfer ncias passar o a ocorrer no sentido oposto Note se que o DRBD n o trabalha ao n vel do sistema de arquivos mas sim ao n vel de blocos do disco r gido Nos sistemas de arquivos que n o disponibilizam journaling de ver ser realizada ap s transi o prim rio
5. Semelhante s arquiteturas convencionais os multiprocessadores de mem ria compartilhada usualmente oferecem ambiente de programa o e sistema opera cional bastante semelhante aos das m quinas sequenciais o que facilita a ado o da arquitetura enquanto o software est sendo adequado para uma execu o efe tivamente paralela Facilidade de uso m ltiplo os processadores podem ser alocados individual mente ou em grupos para diferentes programas usu rios Maior compartilhamento dos recursos a mem ria comum facilita o comparti lhamento de estruturas de dados globais Por sua vez tamb m os recursos de entrada sa da e de mem ria virtual podem ser aproveitados por todos os n s processadores Mas tamb m tr s como problema da pouca escalabilidade a pol tica de acesso uniforme mem ria faz com que este tipo de arquitetura tenha como limite um n mero de processadores ao redor de 20 O constante aumento do poder compu tacional dos processadores e a consequente necessidade destes de maior banda passante com a mem ria contribui para potencializar este aspecto Esta arquite tura tamb m est sujeita ao custo de sincroniza o que afeta as arquiteturas de mem ria distribu da vide item 6 1 1 Por m como o n mero t pico de processa dores n o grande e as comunica es tem um desempenho elevado assim como a sincroniza o como um todo pode ser melhor administrada Arquiteturas S ncronas Matriciai
6. mente e 6 1 8 A tecnologia de Web Services recomendada como padr o de interoperabilidade da e PING e 6 1 9 Os Web Services dever o ser registrados e estar localizados em estruturas de diret rio compat veis com o padr o UDDI O protocolo de acesso a essa estrutura dever ser o HTTP e 6 1 10 O protocolo SOAP recomendado para comunica o entre os clientes e os Web Services e a especifica o do servi o dever utilizar a linguagem WSDL Na e PING Web Service est definido como Os Web Services s o aplica es de software identificadas por uma URI Uniform Resource Identifier cujas interfaces e liga es s o capazes de se rem definidas descritas e descobertas por artefatos baseados em XML Al m disso possuem suporte para integra o direta com outras aplica es de soft ware utilizando como padr o de interoperabilidade mensagens escritas em XML e encapsuladas em protocolos de aplica o padr o da Internet VERSAO 0 6 P GINA 13 GUIA CLUSTER 2 2 2 PADROES DE INTEROPERABILIDADE DE GOVERNO ELETRONICO A necessidade de integra o entre os diversos sistemas de informa o de go verno implementados em diferentes tecnologias s vezes de forma simulta nea e em tempo real implica na ado o de um padr o de interoperabilidade que garanta escalabilidade e facilidade de uso A tecnologia de Web Services adequada para atender tais necessidades al m de ser i
7. GUIA CLUSTER 6 7 4 MODELO OSI se ligam as sub redes 6 7 4 Modelo OSI OSI Open Systems Interconnection ou Interconex o de Sistemas Abertos um conjunto de padr es ISO relativo comunica o de dados Um sistema aberto um sistema que n o depende de uma arquitetura espec fica O modelo tem como prop sito facilitar o processo de padroniza o e obter inter conectividade entre m quinas de diferentes sistemas operativos a Organiza o Internacional de Padroniza o ISO International Organization for Standardi zation aprovou no in cio dos anos 80 um modelo de refer ncia para permitir a comunica o entre m quinas heterog neas denominado OSI Open Systems Interconnection Esse modelo serve de base para qualquer tipo de rede seja de curta m dia ou longa dist ncia 6 7 5 Protocolo IP IP um acr nimo para a express o inglesa Internet Protocol ou Protocolo de Internet que um protocolo usado entre duas m quinas em rede para encami nhamento dos dados Os dados numa rede IP s o enviados em blocos referidos como pacotes ou data gramas os termos s o basicamente sin nimos no IP sendo usados para os dados em diferentes locais nas camadas IP Em particular no IP nenhuma defini o necess ria antes do host tentar enviar pacotes para um host com o qual n o comunicou previamente O IP oferece um servi o de datagramas n o confi vel tamb m chamado de me lhor esfor o ou
8. a m quina virtual somente simula parcialmente o hardware para permitir que um Sistema Operacio nal sem modifica es funcione isoladamente no hardware mas o Sistema Operacional convidado deve ser projetado para o tipo de processador cen tral VMware Parallels Desktop Adeos Mac on Linux Xen e Paravirtualiza o a m quina virtual n o simula o hardware mas oferece preferencialmente um API especial que requer modifica es do kernel do Sistema Operacional hospede As chamadas de sistema ao hypervisor conhecida como paravirtualiza o no Xen e Virtualiza o no n vel do sistema operacional Virtualiza um servidor no n vel do sistema operacional permitindo o m ltiplos isolamentos de modo seguro aos servidores virtualizados em um nico servidor f sico Os am bientes dos Sistemas Operacionais hospedes s o os mesmos que o do Sis tema hospedeiro j que o mesmo kernel do hardware usado para executar os ambientes no hospedeiro Linux VServer Virtuozzo e OpenVZ Solaris Containers User Mode Linux e FreeBSD Jails A Virtualiza o de aplica o envolve o uso de uma aplica o desktop ou server localmente usando recursos locais sem ser instalado comparado com os sis 1O hardware propriamente dito ou seja o sistema base que ir receber os outros sistemas operacionais VERSAO 0 6 P GINA 348 GUIA CLUSTER 14 2 XEN XEN VIRTUAL MACHINE MONITOR temas de instala o e terminal services A apl
9. o Biologia estrutural Previ s o meteorol gica Modelagens de Informa o Outras aplica es s o poss veis para a nova arquitetura dentre elas a presta o de informa es ligadas aos servi os p blicos o acompanhamento das a es de governo e condu o dos neg cios p blicos por ex compras governamentais o acesso aos governantes e representantes eleitos s o exemplos das possibilidades do uso das tecnologias de informa o e comunica o pela m quina administra tiva p blica A tecnologia pode ainda ser largamente aplicada para aperfei oar a pr pria gest o do governo coordena o planejamento execu o e controle de a es contabilidade p blica etc e suas transa es comerciais com o setor pri vado Conjuntamente essas demandas e as Diretrizes de Governo Eletr nico de utiliza o da WEB para presta o da maior parte destes servi os servi os estes que tem uma grande demanda computacional com grande quantidade de acesso usu rios simult neos e alta demanda de processamento que acabam trazendo a tona as arquiteturas de cluster e grid computacional O setor governamental o principal indutor de a es estrat gicas rumo soci edade da informa o Primeiramente porque cabe ao governo definir o quadro regulat rio dentro do qual projetos e iniciativas concretas poder o ser formula das Segundo porque como regra o governo o maior comprador contratador de bens e servi os em tecno
10. o Finalmente devido exist ncia de canais de comu nica o mais lentos e compartilhados com outras aplica es talvez n o valha a pena utilizar todos os processadores dispon veis Figura 13 12 Jacobi executando em quatro processadores em um MPP A solu o oferecida por AppLes Jacobi se baseia em tr s elementos principais Primeiro o escalonamento em si simplificado pela decis o de utilizar um par ticionamento unidimensional Segundo o escalonador se utiliza do NWS 389 para obter previs es de curto prazo da disponibilidade de cada processador e da lat ncia e banda da comunica o entre quaisquer dois processadores Terceiro o escalonador disp e de um modelo de performance da aplica o que usado para avaliar suas decis es Este modelo o seguinte e T o tempo para o processador i executar uma itera o e A a rea da submatriz alocada ao processador i VERSAO 0 6 P GINA 313 GUIA CLUSTER 13 3 3 ESCALONAMENTO e P o tempo que o processador i leva para computar um elemento e C o tempo que o processador i leva para comunicar suas fronteiras Note que P e C s o estimados com base nos dados fornecidos pelo NWS O escalonamento propriamente dito come a ordenando os processadores por uma dist ncia espec fica da aplica o que cresce quadraticamente com a dife ren a de velocidade dos processadores e linearmente com a diferen a de suas capacidades de comunica o
11. o de solu es de mem rias de cache e globais que VERSAO 0 6 P GINA 89 GUIA CLUSTER 6 1 5 CCNUMA ser o vistos frente 6 1 5 ccNUMA Na arquitetura SMP n o temos uma boa escalabilidade pois como se utiliza nor malmente sistemas de interconex o na forma de barramento que torna o gargalo do sistema rapidamente Assim outras op es de interconex o podem ser utili zadas como a utiliza o de interconex o comutada que utilizada comutadores switches como elemento de liga o entre os processadores Tamb m existem outras solu es de interconex o que podem aumentar a largura de banda mas importante deixar claro que qualquer uma destas solu es agrega al m de um custo alt ssimo retardo de comunica es entre os processadores e a mem ria Na teoria uma arquitetura de Acesso N o Uniforme Mem ria Non Uniform Memory Access NUMA conhecida por sua capacidade de escalar at centenas de processadores M quinas NUMA preservam o modelo de programa o simples de configura es SMP mas com o acr scimo de tempo para acesso a mem ria global A implementa o pr tica de uma m quina NUMA conhecida como Acesso N o Uniforme Mem ria com Coer ncia de Cache Cache Coherence Non Uniform Memory Access cCNUMA pois estas j tratam v rios problemas de acesso mem ria desta arquitetura como as diferen as de velocidades de acesso a mem rias locais e globais implementando siste
12. o do programa em paralelo Para superar isto se faz necess ria uma s lida fundamenta o sem ntica sobre a qual as t cnicas de transforma o de c digo possam ser aplicadas A usual metodologia de testes e depura o utilizada na programa o sequencial se mostra invi vel para o desenvolvimento de software paralelo sobretudo pelos seguintes motivos e o particionamento e o mapeamento das tarefas os quais podem em alguns casos depender dos dados ampliam a um ponto tal a complexidade da an lise dos poss veis estados da computa o paralela que seu uso efetivo pra ticamente invi vel e a equipe de desenvolvimento teria acesso apenas a algumas das arquitetu ras paralelas nas quais o software poderia vir a ser executado Este aspecto fica refor ado pela heterogeneidade que as arquiteturas paralelas podem assumir bem como pelo constante surgimento de arquiteturas com novas tecnologias no mercado e a exist ncia nas arquiteturas paralelas de componentes que dificultam a reprodu o exata de execu es como por exemplo o n o determinismo ine rente maioria das redes de interconex o Como a comprova o do comportamento dos poss veis estados do software pa ralelo ap s seu desenvolvimento se mostra complexo demais para uso pr tico somente um processo que leve na dire o de um software correto por metodo logia de constru o colocar o desenvolvimento de software em um patamar de segura
13. o hardware id ntico 4 Sistemas diskless 5 A import ncia da rede de comunica es 6 Minimize mas n o sub dimensione seu hardware 7 Isole seu cluster 8 Use ferramentas de cluster 9 Supere o desejo do mais recente 10 Plano para expans o e reposi o desde o princ pio 11 Documente seu cluster 12 Seguran a 13 A aplica o 14 Banco de dados Estabele a metas realistas O primeiro passo na constru o de um cluster de alto desempenho realizar um planejamento visando o que se pretende e decidir quais as metas a serem atendi das tanto no curto como no longo prazo preciso selecionar o hardware apro priado e determinar de quais softwares precisar o seus usu rios Claramente estas decis es afetar o seu planejamento Por exemplo para c lculos intensivos em dados necess rio um subsistema de I O de grande capacidade e desempe nho mas em ambientes WEB a resposta dos servidores WEB pode ser a m trica e para banco de dados a quantidade de transa es suportadas N o aconselh vel iniciar o desenvolvimento da aplica o e nem do cluster an tes de conhecer seu problema Fa a um levantamento de seus sistemas e tenha pessoas que conhe am ambas as reas para participar do projeto do cluster VERSAO 0 6 P GINA 62 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO Em caso de aplica es existentes que se queira portar para este ambiente pes quise as possibilidades pois certamente o porte de a
14. o paralela tal situa o n o ocorre pequenas modifica es no programa ou a troca do hardware paralelo podem mudar com pletamente o comportamento do programa vide item 11 2 1 Segundo SKILLICORN 331 um modelo oferece medidas de custo se for poss vel determinar o custo de um programa em particular a partir de e c digo fonte do programa e propriedades m nimas da arquitetura paralela destino por exemplo o n mero de processadores e informa es a respeito do tamanho dos dados de entrada n o os seus va lores No texto SKILLICORN 331 tamb m caracterizada a import ncia de conside rar os aspectos de modularidade relativamente usual que o software de grande porte seja desenvolvido por m dulos e possivelmente cada m dulo por equipes diferentes Isto implica que a medida de custo precisa ter um comportamento composicional isto o custo total possa ser inferido a partir do custo das partes VERSAO 0 6 P GINA 257 GUIA CLUSTER 11 3 A EXPLORA O DO PARALELISMO N VEIS DE ABSTRA O E MODELOS Considerando as outras caracter sticas indispens veis para um modelo de pro grama o paralela por exemplo a necessidade de abstra o tratada no item 11 2 2 a medida de custo se torna uma caracter stica dif cil de ser atingida 11 3 A Explora o do Paralelismo N veis de Abstra o e Modelos O objetivo deste cap tulo caracterizar a potencialidade para explora o do pa
15. 112 113 114 115 116 117 118 119 120 121 122 H Casanova and L Marchal A network model for simulation of grid ap plication Research Report N 2002 40 October 2002 Henri Casanova Graziano Obertelli Francine Berman and Rich wolski The apples parameter sweep template User level middleware for the grid In Supercomputing Conference SC 2000 2000 A Chien B Calder S Elbert and K Bhatia Entropia architecture and per formance of an enterprise desktop grid system Journal of Parallel Distributed Computing 63 597 610 2003 W Cirne Grids computacionais Arquiteturas tecnologias e aplica es In Anais do Terceiro Workshop em Sistemas Computacionais de Alto Desempenho Vit ria Esp rito Santo Brasil October 2002 W Cirne and F Berman Using moldability to improve the performance of supercomputer jobs Parallel and Distributed Computing 62 10 1571 1601 2002 W Cirne F Brasileiro L Costa D Paranhos E Santos Neto N Andrade C De Rose T Ferreto M Mowbray R Scheer and J Jornada Scheduling in bag of task grids The pauA case In Proceedings of the 16th Symposium on Computer Architecture and High Performance Computing SBAC PAD 2004 October 2004 W Cirne and K Marzullo The computational coop Gathering clusters into a metacomputer In PPS SPDP 99 Symposium 1999 W Cirne and K Marzullo Open Grid A user centric approach for grid c
16. 246 7 3 1 Conceitos B sicos Nesta sess o encontram se alguns conceitos e servi os disponibilizados pelos sis temas de arquivos distribu dos e paralelos assim como algumas de suas caracte r sticas qualidades e solu es 192 349 que os pesquisadores e desenvolve dores da rea tentam prover Nomes e Localiza o A maioria dos arquivos armazenados em um sistema de arquivos possui um nome e um caminho que o identifica unicamente em tal sistema Um caminho re presenta um n de uma estrutura de diret rios que pode ser representada como uma rvore veja fig 7 4 Tal rvore possui somente uma raiz Cada n pode possuir rvores ou arquivos Dessa forma para localizar um arquivo em uma rvore de diret rios usados para agrupar arquivos basta seguir o caminho do arquivo e ao chegar no diret rio final procurar pelo nome de tal arquivo A forma como esse nome e esse caminho s o definidos depende muito do sistema operacional Por exemplo no Unix um VERSAO 0 6 P GINA 132 GUIA CLUSTER 7 3 1 CONCEITOS BASICOS Figura 7 4 Exemplo de uma rvore de diret rios caminho definido como uma sequ ncia de nomes de diret rios todos separados pelo caractere O ultimo nome dessa sequ ncia pode ser o nome do arquivo ou de um diret rio Em sistemas distribu dos poss vel encontrar o nome da m quina em que o arquivo se encontra dentro dessa defini o de caminho Por m procura s
17. Aspectos T cnicos GINA Capitulo 6 Conceitos Basicos 6 1 Arquiteturas Computacionais A Arquitetura de computadores pode ser definida como a estrutura e a organiza o dos hardwares e se refere ao funcionamento interno de um computador ou seja a organiza o interna de todos os perif ricos necess rios para a montagem de um sistema computacional As arquiteturas ser o caracterizadas a partir de componentes cuja nomenclatura apresentada na figura 6 1 Estes tamb m s o os tr s principais blocos b sicos das arquiteturas sequenciais M Mem ria Unidade de Controle D Processador Figura 6 1 Blocos b sicos dos computadores seq enciais VERSAO 0 6 P GINA 81 GUIA CLUSTER 6 1 1 A CLASSIFICA O DE FLYNN PARA ARQUITETURAS DE COMPUTADORES 6 1 1 A Classifica o de Flynn para Arquiteturas de Computado res A inclus o da proposta feita por Flynn taxonomia de Flynn em 1966 em pri meiro lugar um compromisso com a classifica o mais difundida para arquitetu ras de computadores A proposta se baseia nas combina es poss veis entre uma ou mais sequ ncias de instru es atuando sobre uma ou mais sequ ncias de dados Decorre da quatro classes de computadores e Segii ncia de Instru es uma Seqti ncia de Dados SISD Single Instruction stream over a Single Data stream corresponde aos computadores sequenciais convencionais nos quais s existe uma nica unidade de
18. Esta Licen a P blica Geral n o permite a incorpora o do seu programa a progra mas propriet rios Se seu programa uma biblioteca de sub rotinas voc poder considerar ser mais til permitir a liga o de aplica es propriet rias sua biblio teca Se isso o que voc deseja fazer utilize a Licen a P blica Geral de Biblioteca do GNU ao inv s desta Licen a VERSAO 0 6 P GINA 365 Ap ndice B Marcas Registradas Foram utilizadas marcas registradas neste Documento com o prop sito de iden tifica o A equipe de elabora o do Guia de Cluster reconhece a propriedade dessas marcas registradas conforme demonstrado na Tabela B Caso voc acredite que sua marca foi utilizada sem a devida refer ncia de propri edade por favor encaminhe uma mensagem para lt guialivre planejamento gov br gt para que a equipe de reda o possa regularizar a situa o nas pr ximas vers es do Documento Tabela de Refer ncia de Marcas Registradas Marcas Registradas Propriet rio AT amp T AT amp T Adobe Acrobat Acrobat Reader Pho toshop PageMaker Framemaker Adobe System Incorpored Amiga Amiga Inc Apple Macintosh Mac OS AplleTalk Apple Computer Inc BSD University of California Berkeley USA Citrix Citrix Systems Inc Chili Soft Chili Soft Inc Corel Draw WordPerfect Corel Corporation CrossOver Office CodeWeavers Inc Debian So
19. Por exemplo uma thread pode ficar bloqueada aguardando uma tupla que nunca ser inserida no espa o de tuplas Apesar de ser poss vel um desacoplamento entre emissor e receptor o algoritmo VERSAO 0 6 P GINA 269 GUIA CLUSTER 11 3 5 MODELOS COM ASSINALAMENTO DECOMPOSI O MAPEAMENTO E COMUNICA O EXPL CITOS introduz necessidades de sincroniza o que neste caso feita atrav s dos dados que s o inerentes natureza do algoritmo que est sendo computado Como a efici ncia da implementa o das abstra es de alto n vel utilizadas na constru o e ger ncia do espa o de tuplas comunica es dependente da rede de interconex o utilizada na arquitetura n o poss vel trabalhar com medidas de custo 11 3 5 Modelos com Assinalamento Decomposi o Mapea mento e Comunica o Expl citos Nestes modelos o programador tem a seu encargo especificar quase todos os de talhes da implementa o paralela exceto os aspectos pertinentes a sincroniza o Para oferecer isto via de regra estes modelos empregam uma sem ntica ass n crona na qual as mensagens s o enviadas por m o emissor n o fica atrelado ao tempo necess rio para que elas atinjam seu destino Exemplo de Explora o do Paralelismo O mais importante modelo nesta classe Atores Actors AGHA 47 Ele con siste de uma cole o de objetos chamados atores todos contendo uma pilha de mensagens de entrada Todo ator execut
20. Uma vez os processadores ordenados tenta se iterativamente uma solu o com os n primeiros processadores at que a solu o com n 1 processadores se mostre mais r pida ou at que n o haja mais proces sadores Naturalmente o tempo de uma itera o estimado como o maior T de todos os processadores Fixados n processadores a solu o de escalonamento obtida dividindo a matriz proporcionalmente a F Por exemplo suponha que o Grid tem quatro processadores Po Pa Pre P3 As suma ainda que Py e P tem o dobro da velocidade de P e P3 que P tem uma outra aplica o rodando e s poder dedicar 50 de seu poder computacional a aplica o que P est conectado a uma rede que vivencia intenso tr fego e que sua comunica o est ordens de grandeza mais lenta que entre os demais proces sadores Uma vez que P3 est se comunicando muito lentamente o AppLeS n o vai utiliz lo para esta execu o Note que esta decis o n o descarta a possibi lidade que P venha a ser usado em uma futura execu o da aplica o quando as condi es da rede forem diferentes Note tamb m que embora P seja duas vezes mais r pido que Pz uma vez que s 50 de P est dispon vel P e P s o id nticos para a aplica o pelo menos nesta execu o A Figura 13 13 mostra o resultado que o AppLesS Jacobi produziria neste cen rio Devemos salientar que um aspecto importante para o bom funcionamento do Ja cobi AppLeS o tem
21. bastante bvia Contudo ela levanta alguns problemas t cnicos n o triviais Suponha que duas institui es A e B decidem formar um Grid unificando seus recursos e fornecendo melhores servi os computacionais a seus usu rios Por m como incentivar dom nios administrativos a participarem do Grid com seus servi os e recursos Suponha que 4 tem mais que o dobro dos recursos de B Um compartilhamento igualit rio seria prejudicial a 4 que ent o relutaria em formar um Grid com B Por outro lado assuma que A n o pode fornecer acesso a seus recursos durante o expediente banc rio 10 00 as 16 00 Como se pode perceber o contrato entre Ae B para compartilhamento de recursos e constru o de um Grid comum pode ser algo bastante sofisticado Tal sofistica o gera uma pergunta bvia de como as regras de compartilhamento acordadas ser o implementadas e policiadas Se a cria o de um Grid entre duas institui es pode oferecer tal complexidade imagine a cria o de Grids envolvendo centenas ou milhares de entidades A abordagem que vem sendo sugerida para este problema a utiliza o de mode VERSAO 0 6 P GINA 292 GUIA CLUSTER 13 2 6 DISPONIBILIZA O DE SERVI OS los econ micos para guiar esse processo de cria o de Grids 98 118 A id ia b sica a constru o de um mercado computacional onde as diversas entidades envolvidas no Grid possam trocar recursos O aspecto mais atraente desta abor dagem que
22. cessador de consulta manter estat sticas precisas das rela es participantes ar mazenadas nos diferentes sites e das opera es de consulta relacionadas Tam b m como a carga de trabalho dos v rios servidores de processamento e da velo cidade de transmiss o dos links entre eles flutuam durante o tempo de processa mento dos trabalhos h a necessidade de mecanismos de consulta distribu dos que dinamicamente se adaptem a grandes ambientes distribu dos Controle de Concorr ncia O Controle de concorr ncia CC permite os usu rios acessar um banco de dados distribu do mantendo a impress o que est executando o sistema em um sistema dedicado Para isto s o requeridos mecanismos de CC que intercala a execu o de um con junto de transa es debaixo de certas regras de consist ncia enquanto maximiza a capacidade de execu o concorrente do sistema As duas principais categorias de mecanismos de CC s o Concorr ncia Otimizada Retardo da sincroniza o para as transa es at que as opera es sejam executadas de fato Conflitos s o menos prov veis mas n o ser o conhecidos at que eles aconte am enquanto tornando opera es de rollback mais caras Pessimista As execu es potencialmente con correntes de transa es s o sincronizadas no in cio do seus ciclos execu o Blo quear assim mais f cil mas ter de se conhecer mais cedo os problemas para diminuir os custos do rollbacks Proces
23. dimens o do hipercubo e N o n mero de processadores Em fun o disto todos os n s podem ser identificados por um n mero bin rio Cada n conectado a todos os seus vizinhos isto faz com que o hipercubo tenha grau vari vel e de valor D vide figura 6 8 Hipercubo 3D Figura 6 8 Topologia em hipercubo VERSAO 0 6 P GINA 107 GUIA CLUSTER 6 6 3 TOPOLOGIAS DA REDE DE INTERCONEXAO A topologia hiperc bica confere boas propriedades rede de interconex o a lar gura da bisse o N 2 e o di metro log N Apesar de apresentar bom desem penho para muitos padr es de comunica o sua efici ncia se mostra bastante dependente do algoritmo de roteamento a ser empregado Um aspecto inconveniente do hipercubo sua escalabilidade o n mero de pro cessadores sempre cresce em pot ncia de 2 Al m disso como o grau de cada n em fun o do tamanho do cubo toda expans o no n mero de processadores implica em adicionar mais um canal de comunica o a todos os n s Para cubos maiores estas caracter sticas podem trazer inconvenientes para a administra o do custo benef cio quando da expans o da arquitetura Um equipamento que emprega esta topologia o Ncube 2 Topologia em rvore A cl ssica rvore bin ria com processadores nas suas folhas tem se mostrado uma boa op o de topologia para arquiteturas paralelas O di metro de uma r vore completa 2logs N 1 2 bastante similar ao
24. e Seguran a Relacionada ao Pessoal e Seguran a F sica e Ambiental e Gerenciamento de Comunica es e Opera es e Controle de Acesso e Desenvolvimento e Manuten o de Sistemas que levanta itens como Requisitos de Seguran a nos Sistemas An lise e Especifica o dos Requisitos de Seguran a Seguran a em Sistemas Aplicativos Valida o dos Dados de Entrada Controle do Processamento Interno Seguran a de Arquivos do Sistema Controle de Software Operacional e Gerenciamento da Continuidade do Neg cio e Obedi ncia a Exig ncias A aplica o No projeto e desenvolvimento da aplica o devem estar detalhados todos os pro cessos e tecnologias que ser o utilizados uma aplica o bem projetada ter su cesso na sua execu o em um ambiente de cluster VERSAO 0 6 P GINA 69 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO Banco de dados Conhecer bem as demandas de acesso aos dados pelos sistemas que ser o execu tados no cluster permitir uma melhor escolha da arquitetura de banco de dados necess ria para suprir as exig ncias do sistema Mais informa es podem ser obtidas no cap tulo 9 VERSAO 0 6 P GINA 70 Capitulo 5 Processamento Paralelo Sua Difus o e Uso Um problema central em computa o paralela segundo SKILLICORN 330 o desencontro entre as necessidades do software paralelo e as propriedades das arquiteturas paralelas sobre as quais eles ser o executados Este dist
25. o gerando resultados n o confi veis Portanto seguran a um t pico que deve se considerado para o desenvolvi mento dos Grids Computacionais Nesta se o iremos abordar algumas quest es de seguran a que surgem ao se pensar em uma infraestrutura de computa o na escala de um Grid Computacional Prote o dos recursos Uma vez que o Grid formado por v rios dom nios administrativos distintos naturalmente poss vel que a execu o de uma aplica o seja iniciada de uma dominio X e utilize recursos dos dominios Y e Z Por m como saber se a apli ca o iniciada por um usu rio do dom nio X n o cont m c digo malicioso que podem prejudicar o funcionamento dos recursos utilizados VERSAO 0 6 P GINA 322 GUIA CLUSTER 13 3 5 SEGURAN A Uma primeira e bvia medida implementar mecanismos de autentica o e autoriza o para permitir que apenas usu rios do dom nio X que sejam auten ticados pelos outros dom nios possam acessar os recursos autorizados por estes dom nios Ainda assim n o se pode garantir que a credencial de acesso do usu rio n o est sendo usada de forma incorreta seja por corrup o e g uso da m quina para disparar ataques de interrup o de servi o ou acidentalmente e g uma falha na aplica o pode criar uma vulnerabilidade 29 justamente por n o ter garantias a esse respeito que mecanismos de prote o para os recursos t m sido desenvolvidos A id ia
26. o p blica t m de optar pelas tecnologias adequadas e compat veis seguindos as diretrizes de Governo Eletr nico e os padr es de interoperabilidade j definidos pela e PING A ado o de pa dr es t cnicos e sua institucionaliza o s o cr ticas para assegurar que aplica es governamentais mesmo resultando de uma mir ade de iniciativas descentraliza das e descoordenadas de desenvolvimento possam interoperar e se integrarem A id ia de desenvolvimento em espiral de sistemas bastante antiga e est na base da id ia de se ter uma sequ ncia de vers es para um servi o Muitas vezes as vers es s o impostas pela evolu o tecnol gica Mas especialmente no caso de software o desenvolvimento em espiral utilizado como estrat gia defensiva para o projeto de sistemas complexos VERSAO 0 6 P GINA 20 GUIA CLUSTER 2 3 AS NOVAS DEMANDAS COMPUTACIONAIS Aplica es governamentais mais do que quaisquer outras demandam uma abordagem em espiral Contudo com demasiada frequ ncia elas s o concebi das na forma de processos lineares com vis o demasiadamente simplista com cronogramas irrealistas e sem um plano de evolu o de longo prazo Os desafios da Sociedade da Informa o apresentados no Livro Verde a in ser o do Brasil neste processo Global a dissemina o do acesso a Internet e as pesquisas do meio acad mico convergiram em novas possibilidades de aplica o da tecnologia da informa
27. 1 gt lt BackendName name nodel gt lt BackendName name node2 gt lt CreateTable gt lt RAIDb 0 gt lt LoadBalancer gt Balanceamento de carga RAIDb 1 espelhamento completo Um ele mento RAIDb 1 definido como lt ELEMENT RAIDb 1 WaitForCompletion MacroHandling RAIDb 1 RoundRobin RAIDb 1 WeightedRoundRobin RAIDb 1 LeastPendingRequestsFirst gt lt ELEMENT RAIDb 1 RoundRobin EMPTY gt lt ELEMENT RAIDb 1l WeightedRoundRobin BackendWeight gt lt ELEMENT RAIDb 1l LeastPendingRequestsFirst EMPTY gt lt ELEMENT WaitForCompletion EMPTY gt lt ATTLIST WaitForCompletion policy first majority all first deadlockTimeoutInMs CDATA 30000 lt ELEMENT BackendWeight EMPTY gt lt ATTLIST BackendWeight name CDATA REQUIRED weight CDATA REQUIRED gt Se WaitForCompletion for omitido o comportamento padr o retornar o re sultado t o logo um backend o tenha feito deadlockTimeout define o tempo em milisegundos de espera antes de se comece a detec o de deadlocks Isto deve ser tipicamente maior que os ajustes de espera do banco de dados O padr o VERSAO 0 6 P GINA 226 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA 30000 mas razo vel que seja maior que o tempo de execu o da maior consulta O desabilita a detec o de deadlocks Se Mac
28. 9 9 Exemplo de RAIDb 0 1 doe S84 Doe S Ew Daw CREE ERS 222 11 1 Modelo Para Computa o Paralela 0 00 4 254 11 2 N meros de Fibonacci em Programa o Funcional 259 11 3 Fontes de Paralelismo na Programa o em L gica 262 13 1 Acesso transparente a servi os e recursos 278 13 2 Acessando um servi o usando RMI 0 0 283 13 3 Acessando um servi o usando CORBA 14 284 13 4 Intera o entre cliente e provedor Web Services 343 285 13 5 Ilustra o da arquitetura OurGrid 36 2 640 64 e eee ew wes 298 13 6 Relacionamento entre OGSA OGSI e Globus 343 300 19 7 Arquitetura multiproc ssada ss sra era sra erg ereer ea 304 13 8 Arquitetura de um MPP o45 ces ceed ea hoes eR Ae ER HRS 305 159 Arquitetura de uma NOW ss a ess 49 6 age eS wR HES 305 13 10 Arquitetura de um Grid Computacional 306 13 11 Ilustra o de um cen rio composto de v rios escalonadores 310 13 12Jacobi executando em quatro processadores em um MPP 313 13 13Escalonamento feito pelo Jacobi AppLes 315 13 14Desempenho E WOR o ses sie coa ea e tia a ea A AR 317 13 15Desperd cio de ciclos com a replica o oono 318 VERSAO 0 6 P GINA XXVIII GUIA CLUSTER LISTA DE FIGURAS 13 16Sum rio do desempenho de Storage Affinity comparado com ou MEDE es ch ee eed eee pa E ED aes 319 13 17Sum rio do desperd cio de recurso
29. A vis o A experi ncia pr tica adquirida no desenvolvimento dos Grids de alto desem penho tornou poss vel identificar os problemas que dificultam a implanta o de uma infraestrutura com esta escala e complexidade A quest o central que deve guiar o desenvolvimento de tecnologias para Grids Computacionais pode ser en tendida como sendo a integra o de recursos e servi os distribu dos de forma VERSAO 0 6 P GINA 297 GUIA CLUSTER 13 2 7 PADRONIZA O G MyGrid 2 A Q Cf Ss SY OurGrid Community MyGrid OG Peer foo bar site Incc br site Isd ufcg edu br site Figura 13 5 Ilustra o da arquitetura OurGrid 36 transparente e eficiente Assim foi identificado que este requisito motiva tanto a comunidade cient fica como a ind stria Portanto do lado acad mico a crescente necessidade de coopera o cient fica entre grupos geograficamente distribu dos atrav s do compartilhamento de re cursos e servi os do outro lado a ind stria que tem como necessidade a integra o de sistemas comerciais Essas demandas impulsionaram a converg ncia de tecnologias de ambas as comunidades Como resultado os Grids evolu ram para utilizar uma abordagem orientada a servi os baseado em padr es e tecnologias para Web Services Partindo de um conjunto de servi os b sicos como autentica o e transfer ncia de dados a id ia a constru o de Grids que forne am de servi os sob deman
30. Ap s ser configurado o servidor slave conecta ao master e espera por atu aliza es Se o master cair ou a conex o for perdida o slave continuar tentando se conectar periodicamente at que seja capaz de receber informa es sobre modifica es O intervalo padr o 60 segundos Replica o baseada em coluna A propaga o de declara es SOL do master para o slave o princ pio ori ginal da replica o em MySQL Isto chamado replica o baseada em de clara o A partir da vers o MySQL 5 1 5 outro modelo passou a estar dispon vel a chamada replica o baseada em coluna Ao inv s de enviar as declara es MySQL para o slave o master escreve os eventos em um log bi n rio indicando como as colunas individuais das tabelas foram afetadas A vers o 5 1 8 oferece uma terceira op o a mista que usa replica o baseada em declara o por padr o e a baseada em coluna em casos particulares Adicionalmente mudan a autom tica do formato de log um servidor slave pode mudar o formato automaticamente Isto acontece quando um servidor est rodando em modo STATEMENT ou MIXED e encontra uma coluna no log bin rio que foi escrita em formato ROW Neste caso o slave muda para modo de replica o coluna temporariamente para este evento voltando para o modo pr vio logo ap s VERSAO 0 6 P GINA 211 GUIA CLUSTER 9 4 1 REPLICA O EM MYSQL H duas raz es para se ajustar o log de replica o basead
31. Assim de forma diferente das linguagens im perativas elas n o permitem atribui es destrutivas s vari veis nem controle expl cito do fluxo de execu o do programa Isto confere s linguagens de pro grama o em l gica uma sem ntica clara declarativa e uma decorrente cons tru o de programas elegantes compactos e menos sujeitos a erros oriundos de aspectos de implementa o STERLING 344 Este forte aspecto declarativo permite que a avalia o de um programa em l gica possa ser feita por diferentes estrat gias de controle de fluxo de execu o Isto implica que a aus ncia de efeitos colaterais decorrentes da sem ntica declarativa faculta que muitas das opera es em um programa em l gica possam ser execu tadas em qualquer ordem n o determinismo sem que com isto seja afetada a consist ncia de execu o do mesmo VERSAO 0 6 P GINA 260 GUIA CLUSTER 11 3 1 MODELOS NOS QUAIS O PARALELISMO EXPLORADO DE FORMA TOTALMENTE IMPL CITA Fontes Impl citas de Paralelismo Existem duas principais fontes de paralelismo impl cito na programa o em l gica KERGOMMEAUKX 244 Paralelismo OU este tipo de paralelismo refere se a uma estrat gia de busca pa ralela na rvore de metas do programa l gico Assim quando o processo de busca encontra uma ramifica o na rvore de metas ele pode iniciar processos paralelos de busca em cada ramo descendente vide figura 11 3 O nome parale lismo OU der
32. Como ele reside em um n vel t o baixo oferece isolamento de falhas e recursos consider veis H v rios motivos para se considerar o Xen e um programa de c digo aberto e relativamente leve portanto n o consome uma quantidade absurda de recursos da CPU e atinge um alto grau de isolamento entre as tecnologias de m quina virtual e Como qualquer outra tecnologia de m quina virtual suporta combina es variadas de sistemas operacionais e vers es al m de permitir que os ad ministradores iniciem e executem dinamicamente uma inst ncia do sistema operacional sem afetar o servi o 14 2 2 Sitema Operacional nativo versus virtualiza o com Xen Algumas justificativas s o v lidas para a utiliza o de virtualiza o Ainda no site de not cias da Sun http www sun com emrkt innercircle newsletter brazil 0106feature htmil A popularidade da virtualiza o tem a ver com seu princ pio filo s fico a convic o de que os data centers est o abarrotados de ser vidores subutilizados Ela parece solucionar o problema criado pelo paradigma predominante do um servidor para um aplicativo que re sulta do superprovisionamento visando m xima performance As taxas de utiliza o de servidores podem oscilar entre 5 e 15 Por fim a promessa de servidores baseados em commodities resultou em data centers excessivamente caros de gerenciar alimentar e refrigerar VERSAO 0 6 P GINA 351 GUIA CL
33. Computacional em produ o 117 O OurGrid formado por tr s componentes MyGrid Broker 120 OurGrid Peer 61 e uma solu o de Sanboxing baseado no Xen 81 OurGrid explora a id ia de que um Grid composto de v rios sites que t m o interesse em trocar favores computacionais entre si Portanto existe uma rede peer to peer de troca de favores que permite que os recursos ociosos de um site seja fornecido para outro quando solicitado Para manter o equil brio do sistema em uma situa o de conten o de recursos sites que doaram mais recursos quando estes estavam ociosos dever o ter prioridade junto comunidade quando solici tar recursos A Figura 13 5 ilustra a id ia da rede de favores onde cada peer controla um con junto de recursos de um site Ao surgir uma demanda interna por recursos que o peer de um determinado site n o consegue suprir este PEER ir fazer requisi es comunidade A id ia que os peers utilizem um esquema de prioridade base ado em quanto eles consumiram dos outros Os resultados mostram que haver um compartilhamento justo de recursos entre os peers 60 13 2 7 Padroniza o Nesta se o exploraremos um pouco mais a vis o que motiva boa parte da pes quisa sobre Grids Computacionais atualmente orienta o a servi os Neste sen tido faremos tamb m um breve hist rico sobre os padr es para arquiteturas ba seadas em Grid Services e qual o estado atual desses esfor os
34. Depois dele vieram o LOCUS 1980 que j implementava transpar ncia de locali za o replica o e transa es at micas aninhadas o SWALLOW in cio dos anos 80 do MIT que usava uma t cnica de controle de acesso concorrente baseado em timestamps o Acorn File Server in cio dos anos 80 desenvolvido para implanta o de uma rede de microcomputadores em escolas a um custo muito baixo e o VICE 1984 ancestral do AFS e do CODA 7 3 4 Network File System NFS Projeto Network Filesystem S tio Oficial http nfs sourceforge net Licen a GPL Respons vel Network File System 339 245 246 269 sistema de arquivos distribu do de senvolvido inicialmente pela Sun o SAD mais utilizado em sistemas Unix Em 1985 a Sun tornou p blico seu protocolo o que permitiu que outras empresas e desenvolvedores pudessem criar clientes e servidores compat veis Hoje em dia j poss vel encontrar implementa es do NFS tanto cliente como servidor para quase todos os sistemas operacionais existentes inclusive sistemas n o UNIX como o Windows Isso tamb m foi facilitado pelo fato do NFS definir uma interface RPC 231 que utiliza uma representa o de dados independente de m quina chamada External Data Representation XDR As vers es mais usadas do NFS s o as 2 e 3 por m j existe a RFC3530 328 VERSAO 0 6 P GINA 148 GUIA CLUSTER 7 3 4 NETWORK FILE SYSTEM NFS que descreve o NFSv4 Assim como
35. GINA 19 GUIA CLUSTER 2 3 AS NOVAS DEMANDAS COMPUTACIONAIS e G2G government to government transa es entre institu es do govern em qualquer n vel ou esfera do Po der Corresponde a fun es que integram a es do Governo horizontal mente exemplo no n vel Federal ou dentro do Executivo ou vertical mente exemplo entre o Governo Federal e um Governo Estadual A informatiza o de opera es internas e de servi os prestados pelo Governo re mete necessidade de se planejar implementar e operar grandes aplica es de tecnologias de informa o e comunica o envolvendo o desenvolvimento de pa cotes de software de grande complexidade para execu o em plataformas usual mente bastante heterog neas de computadores e redes Tais aplica es especialmente as de escala nacional que costumam tratar de imensas quantidades de dados que perpassar o in meras gera es tecnol gicas s o t o carregadas de vari veis e condicionantes que tipicamente s o descritos e caracterizados como sistemas complexos e t m dimens es gigantescas tais como milh es de usu rios centenas de fun es etc e t m especifica o din mica isto se modifica ao longo do tempo para acomodar novas necessidades revis o de prioridades etc e nunca terminam de ser implementados como consequ ncia natural das duas caracter sticas anteriores Assim os softwares desenvolvidos pela administra
36. MP o rg o central normativo 2O Governo Federal economizou R 637 8 milh es com a utiliza o do preg o eletr nico de janeiro a julho de 2006 Esta modalidade foi respons vel por 47 3 do total de bens e servi os adquiridos pelo governo durante este per odo Um estudo recente realizado pelo Banco Mundial na rea de compras p blicas eletr nicas demonstra a efici ncia do sistema de aquisi es eletr ni cas do Governo Federal Brasileiro Segundo a avalia o do Banco Mundial o Comprasnet obteve pontua o m xima nos indicadores que avaliaram a transpar ncia na divulga o das licita es e de seus respectivos resultados e na utiliza o de m todos competitivos conforme recomendado pela lei VERSAO 0 6 P GINA 23 GUIA CLUSTER 2 3 AS NOVAS DEMANDAS COMPUTACIONAIS e Arrecada o Fazend ria esta uma das reas mais avan adas em servi os de governo eletr nico no Brasil A maioria dos servi os e sistemas de arre cada o fazend ria est o dispon veis na Internet A declara o de imposto de renda de pessoa f sica disponibilizada por meio eletr nico atrav s da In ternet e por disquete foi respons vel por 98 2 256 do total de declara es no ano de 2005 e Projeto I Gov O Projeto I Gov uma implementa o da arquitetura referencial de inte ropera o de sistemas e PING atrav s dele poss vel acessar os Sistemas Estruturadores de Governo obtendo informa es de forma autom t
37. OS OFERECIDOS PELOS SADS Tamb m responsabilidade desse servi o manter a integridade das opera es re alizadas nos arquivos Por exemplo quando uma aplica o altera algum arquivo todas as demais aplica es que estiverem acessando o devem perceber essa alte ra o o mais r pido poss vel Existem dois tipos de implementa o de servi o de arquivos acesso remoto e c pia remota que podem ser com ou sem estado No caso do acesso remoto o cliente n o possui um espa o para guardar os arquivos que estiver usando e toda e qualquer opera o realizada com os arquivos ser sempre atrav s da rede Isso pode deixar o sistema muito lento j que depende da velocidade da rede J no caso da c pia remota o cliente recebe uma c pia do arquivo para trabalhar e quando tiver terminado devolve as altera es para o servidor Isso s funci ona se o cliente tiver espa o suficiente para armazenar o arquivo A velocidade da rede s influenciar durante as transmiss es do arquivo de um local a outro e a implementa o s ser considerada muito eficiente caso o arquivo seja total mente alterado Por m se o cliente s se interessar por um determinado trecho do arquivo recursos de transmiss o estar o sendo gastos sem necessidade Da existe uma variante dessa implementa o onde somente os blocos que se quer trabalhar s o enviados para o cliente chamada de cache de bloco E poss vel tamb m que esse servi o li
38. Web Services dispon veis que permitem aos clientes a descoberta e a utiliza o dos servi os alocados em Ex tranets e Intranets associa o de ind strias que visa promover padr es para a evolu o da web e interoperabilidade entre pro dutos para WWW produzindo softwares de especifica o e refer ncia Aplica o l gica program vel que torna compat veis entre si os mais diferentes aplicativos independente mente do sistema operacional permitindo a comunica o e interc mbio de dados entre diferentes redes um formato XML para descri o de servi os web e suas informa es para acesso Ela descreve as funcio nalidades dos servi os oferecidos pelo provedor de ser vi os bem como sua localiza o e forma de acesso rea da Internet que cont m documentos em formato de hiperm dia uma combina o de hipertexto com mul tim dia Os documentos hiperm dia da WWW s o cha mados de p ginas de Web e podem conter textos ima gens e arquivos de udio e v deo al m de liga es com outros documentos na rede A caracter stica multim dia da Web tornou a a por o mais importante da Internet P GINA 381 GUIA CLUSTER CAP TULO E GLOSS RIO XML eXtensible Markup Language Linguagem Mar kup Estens vel XMPP eXtensible Messa ging and Presence Protocol Protocolo de Mensageria em Tempo Real XSL eXtensible Stylesheet Language VERSAO 0 6 maneira flex vel par
39. as de software al m de permitir a melhoria altera o distribui o e compartilhamento de solu es seguran a transpar ncia e possibilidade de auditoria plena do sistema Somente as categorias de Clustering e Compu ta o Distribu da do site de projetos Sourceforge net possuem juntas um total de 1363 projetos de tecnologias de cluster grid e computa o distri bu da e Maior Facilidade de aumentar ou diminuir a capacidade computacional de acordo com a demanda existente Grids e clusters computacionais Esta quest o foi abordada no relat rio de avalia o de ferramenta de mi nera o que encontra se dispon vel para download no endere o http guialivre governoeletronico gov br labcluster tamandua pdf http sourceforge net softwaremap trove_list 3http sourceforge net softwaremap trove_list Ultimo acesso 28 09 2006 php form_cat 141 php form_cat 308 VERSAO 0 6 PAGINA 39 GUIA CLUSTER 3 2 AS GERA ES DA COMPUTA O DISTRIBU DA e Possibilidade do desenvolvimento de sistemas e servi os que utilizem os conceitos de computa o sob demanda com o objetivo de aproveitar da melhor maneira poss vel os sistemas e recursos computacionais existentes no governo e Possibilidade de realizar o aproveitamento de ciclos ociosos de computa dores j existentes na infra estrutura de TI atual Estima se que o governo federal possua atualmente um total de aproxi
40. comp em o Grid pois al m de problemas de desempenho h tamb m quest es administrativas Por outro lado n o queremos deixar que o usu rio tenha que VERSAO 0 6 P GINA 321 GUIA CLUSTER 13 3 5 SEGURAN A lidar com v rias imagens totalmente distintas do sistema As solu es para este problema dividem se em dois grandes grupos aquelas que evitam os problemas administrativos trabalhando n vel de usu rio 258 368 e aquelas que introduzem novas abstra es para que o usu rio possa lidar com o Grid 120 119 Em princ pio solu es n vel de usu rio s o mais simples de usar pois suportam abstra es j conhecidas pelo usu rio e g arquivos Entre tanto elas podem apresentar s rios problemas de performance dependendo da aplica o e da conectividade do Grid Novas abstra es ao contr rio requerem o aprendizado de novos conceitos mas podem vir a oferecer uma forma mais eficiente de usar o Grid 13 3 5 Seguran a Um dos desafios impostos pela introdu o de um servi o de execu o remota ver Se o 13 3 2 em um Grid relacionado a seguran a Ou seja os problemas de seguran a podem afetar n o apenas o propriet rio do recurso como tamb m o usu rio da aplica o Ou seja o recurso estar exposto ao permitir a execu o de uma aplica o de um usu rio de origem a princ pio desconhecida Por outro lado o usu rio n o gostaria que sua aplica o fosse sabotada durante a execu
41. de forma regionalizada as diretrizes os objetivos e as metas da Administra o P blica Federal e o principal instrumento de planejamento por conse guinte de mudan a econ mica e social com vistas ao desenvolvimento do Pa s O PPA organiza a atua o governamental em programas e a es inserindo na administra o p blica a orienta o do gasto p blico para resultados na sociedade Liga o m quina a m quina sem interfer ncia de um operador pessoa com periodicidades programadas e se for o caso com lat ncia zero Rotinas administrativas de cadastro e habilita o em servi os disponibilizados m quina a m quina sem interfer ncia de um operador pessoa com periodicidades programadas e se for o caso com lat ncia zero VERSAO 0 6 P GINA 24 GUIA CLUSTER 2 3 AS NOVAS DEMANDAS COMPUTACIONAIS caso de uma mulher que se registrou no sistema com o nome de solteira e depois com o nome de casada As rotinas atuais n o consideram essas di feren as e permitem que uma pessoa receba duas vezes o mesmo benef cio e Projeto Interlegis O Interlegis um programa desenvolvido pelo Senado Federal em parceria com o Banco Interamericano de Desenvolvimento BID de moderniza o e integra o do Poder Legislativo nos seus n veis federal estadual e municipal e de promo o da maior transpar ncia e in tera o desse Poder com a sociedade Os meios utilizados s o as novas tecnologias de informa o Internet v
42. e testabilidade testability Estas s o medidas usadas para quantificar a dependabilidade de um sistema 302 Assim pode se dizer que a dependabilidade uma propriedade dos sistemas computacionais que define a capacidade dos mesmos de prestar um servi o no qual se pode justificadamente confiar DANTAS 136 Confiabilidade a medida mais usada em sistemas em que mesmo curtos per o dos de opera o incorreta s o inaceit veis Confiabilidade uma medida proba bil stica que n o pode ser confundida com disponibilidade Um sistema pode ser altamente dispon vel mesmo apresentando per odos de inoperabilidade desde que esses per odos sejam curtos e n o comprometam a qualidade do servi o Performability est relacionada queda de desempenho provocado por falhas onde o sistema continua a operar mas degradado em desempenho Mantena bilidade significa a facilidade de realizar a manuten o do sistema ou seja a probabilidade que um sistema com defeitos seja restaurado a um estado opera cional dentro de um per odo determinado Restaura o envolve a localiza o do problema o reparo e a coloca o em opera o Finalmente testabilidade a ca pacidade de testar atributos internos ao sistema ou facilidade de realizar certos testes Quanto maior a testabilidade melhor a mantenabilidade por conseqti n cia menor o tempo de indisponibilidade do sistema devido a reparos A caracteriza o de dependabilidade envolve a
43. es ou programas j existentes Esse suporte n o necess rio para se usar o PVFS mas ele traz uma enorme conveni ncia para a interatividade com o sistema Para isso necess rio instalar um m dulo no kernel do linux existe um patch para carreg lo diretamente no kernel e um Figura 7 9 Fluxo de dados pelo kernel programa chamado pvfsd que se encarrega de buscar os dados para as aplica es Ele se utiliza da biblioteca libpofs para realizar essas opera es A figura 7 9 mostra como o fluxo de dados passa por esses componentes to PVFS servers user space kernel space Figura 7 9 Fluxo de dados pelo kernel VERSAO 0 6 PAGINA 164 GUIA CLUSTER 7 4 2 PARALLEL VIRTUAL FILESYSTEM VERSION 2 PVFS2 Al m disso existe a implementa o da interface ROMIO MPI IO para o PVES possibilitando que aplica es paralelas se utilizem do PVFS sem precisar passar pelo kernel al m de poderem usar outras fun es espec ficas desse sistema que possibilitam um ajuste fino no acesso e armazenamento dos arquivos An lise Cr tica O PVES um sistema de arquivos distribu do e paralelo que se preocupa em diminuir o gargalo provocado pelo tr fego de dados seja pela rede seja pela velocidade do armazenamento f sico usando a mesma t cnica de distribui o de dados encontrada no BRIDGE Alguns problemas existentes s o quanto seguran a no acesso dos dados j que se o cliente souber onde os dados est o basta
44. glibc ister ficheiros sistema de f ficheiros biock devicel m7 block device drbd ide block devicel TARR 7 block device i pases drbd Figura 7 2 Fluxo de intercomunica o entre as camadas dos dispositivos Linux repare que o DRBD n o tem como notificar o m dulo do sistema de arquivos mas o oposto ocorre envolvidas o que permite alguma flexibilidade relativamente aos discos dispon veis em cada n e Apenas um dos n s pode ter acesso de leitura e escrita ReadWrite R W KROVICH e ser designado como DRBD Primary O s restante s n s ser ser o designado s como DRBD Secondary Embora o n DRBD Secondary possa montar o dispositivo apenas em modo ReadOnly R O praticamente in til dado que as atualiza es ocorrem apenas num sentido do Primary para o Secondary e a camada que gere block device s n o disp e de nenhuma forma de notificar altera es na camada que gere o sistema de arquivos embutido Situa o do projeto A maioria dos clusters HA HP Compag atualmente utilizam dispositivos de armazenamento compartilhados estes dispositivos altamente dispendiosos per mitem que sejam conectados simult neamente mais de um servidor em geral atrav s do barramento SCSI compartilhado ou Fiber Channel O DRBD usa a mesma sem ntica de um dispositivo compartilhado mas n o ne cessita de nenhum hardware espec fico Ele trabalha no topo de redes IP que s o de implementa o generalizada e
45. http en wikipedia org wiki Scsi Ultima Visita em 20 09 2005 12 12 385 Wikipedia Serial ata http en wikipedia org wiki Serial ata Ul tima Visita em 20 09 2005 12 12 386 WikiPedia Wikipedia the free encyclopedia http pt wikipedia org wiki Mainframes Ultima Visita em 20 04 2005 12 20 387 WikiPedia Wikipedia the free encyclopedia http en wikipedia org wiki Block_device Ultima Visita em 20 04 2005 12 20 388 R Wolski N Spring and J Hayes Predicting the CPU availability of time shared unix systems on the computational grid In Proceedings of 8th Inter national Symposium on High Performance Distributed Computing HPDC 99 August 1999 389 R Wolski N T Spring and J Hayes The network weather service a distributed resource performance forecasting service for metacomputing Future Generation Computer Systems 15 5 6 757 768 1999 390 Adenauer Corr a Yamin Um Estudo das Potencialidades e Limites na Explora o do Paralelismo 2006 391 Yifeng Zhu Hong Jiang Xiao Qin Dan Feng and David R Swanson Im proved read performance in ceft pvfs Cost efective fault tolerant paral lel virtual file system http www cs nmt edu xqin pubs ccgrid03 pdf Ultima Visita em 20 09 2005 12 12 VERSAO 0 6 PAGINA 423
46. isto a thread que envia informa o em nenhum momento precisa saber qual vai receb la N o existe conex o nem espacial e nem temporal entre os mesmos Potencialidade de Explora o do Paralelismo Como as comunica es entre programas exigem que ambos os lados emissor e receptor tenham seus par metros devidamente concordantes e considerando que os programas paralelos usualmente contemplam muitas comunica es esta tarefa de especificar comunica es introduz um custo elevado no desenvolvi mento do software paralelo Os modelos que operam neste n vel de abstra o reduzem muito este custo ofe recendo primitivas de alto n vel para especifica o das trocas de dados Nor malmente esta simplifica o feita separando nos programas os aspectos de processamento dos de comunica o Normalmente disponibilizada uma lin guagem a parte subconjunto da linguagem para tratar das comunica es Esta divis o faz com que a computa o e a comunica o fiquem ortogonais entre si de tal forma que uma particular estrat gia para as comunica es possa ser utilizada com diversas linguagens sequenciais Este o caso particular de Linda preciso ter presente que a combina o de decomposi o expl cita do parale lismo com um mecanismo de troca de dados que garante um desacoplamento entre as partes comunicantes uma fonte de poss veis inconsist ncias no estado de execu o do programa paralelo deadlocks
47. maior do que de arquiteturas de mem ria com partilhada Os maiores computadores classificados na lista TOP500 362 usam este paradigma 6 1 7 Sistemas Distribu dos Os sistemas distribu dos sob o aspecto da arquitetura de m quinas para a exe cu o de aplicativos podem ser vistos como configura es com grande poder de escalabilidade pela agrega o dos computadores existentes nas redes con vencionais em um sistema nico onde a homogeneidade ou heterogeneidade do conjunto de m quinas cada uma com seu pr prio sistema operacional permite VERSAO 0 6 P GINA 91 GUIA CLUSTER 6 1 8 CLUSTERS a forma o de interessantes configura es de SMPs clusters MPPs e grids com putacionais 136 V rios aspectos na utiliza o de ambientes distribu dos t m de ser cuidados as pectos como seguran a confiabilidade retardo da rede de comunica es com patibilidades de pacotes de softwares entre outros 6 1 8 Clusters As configura es de clusters em termos de arquitetura computacional podem ser entendidas como uma agrega o de computadores de forma dedicada para a execu o de aplica es espec ficas Normalmente formados por computadores do tipo PC pertencentes a uma nica unidade ex laborat rio A escalabilidade um fator diferencial nestes ambientes pois os recursos podem crescer conforme estiverem dispon veis 136 6 1 9 Grids Grids computacionais s o uma nova forma de agreg
48. o de forma transparente importante esclarecer que n o queremos com o exemplo anterior sugerir que um Grid Computacional o mesmo que a Internet De uma certa forma o Grid a evolu o da Internet A id ia que qualquer servi o computacional possa ser obtido no Grid e que se possa agregar automaticamente v rios servi os mais simples gerando um um servi o mais sofisticado Voltando ao nosso exemplo de home banking este servi o pensado para viabilizar o acesso de um humano um cliente do banco seus dados banc rios muito complicado usar o servi o em outros contextos como parte de uma aplica o maior que por exemplo acesse os dados banc rios na prepara o do imposto de renda Grids Computacionais nasceram da comunidade de Processamento de Alto De sempenho motivada pela id ia de se utilizar computadores independentes e am plamente dispersos como plataforma de execu o de aplica es paralelas 183 Por m com a evolu o da pesquisa sobre Grids Computacionais e tecnologias utilizadas pela ind stria para computa o distribu da houve naturalmente uma converg ncia entre o mundo acad mico e empresarial Assim a id ia prover uma infraestrutura que viabilize servi os sob demanda permitindo uma maior colabora o entre v rias institui es atrav s do compartilhamento de seus servi os e recursos e utilizando mecanismos que facilitem a interoperabilidade Os atrativos desta id ia in
49. o de Software Livre e Todo o hardware utilizado no laborat rio baseado em tecnologia i386 e padr es abertos e Toda a infra estrutura de software b sico do laborat rio em Software Li vre ou aberto para n o comprometer a ado o de tecnologias inovadoras pelo governo com os custos de aquisi o de licen as de software Exce es Poder o existir aplica es espec ficas de projetos que n o ser o Soft ware Livre ou aberto mas a infra estrutura de software base ser total mente livre ou aberta Entende se por software b sico o sistema operacional e os softwares e aplica es necess rios para o funcionamento administra o e gerenciamento do Cluster VERSAO 0 6 P GINA 386 GUIA CLUSTER F 4 INFRA ESTRUTURA DE HARDWARE F4 Infra estrutura de Hardware A tabela F 1 apresenta resumidamente as configura es dos hardwares dispon veis no LabCluster enquanto as se es subsequentes apresentam o detalhamento das configura es dispon veis Servidores SuperMicro 1U Quant CPU Mem ria HD Rede 16 02 x2 4Ghz Xeon HT 02 GB 01 x IDE 80GB 02 x Gigabit Servidores SuperMicro 2U Quant CPU Mem ria HD Rede 08 02 x2 4Ghz Xeon HT 04GB 01 x IDE 80GB 10 x Gigabit Servidor SuperMicro Gabinete Quant CPU Mem ria HD Rede 08 02 x2 4Ghz Xeon HT 02 GB 04 x IDE 200GB 02 x Gigabit Desktops Novadata Quant CPU Mem ria HD R
50. o do padr o inter task aplica es que apresentam esse padr o possuem reutiliza o de dados durante um execu o Por exemplo aplica es de busca de sequ ncias de DNA como o Blast 54 podem apresentar esse padr o considerando que v rias sequ ncias podem ser pesquisadas em paralelo usando o mesmo banco de dados de sequ ncias catalogadas Portanto a id ia explorar ambos os padr es de reutiliza o de dados para me lhorar o desempenho das aplica es Assim Storage Affinity efetua o escalona mento baseado afinidade que as tarefas t m com os sites que formam o Grid O valor da afinidade determina qu o pr ximo do site esta tarefa est A sem ntica do termo pr ximo est associada quantidade de bytes da entrada da tarefa que j est armazenada remotamente em um dado site ou seja quanto mais bytes da entrada da tarefa j estiver armazenado no site mais pr ximo a tarefa estar do site pois poder iniciar sua execu o mais rapidamente Assim o valor da afini dade de uma tarefa com um site o n mero de bytes pertencentes entrada da tarefa VERSAO 0 6 P GINA 318 GUIA CLUSTER 13 3 3 ESCALONAMENTO 45000 j T T T H t XSufferage 8 pero Storage Affinity _ WOR 40000 e ires cremes 35000 essas d ae ee h 30000 Emir 25000 20000 H Average Application Makespan seconds 15000 10000 L l L 1 2 3 4 5 6 Number of Executions
51. o na disponibiliza o de servi os e informa es aos cidad os Existe uma percep o no governo e uma press o da sociedade em torno da me lhoria da qualidade dos servi os prestados aos cidad os bem como para o au mento substancial da transpar ncia dos processos governamentais e o combate fraude e corrup o Para atender estas demandas se faz necess rio atingir um n vel maior de integra o entre os sistemas governamentais e criar novos siste mas de intelig ncia capazes de transformar o imenso volume de dados atual em informa o til e agregada atrav s da utiliza o de sistemas de Business Inteli gence BI e de Enterprise Resource Planning ERP 272 Al m da iminente necessidade de integra o e atribui o de valor agregado aos dados transformando os em informa o importante salientar que a quantidade de servi os e portais agregadores destas informa es e de intera o com os cida d os tamb m dever crescer conjuntamente com a democratiza o do acesso Internet e sua conseqtiente utiliza o como meio de comunica o entre governo e cidad os no contexto de desenvolvimento de governo eletr nico A amplia o e a melhoria da qualidade dos processos internos e dos servi os prestados pelo governo refletem se na necessidade de aumento da capacidade computacional do setor p blico e por se tratarem de servi os cr ticos possuem como caracter sticas principais de demandas computacio
52. por exemplo remover um servidor ou adicionar outro Isso tamb m pode ser feito sem a necessidade de se desativar o sistema de arquivos Redund ncia de dados e meta dados O PVFS1 possui um grande problema com rela o toler ncia a falhas caso um servidor saia da rede perde se o acesso aos seus dados Pode se utilizar um sistema RAID de disco para evitar a perda dos dados mas isto n o garante toler ncia falhas Est sendo estudado para vers es futuras do PVFS2 um sistema de redund ncia relaxada dos dados A id ia realizar uma c pia dos dados e meta dados de um servidor em outro utilizando se de uma opera o expl cita ao cliente Isto significa que o cliente PVFS2 teria que realizar essa c pia A desvantagem nisso est em realizar opera es de forma at mica e em encontrar formas de se evitar uma grande perda de desempenho A vantagem que a opera o seria otimizada ao criar as informa es redundantes em paralelo Arquitetura do PVFS2 Servidores No PVFS1 cada servidor tem papel distinto servir meta dados ou somente da VERSAO 0 6 P GINA 168 GUIA CLUSTER 7 4 2 PARALLEL VIRTUAL FILESYSTEM VERSION 2 PVFS2 dos Al m disso o servidor de meta dados tinico No PVFS2 cada servidor pode atuar tanto como servidor de meta dados como tamb m de e dados A defini o do papel que cada um vai representar est no arquivo de configura es lido durante a inicializa o Al m disso pode
53. prio usu rio Para o cliente a grande vantagem de usar GRAM a manipula o uniforme de tarefas i e a submiss o e controle de tarefas n o importando qual o escalonador de recurso Local Re source Manager na Figura 13 18 usado para controlar a m quina Isto poss vel porque as requisi es enviadas ao GRAM s o sempre escritas em RSL Resource Specification Language independentemente de qual escalonador de recurso esteja sendo utilizado O Job Manager o respons vel por converter a requisi o em RSL em um formato que o escalonador de recurso em quest o entenda Ao que sabemos h vers es do Job Manager para Condor 258 LoadLeveler 242 PBS Unix e Windows entre outras plataformas Uma id ia bastante interessante em Globus que escalonadores de aplica o po dem usar os servi os de outros escalonadores de aplica o O escalonador que recebe a solicita o do cliente lida com a especifica o em mais alto n vel Ele refina tal especifica o e para implement la submete novas solicita es a esca lonadores de recurso que de fato executam solicita es e ou escalonadores de aplica o que utilizam outros escalonadores para executar solicita es Globus suporta bem esta hierarquia de escalonadores atrav s da linguagem RSL RSL capaz de expressar tanto solicita o de alto n vel como a que o usu rio envia a seu escalonador de aplica es como tamb m solicita es concretas que
54. s custas de transa o mais lenta e a presen a de deadlocks Replica o ass ncrona as atualiza es s o processadas periodicamente por todos os n s do cluster permitindo um processo de transa o mais eficiente ao custo de uma baixa garantia da consist ncia global do dados Tamb m existe a proposta de re plica o baseado em grupo de comunica es para usufruir da vantagem da rica sem ntica das primitivas dos grupos de comunica o enquanto se utiliza de ga rantias de relaxadas de isolamento para reduzir a possibilidade de deadlocks e congestionamento de mensagens assim aumentando o desempenho do sistema Integra o de Dados Conflitos diferentes surgem da representa o descoordenada de conceitos quando ao se integrar fontes de dados aut nomas distribu dos Exemplos des tes conflitos s o tipo de dados estrutura conflito de nomes atributos perdidos e conflitos de generaliza o Todos estes conflitos podem ser estaticamente ende re ados entre eles durante integra o dos esquemas de dados ou dinamicamente na gera o de vis o consultas De acordo com a arquitetura de integra o e a VERSAO 0 6 P GINA 197 GUIA CLUSTER CAPITULO 9 CLUSTER DE BANCO DE DADOS estrat gia de manipula o de consultas sistemas de integra o de banco de da dos podem ser Sistema de Multi banco de dados cole o de bancos de dados integrados nos quais cada DBMS mant m controle em cima de seus banco
55. sicas podendo ser a conex o ethernet normal para comunica es de rede interfaces dedicadas ligadas por cabo crossover ou atrav s de cabo serial A co nex o normal de rede n o recomendada por conta da carga normal que ela su porta sendo ideal o uso de interfaces dedicadas ligadas por crossover ou mesmo cabo serial que uma boa op o pela simplicidade e seguran a e por estar sendo usado apenas para esse fim entretanto inconveniente a pequena extens o que esses cabos apresentam 8 4 Zope Cluster H uma rela o n o linear entre o aumento de acesso a um servidor web e seu tempo de resposta s requisi es O uso de uma m quina mais poderosa geral mente n o a resposta para o problema Uma solu o usar mais de um servidor para realizar o trabalho e distribuir as requisi es de servi os entre eles Normalmente um sistema que produz p ginas din micas chamado servidor de aplica o que composto tipicamente por tr s partes distintas um servidor HTTP um banco de dados e alguma aplica o middleware que serve de inter face aos outros dois componentes Estas tr s partes podem estar todas em uma mesma m quina para o caso de sistemas que n o se espera muita carga Para o caso de sistemas com alta carga os diferentes requisitos de cada componente sugerem separa o para que hardware adequadamente ajustado para atender s suas necessidades VERSAO 0 6 P GINA 191 GUIA CLUSTER 8 4 ZO
56. uma pequena curva de tempo de aprendizagem em rela o atualiza o dos profis sionais Gra as s vantagens trazidas por essa tecnologia ela tornou se tamb m outra possibilidade para a interconex o em clusters Apesar da alta velocidade o padr o Gigabit Ethernet n o garante o fornecimento de QoS Qualidade de Servi o que um dos pontos mais fortes da tecnologia ATM Desta forma ele n o pode garantir o cumprimento das exig ncias de apli ca es como a videoconfer ncia com grande n mero de participantes ou mesmo uma transmiss o de v deo em tempo real de um ponto para muitos outros O fato do custo por porta da Gigabit Ethernet ser mais alto quando comparado com a Myrinet e devido ao uso de cabos de fibra tica Contudo uma queda subs tancial no custo da Gigabit Ethernet agora aparente Os custos baixos est o impulsionando a Gigabit Ethernet para tomar uma fatia cada vez maior de mer cado caracterizado pela competi o entre diversos fabricantes e um potencial muito grande de base de instala es eventualmente o custo por porta da Giga bit Ethernet se tornar compar vel ao custo de um n convencional de forma muito parecida com o que ocorreu com a Fast Ethernet h alguns anos atr s Myrinet Myrinet um tipo de rede baseada na tecnologia usada para comunica o e troca de pacotes entre processadores trabalhando em paralelo Myrinet implementa auto inicializa o baixa lat ncia e switches
57. uma alternativa elegante de programa o declara tiva na qual o programa definido por um conjunto de equa es e fun es cujo resultado da computa o a solu o das mesmas Os dois aspectos que tornam este paradigma atrativo tanto o n vel de abstra o em que pode ser feito o desenvolvimento de software como o fato do mesmo ser suscet vel de uma avalia o formal A entidade central da programa o funcional a fun o Deste modo fun es podem devolver como resultados outras fun es as quais podem ser passadas como argumentos A sem ntica de um programa funcional puro garante a au s ncia de efeitos colaterais side effects entre as sub express es de uma fun o isto faculta uma an lise paralela das mesmas sem riscos de depend ncias de da dos e ou controle JONES 238 Um cl ssico programa que ilustra a possibilidade de avalia o paralela de sub express es o algoritmo recursivo de Fibonacci Como as duas chamadas recursivas de fibonacci s o independentes podem ser executadas em paralelo Fonte Impl cita de Paralelismo A t cnica utilizada para linguagens funcionais puras de alta ordem e sem ano ta es denominada redu o de grafo Graph Reduction PEYTON JONE 298 As fun es s o expressas como rvores com sub rvores comuns para represen tar as sub fun es compartilhadas A computa o consiste em selecionar subes truturas do grafo reduz las a formas m
58. 2 GRIDS DE SERVI OS escala global Na sess o 13 4 faremos um estudo de caso com algumas solu es para Grids Computacionais Finalmente na sess o 13 5 concluiremos uma breve discuss o sobre as tend ncias em Grids Computacionais 13 2 Grids de Servi os Antes de se iniciar uma discuss o sobre aspectos relacionados a Grids de Servi os necess rio definir o que um servi o Na teoria econ mica um servi o uma mercadoria imaterial provida por uma entidade legal provedor para satisfazer as necessidades de outra entidade cliente 190 Utilizando essa defini o como analogia consideramos como servi o computaci onal qualquer recurso ou outro servi o que possa ser acessado remotamente e descrito atrav s de uma interface por um provedor a qual pode ser interpretada de forma autom tica por um cliente Desta forma tudo pode ser considerado como servi o desde que exista a possibilidade de se criar uma abstra o que for ne a essa interface Neste cap tulo discutiremos as tecnologias que permitem o desenvolvimento de infraestruturas baseadas em servi os computacionais bem como aspectos impor tantes para a implementa o dessas infraestruturas Em seguida abordaremos tamb m padr es emergentes para Grids de Servi os 13 2 1 Acesso a Servi os De modo geral a id ia por tr s de uma arquitetura baseada em servi os compu tacionais n o uma novidade Ou seja o grande interesse atual da
59. 3 1 CEN RIOS DE APLICA O Cen rio 1 Neste cen rio a institui o da administra o p blica possui um portal web de servi os voltados aos cidad os sendo utilizado basicamente para realizar con sultas e obter informa es possuindo conte do est tico armazenado localmente em sistema de arquivos e conte do din mico armazenado remotamente atrav s da utiliza o de um servidor de banco de dados O portal precisa estar dispon vel para acesso e consulta dos usu rios na maior parte do tempo poss vel quest es como integridade confidencialidade e auten ticidade s o essenciais pois as informa es contidas no portal n o devem ser alteradas e dispon veis para pessoas que n o possuam a devida autoriza o A tabela 3 2 apresenta o m s a quantidade de acessos simult neos ao portal e a carga de processamento utilizada no computador que hospeda a aplica o M s Acessos Carga Simul Utili t neos zada 01 250 50 02 350 70 03 450 90 04 500 100 Tabela 3 2 Tabela Cen rio 1 Neste exemplo ap s o servidor atingir sua capacidade de processamento m xima em 4 meses caso seja poss vel ser necess rio realizar otimiza es na aplica o para continuar utilizando o mesmo servidor por mais tempo ou realizar um up grade na capacidade computacional do servidor Ap s atingir o limite t cnico de expans o do servidor dever ser adquirida uma m quina com mai
60. 309 VERSAO 0 6 P GINA 311 GUIA CLUSTER 13 3 3 ESCALONAMENTO dentre outros trabalhos 375 336 361 A arquitetura proposta baseada na id ia de produtor consumidor de eventos disparados pelos sensores que monitoram os recursos 376 Apesar da evolu o conceitual que a padroniza o pode introdu zir na rea de previs o de performance para sistemas distribu dos muito ainda tem que ser feito para se ter uma infraestrutura amplamente dispon vel A seguir descreveremos algumas situa es onde um servi o de previs o de de sempenho extremamente til bem como estrat gias eficientes de escalona mento de aplica o que n o dependem de informa o sobre os recursos do Grid nem da aplica o Aplica es Fortemente Acopladas Jacobi AppLesS 89 um exemplo interessante primeiro por ter introduzido a id ia de escalonamento de aplica es e tamb m por fornecer uma solu o de escalonamento para uma aplica o bem conhecida i e Jacobi Jacobi um m todo usado para resolver a aproxima o por diferen as finitas da equa o de Poisson e portanto aplic vel a problemas que envolvem fluxo de calor eletrost tica e gravita o Al m de ser interessante por si s Jacobi pode ser visto como uma inst ncia de uma importante classe de aplica es paralelas aplica es fortemente acopladas de paralelismo em dados Jacobi AppLeS um escalonador para Jacobi 2D Em Jacobi 2D o dom nio do pr
61. Chen and C Shahabi Wspds Web services peer to peer discovery dervice In Proc of International Symposium on Web Services and Applications ISWS 04 2004 A Baratloo P Dasgupta V Karamcheti and Zvi M Kedem Metacompu ting with MILAN In Heterogeneous Computing Workshop pages 169 183 1999 A Baratloo P Dasgupta and Z M Kedem CALYPSO A novel software system for fault tolerant parallel processing on distributed platforms In Proc of the Fourth IEEE International Symp on High Performance Distributed Computing HPDC 4 pages 122 129 1995 A Baratloo M Karaul Z M Kedem and P Wyckoff Charlotte Metacom puting on the web In Proc of the 9th International Conference on Parallel and Distributed Computing Systems PDCS 96 1996 A C Barbosa J Sauv W Cirne and M Carelli Independently auditing service level agreements in the grid In Proceedings of the 11th HP OpenView University Association Workshop HPOVUA 2004 2004 Jorge L V BARBOSA Princ pios do Holoparadigma CPGCC da UFRGS 1999 P GINA 396 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 81 P Barham B Dragovic K Fraser S Hand T Harris A Ho R Neugebar I Pratt and A Warfield Xen and the art of virtualization In Proceedings of the ACM Symposium on Operating Systems Principles SOSP October 2003 82 Alexander Barmouta and Rajkumar Buyya GridBank A Grid Accounting Services Architecture GASA for distributed systems
62. Ebling Punnet Kumar and Qi Lu Experience with disconnected opera tion in a mobile computing environment http www 2 cs cmu edu afs cs project coda Web docdir mobile93 pdf Ultima Visita em 20 09 2005 12 12 326 Michael F Schwartz A scalable non hierarchical resource discovery me chanism based on probabilistic protocols Technical Report CU CS 474 90 June 1990 327 G Shao R Wolski and F Berman Predicting the cost of redistribution in scheduling In Proceedings of the 8th SIAM Conference on Parallel Processing for Scientific Computing 1997 328 S Shepler B Callaghan D Robinson R Thurlow C Beame M Eisler and D Noveck Network file system nfs version 4 protocol http rfc ref org RFC TEXTS 3530 index html Ultima Visita em 20 09 2005 12 12 329 Ken Shirri The sprite operating system http www cs berkeley edu projects sprite sprite html Ultima Visita em 20 09 2005 12 12 330 David SKILLICORN Fundations of Parallel Programming Cambridge Uni versity Press 1994 331 Domenico SKILLICORN David B TALIA Models and languages for pa rallel computation ACM Computing Surveys 30 2 123 169 june 1998 332 Joseph D Sloan Ten tips for building your first high performance cluster http www linuxdevcenter com pub a linux 2004 12 29 Inxclstrs 10 html Ultima Visita em 20 05 2006 12 20 333 S Smallen H Casanova and F Berman Applying scheduling and tuning to on line parallel t
63. HI 22 10 06 0 6 Contribui o de Roberto Pi Na sess o de Armazenamento res de Carvalho mais traba Distribu do lhos da Equipe SLTI VERSAO 0 6 P GINA VIII GUIA CLUSTER Nota T cnica da Comiss o de Reda o Este Guia foi elaborado pela equipe da Ger ncia de Inova es Tecnol gicas GIT do Departamento de Integra o de Sistemas de Informa o DSI da Secretaria de Log stica e Tecnologia da Informa o SLTI do Minist rio do Planejamento Or amento e Gest o MP As diretrizes que comp em este documento t m como base as defini es do Go verno Eletr nico Brasileiro e respaldo legal no Sistema de Administra o dos Recursos de Informa o e Inform tica SISP institu do atrav s do DECRETO n 1 048 de 21 de janeiro de 1994 As orienta es t cnicas s o fundamentadas em pesquisadores brasileiros e nas principais tecnologias pertinentes aos ambientes de Cluster e Grid A tecnologia de Cluster e Grid embora recente possui um amplo acervo de ar quiteturas modelos ferramentas middlewares e aplicativos Esta Vers o Beta 0 6 aberta s contribui es da Comunidade Brasileira apresenta se com poss veis inconsist ncias t cnicas em especial desatualiza es ou imprecis es quanto ao estado da arte das solu es apresentadas que possuem din mica acelerada em seu desenvolvimento A equipe t cnica respons vel pela elabora o deste documento conta com a cola bora o da Com
64. Hardware 2 000022 2 eee B87 VERSAO 0 6 PAGINA XXXI Capitulo 1 Prefacio 1 1 Abrevia es e Terminologia Sempre que poss vel na primeira vez em que uma abrevia o for usada ser inclu da tamb m a vers o por extenso No Ap ndice E encontra se um gloss rio de termos t cnicos utilizados O Termo cluster utilizado neste documento se referindo as diversas implemen ta es de compartilhamento de recursos computacionais Tipicamente um clus ter utiliza os recursos de dois ou mais dispositivos de computa o em conjunto para um prop sito comum Exemplos de cluster s o Cluster de Processamento de Alto Desempenho ou HPC Cluster de Balanceamento de Carga e Alta Dispo nibilidade Cluster de Banco de Dados e Cluster de Armazenamento Um outro termo comumente usado o de aglomerado de computadores utilizado pela comu nidade acad mica brasileira Muitas vezes estes ambientes clusterizados s o constru dos a partir de compu tadores convencionais desktops ou seja v rios computadores comuns ligados em rede que se comunicam e trabalham como se fosse uma m quina de grande porte com capacidade de suportar um ambiente de grande demanda computaci onal lEstes dispositivos tamb m podem funcionar separadamente VERSAO 0 6 P GINA XXXII GUIA CLUSTER 1 2 PUBLICO Grid Computacional The Computational Grid uma rede na qual se conecta para obter Servi os Computacionais que agregam
65. Informatizados de Governo e que oportunamente poder ser acessada em http guialivre governoeletronico gov br ar VERSAO 0 6 P GINA 14 GUIA CLUSTER 2 2 3 AS DIRETRIZES DO GOVERNO ELETRONICO E O SOFTWARE LIVRE Assim com essas pol ticas de padroniza o o governo cria mecanismos para que os projetos em computa o distribu da entre os rg os do Governo possa ser constru do e se obtenham maiores vantagens das arquiteturas de Cluster e Grid Essas padroniza es j s o as bases para v rias tecnologias j existentes na rea que hoje s o maduras e utilizadas pela ind stria 2 2 3 As Diretrizes do Governo Eletr nico e o Software Livre As diretrizes do Programa Brasileiro de Governo Eletr nico demonstram que a Gest o do Conhecimento e o uso de Padr es Abertos e Software Livre s o ins trumentos estrat gicos de articula o e gest o de pol ticas p blicas porque possi bilitam a produ o compartilhada e colaborativa de conhecimento assegurando assim a habilidade de criar organizar e compartilhar solu es e conhecimentos estrat gicos para o Estado Brasileiro O Guia Livre Refer ncia de Migra o para Software Livre do governo federal documento norteador para a migra o e utiliza o de Software Livre na APF explicita os benef cios obtidos pelo Estado ao se optar por este tipo de tecnologia Como por exemplo Nesse cen rio a filosofia do Software Livre surge como oportunidade
66. OU Grid Computing Lab CN Walfredo Cirne para walfredo J o GRAM que executava em Dluehorizon sdsc edu mapeava C US O University of California San Diego OU Grid Computing Lab CN Walfredo Cirne para ul5595 Com a introdu o da especifica o OGSI a partir do Globus 3 0 novas quest es de seguran a tiveram que ser abordadas principalmente pela converg ncia com Web Services Ainda assim v rios padr es e especifica es que definem formatos para descri o de pol ticas de seguran a formatos para delega o de credencial e autentica o e estabelecimento de comunica o segura puderam ser aprovei tados no intuito de prover uma infraestrutura de seguran a para computa o em Grids baseada em componentes interoper veis 381 O objetivo principal do conjunto de servi os de seguran a Globus ilustrado na Figura 13 21 como a camada GT3 Security Services prover transpar ncia para os servi os das camadas de mais alto n vel com rela o infraestrutura de seguran a do Grid Descoberta e Aloca o de Recursos Como discutimos na Se o 13 3 3 Grids n o t m um escalonador que controla todo o sistema Assim sendo quando um usu rio submete uma aplica o para execu o no Grid o usu rio utiliza um escalonador de aplica o que escolhe os recursos a utilizar particiona o trabalho entre tais recursos e envia tarefas para os escalonadores dos recursos como ilustrado pela Figura 13 11 GRAM Globus
67. Resource Allocation Manager o servi o da arquitetura Globus que fornece uma interface uniforme para submiss o e controle de tarefas 133 escon dendo a multiplicidade de escalonadores de recursos dos demais servi os de Grid do escalonador de aplica es por exemplo Al m disso GRAM prov informa es sobre o status do recurso ao MDS o servi o Globus que fornece informa o sobre o Grid A Figura 13 18 permite um exame da arquitetura do GRAM que esclarece bastante sobre seus objetivos e funcionamento atrav s da identifica o dos tr s compo VERSAO 0 6 P GINA 328 GUIA CLUSTER 13 4 1 GLOBUS RAM Ch MDS client API calls GRAM Client to locate resources MDS Update MDS with GRAM client API calls resource state to request resource allocation information and process creation _ 7 Site boundary E a GRAM Reporter Query current status Gatekeeper of resource Local Resource Manager Authentication Y Allocate amp Globus Security create processes Infrastructure Parse E Peed control x Process RSL Library Process Figura 13 18 Arquitetura do GRAM 133 Job Manager nentes do GRAM Gatekeeper Job Manager e GRAM Reporter bem como componen tes externos que interagem com 0 GRAM O cliente GRAM aquele que o utiliza para submeter e controlar a execu o de tarefas Note que o cliente GRAM pode ser um escalonador de aplica o ou at o pr
68. Robert N Sidebotham and Michael J West Scale and performance in a distributed file system nttp www cs cmu edu afs cs project coda Web docdir sll pdf Ultima Visita em 20 09 2005 12 12 218 HPF High performance fortran http www crpc rice edu HPFF home html December 2003 219 J HUDAK P FASEL A Gentle Introduction to Haskell ACM SIGPLAN Notices 1992 220 M Humphrey G Wasson M Morgan and N Beekwilder An early evalu ation of wsrf and ws notification via wsrf net In Proc of the 5th IEEE ACM International Workshop on Grid Computing 2004 VERSAO 0 6 P GINA 408 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 221 k Hwang Advanced computer architecture parallelism scalability programma bility Mcgraw hill New York NY 1993 222 Kai HWANG Advanced Computer Architecture Parallelism Scalability Pro grammability McGraw Hill Inc 1993 223 Miguel Catalan i Cort El Manual para el Clustering con OpenMosix TLDP 2004 224 Adriana Iamnitchi and Ian Foster A peer to peer approach to resource lo cation in grid environments Grid Resource Management 2003 225 Adriana Iamnitchi Matei Ripeanu and Ian Foster Small world file sharing communities March 2004 226 Oscar H Ibarra and Chul E Kim Heuristic algorithms for scheduling in dependent tasks on nonidentical processors Journal of the ACM JACM 24 2 280 289 1977 227 IBM System management guide Communications and ne
69. S Balanceament carga de de Link de backup Balanceament carga Switch Switch ES LA Armazenagem CA Armazenagem Switch Switch Figura 3 4 Esquema do modelo de cluster proposto VERSAO 0 6 P GINA 56 GUIA CLUSTER 3 4 6 CONSIDERACOES SOBRE A ARQUITETURA 3 4 6 Considera es sobre a arquitetura Esta arquitetura foi pensada para que fosse o mais geral e modular poss vel al guns exemplos de utiliza o desta arquitetura podem ser e Implementa o da camada de aplica o atrav s de tecnologias de cluster Implementa o da camada de banco de dados atrav s de uma m quina RISC de grande Porte Implementa o da camada de armazenamento em Cluster e Implementa o da camada de aplica o atrav s de m quina RISC grande porte e ou Mainframe Implementa o da camada de banco de dados em Cluster Implementa o da camada de armazenamento atrav s do uso de Storage Externo e Implementa o da camada de aplica o banco de dados e armazenamento em Cluster VERSAO 0 6 P GINA 57 Capitulo 4 Visao G
70. Sendo assim o nome Beowulf acaba sendo a descri o de ambientes de clusters de processamento paralelo frequentemente encontrado Existem v rias distribui es e solu es em software livre e aberto para esses ambientes Pode se citar como exemplos de solu es desenvolvidas para a cria o de ambientes Beowulf Oscar Rocks Xcat j citadas na sess o 4 3 1 Al m das solu es que facilitam a instala o e configura o deste ambiente exis tem outras ferramentas de suporte a este ambiente como ferramentas para o mo nitoramento controle e execu o de tarefas nos n s 10 2 Sistema de Imagem nica SSI Sistema de Imagem nica SSI s o m todos utilizados para se esconder com plexidade dos sistemas distribu dos permitindo que os mesmos pare am uma nica m quina ao usu rio fazendo com que fatores como a heterogeneidade do hardware implementado n o seja problema para o seu funcionamento e quest es como a ger ncia e utiliza o efetiva dos recursos sejam facilmente solucionadas dando a vis o de uma m quina nica parecendo ser uma m quina SMP s que na verdade utilizando se de um ambiente de rede distribu do constru dos de v rias m quinas 101 Em clusters o SSI auxilia tanto na escalabilidade quanto na disponibilidade Os recursos de um cluster SSI s o a soma dos recursos dispon veis no cluster assim o sistema visto como um nico recurso a adi o ou subtra o de alguns des ses recur
71. VERSAO 0 6 P GINA 329 GUIA CLUSTER 13 4 1 GLOBUS s o enviadas para GRAMS que as traduzem para escalonadores de recurso locais Portanto o trabalho de um escalonador de aplica o em Globus pode ser descrito como sendo o de refinar solicita es RSL A Figura 13 19 ilustra este processo no Globus 2 0 Note que Globus usa o termo broker para o que chamamos de escalonador de aplica o RSL specialization Information Service pore i Queres Application amp Info ae A Ground N os a RSI N 3 s Eu Co allocator pround RSL cat i i Local GRAM GRAM GRAM resource PE managers __LSF EASY LL NQE Figura 13 19 Delega o entre escalonadores de aplica o 133 Um componente importante para a execu o de aplica es fortemente acopla das o co alocador Co allocator O co alocador um escalonador de aplica o especializado em garantir que tarefas localizadas em m quinas distintas execu tem simultaneamente Em aplica es fortemente acopladas as tarefas precisam se comunicar para que a aplica o fa a progresso Portanto todas as tarefas da aplica o t m que ser executadas simultaneamente importante ressaltar que uma boa implementa o de co aloca o depende da implementa o por parte dos escalonadores de recurso do servi o de reservas pr vias advance reservation Reservas pr vias permitem a escalonadores de aplica o obter garantias de
72. a democratiza o do processo decis rio e para uma maior efetividade da a o governamental Neste ambiente de transforma es o Governo Eletr nico pretende ser um agente democr tico estrat gico socialmente justo e ao mesmo tempo efici ente na presta o de servi os aos seus cidad os Vide s tio do Governo Ele tr nico 6 Com a preocupa o de melhor adequar o Pais a esse cen rio foram criados por meio de decreto de 29 de outubro de 2003 comit s t cnicos espec ficos no mbito do Comit Executivo do Governo Eletr nico Implementa o do Software Livre Inclus o Digital Integra o de Sistemas Sistemas Legados e Licen as de Soft ware Gest o de S tios e Servi os On Line Infra Estrutura de Rede Governo para Governo G2G Gest o de Conhecimento e Informa o Estrat gica VERSAO 0 6 P GINA 9 GUIA CLUSTER 2 2 1 DIRETRIZES DO GOVERNO ELETRONICO BRASILEIRO Segundo o sitio do Governo Eletr nico 6 as principais linhas de a o do Poder Executivo Federal em tecnologia da informa o e comunica o est o estrutura das caminhando em dire o a um governo eletr nico que procura promover a universaliza o do acesso aos servi os a transpar ncia das suas a es a integra o de redes e o alto desempenho dos seus sistemas Neste sentido o governo vem atuando em tr s frentes fundamentais a intera o com o cidad o a melhoria da sua pr pria gest o interna e a integra o c
73. aberto largamente utili zado em cluster de grande porte O projeto tenta prover um sistemas de arquivos para um cluster de dezenas de milhares de n s e pentabytes de capacidade de armazenamento sem comprometer a estabilidade e a seguran a Cada arquivo armazenado em um sistema de arquivos Lustre considerado um objeto Lustre apresenta a todos os clientes uma sem ntica POSIX padr o e acesso de leitura e escrita concorrente aos objetos compartilhados Um sistema de arqui vos Lustre tem quatro unidades funcionais um Servidor de Meta dados MDS para armazenar os meta dados um Armazenador de Alvos de Objeto OST para armazenar os dados atuais um Servidor de Objetos Armazenados OSS para ad ministrar o OSTs e cliente s para acessar e o usar os dados OSTs s o baseados em dispositivos de blocos Um MDS OSS e um OST podem estar no mesmo n ou em n s diferentes Lustre n o fala diretamente e n o administra OSTs ele ape nas delega esta responsabilidade a OSSs para assegurar escalabilidade a grandes clusters e supercomputadores VERSAO 0 6 P GINA 160 GUIA CLUSTER 7 4 SISTEMAS DE ARQUIVOS PARALELOS 7 4 Sistemas de Arquivos Paralelos Sistemas de arquivos paralelos s o SADs projetados para proporcionar alto de sempenho sob grande demanda e concorr ncia de acesso Como essa n o uma tarefa f cil os projetistas acabam n o se preocupando tanto com a transpar n cia no acesso a seguran a ou mesmo a qualidade
74. acordos de compartilhamento sofisticados n o s o mais necess rios Recursos s o comprados e vendidos de forma independente sem um supervisor onisciente do mercado Desta forma entidades podem decidir independente mente quando comprar ou vender recursos Inicialmente a moeda utilizada ser provavelmente algum dinheiro virtual que daria apenas poder de compra de re cursos computacionais Entretanto razo vel imaginar que o c mbio entre este dinheiro virtual e dinheiro real logo se torne poss vel incentivando a cria o de empresas que forne am servi os computacionais sob demanda importante destacar tr s elementos que formam a base desta economia pro vedores de servi os consumidores de servi os e os servi os propriamente ditos Note que provedor e consumidor s o pap is que podem ser assumidos concor rentemente Abaixo listamos e discutimos brevemente alguns modelos econ mi cos 99 e Commodity Market Provedores divulgam de forma competitiva seus servi os e os respectivos pre os Consumidores decidem baseado no custo be nef cio qual provedor ir o contratar e Posted Price Market Model Muito similar ao Commodity Market a diferen a consiste no tempo que dura a oferta de pre os feita pelos provedores Nesse caso as ofertas duram mais tempo e Bargaining Model Provedores e consumidores negociam pre os dos servi os onde cada um tenta maximizar o resultado de acordo com seus ob jetivos Neste
75. b sica criar um ambiente isolado que no caso de ser comprometido n o prejudique o funcionamento do recurso Uma abordagem comum a utiliza o de virtualiza o 241 324 81 Uma das abordagens implementada pelo Jail 241 324 que surgiu para prover maior flexibilidade no gerenciamento de sistemas FreeBSD A id ia que o es quema de autoriza o cl ssico do Unix pouco sofisticado para situa es onde h uma demanda por uma granularidade mais fina nos n veis de permiss es so bre o recursos Essa estrat gia funciona atrav s do confinamento de um processo e seus descendentes em uma rea i e jail nesta rea o processo s pode acessar outros processos sistemas de arquivo e recursos de rede que se encontram na mesma parti o Uma parti o criada atrav s da invoca o chamada de sistema jail Al m disso o escopo do sistema de arquivos vis vel pelo processo confinado utili zando a chamada de sistema chroot Esta chamada foi modificada para corrigir vulnerabilidades que n o permitiam a redu o da visibilidade do processo com rela o aos sistema de arquivos 241 Note que n o estamos tratando de parti o necessariamente no que se refere ao sistema de arquivos A parti o ou jail na qual o processo dever estar con finado composta de um ambiente com sistema de arquivos processos e rede isolados de outros processos Uma das vantagens do Jail que um usu rio pode interagi
76. balanceamento de carga configur vel pelo par me tro load balance mode no arquivo de configura o as consultas SE LECT s o distribu das entre o n master e o slave de maneira aleat ria para aumentar performance E importante notar que mesmo instru es SELECT podem introduzir al tera es em bancos chamando fun es que podem modifica los Em casos como este n o se deve usar o balancemanto de carga sendo necess rio se usar espa os em branco antes da query para que ela n o seja distribu da Eis uma lista de vantagens no uso do pgpool N o necess rio modifica es na aplica o Qualquer linguagem pode ser usada On mero de conex es com o PostgreSQL pode ser limitado VERSAO 0 6 P GINA 203 GUIA CLUSTER 9 3 1 PGPOOL Toler ncia a falhas Caso ocorra falha em um servidor PostgreSQL o outro assume automaticamente Replica o Balanceamento de carga consultas somente leitura podem ser distribu das entre os servidores Desvantagens Sobrecarga Todos os acesso ao PostgreSQL passam pelo pgpool o que pode reduzir um pouco a performance de 1 a 15 de acordo com os de senvolvedor em testes feitos com pgbench Nem todos protocolos da libpq s o suportados 1 Nenhum m todo de autentica o exceto trust e clear text pas sword em modo de replica o mom 2 Em modo n o replicado s s o aceitos trust clear text passwo
77. banco de dados paralelos como Oracle Parallel Server ou Middle R Isto significa que consultas de leitura e escrita s o enviadas apenas para backends ativos o banco de dados paralelo respons vel por manter a consist ncia entre os backends A defini o do ele mento ParallelDB lt ELEMENT ParallelDB ParallelDB RoundRobin ParallelDB LeastPendingRequestsFirst gt lt ELEMENT ParallelDB RoundRobin EMPTY gt lt ELEMENT ParallelDB LeastPendingRequestsFirst EMPTY gt Nenhum ajuste espec fico requerido para estes balanceadores de carga N o re querem an lise de requisi es o que significa que as requisi es s o apenas repas sadas para os backends regras de reescritas ainda s o aplicadas mas nenhuma transforma o autom tica realizada Balanceamento de carga RAIDb 0 O balanceador de carga RAIDb 0 aceita po l tica para especificar onde novas tabelas ser o criadas A defini o do elemento RAIDb 0 dada por lt ELEMENT RAIDb O MacroHandling CreateTablex gt lt ELEMENT CreateTable BackendNamex gt lt ATTLIST CreateTable tableName CDATA IMPLIED policy random roundRobin all REQUIRED numberOfNodes CDATA REQUIRED VERSAO 0 6 PAGINA 224 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA lt BackendName simply identifies a backend by its logical name gt lt ELEMENT Back
78. bilidade influenciada pelos seguintes fatores Comunica es a otimiza o das comunica es depende de como ocorre a aloca o autom tica das threads aos processadores tendo em vista as caracter sticas da rede de interconex o topolo gia largura de banda etc VERSAO 0 6 P GINA 267 GUIA CLUSTER 11 3 4 MODELOS COM ASSINALAMENTO DECOMPOSI O E MAPEAMENTO DO PARALELISMO EXPL CITOS Sincroniza o o custo total introduzido pelas barreiras de sincroniza o entre cada fase de execu o depende da natureza do problema e do algoritmo utili zado sua granulosidade possibilidade de ser particionado em partes homog neas etc Por outro lado um ponto forte do modelo BSP a exist ncia de medida de custo atrav s da qual poss vel obter o custo real de execu o de um programa para qualquer arquitetura desde que sejam conhecidos os par metros e g para a mesma A vers o corrente do BSP trabalha com uma biblioteca SPMD Simple Program Multiple Data que fornece opera es para colocar dados na mem ria remota de outro processo para receber dados de um processo remoto e para sincroniza o pode ser utilizada a partir de C ou FORTRAN 11 3 4 Modelos com Assinalamento Decomposi o e Mapea mento do Paralelismo Expl citos Nestes modelos o programador al m de dividir o programa em partes tem a in cumb ncia de avaliar qual o melhor processador para cada parte Uma vez que a proximida
79. bui o de vers o alterada do software O tamandu um servi o web de minera o de dados possui uma arquitetura escalar modular e realizar o processamento da minera o atrav s de algoritmos de processamento paralelo baseados na Bi blioteca de Processamento paralelo PVM Maiores informa es sobre o software de minera o tamandu podem ser encon tradas na p gina oficial do projeto http tamandua speed dcc ufmg br Cen rio 3 Processamento de Alto Desempenho Aplica es que demandam uma grande quantidade de recurso de processamento podem obter ganhos expressivos se utilizarem paradigmas de programa o pa ralela e sistemas de distribui o do processamento em Cluster Alguns exemplos s o aplica es de processamento cient fico simula es an lises e compara es de dados informa es entre outras Atualmente existem dois principais tipos de cluster para processamento de alto desempenho sendo que cada um possui suas pr prias caracter sticas e Bibliotecas de Programa o Paralela Neste tipo de cluster de processa mento de alto desempenho necess rio adaptar o software para utilizar as bibliotecas de programa o paralela que comp em o cluster As bibliotecas mais utilizadas s o o MPI e o PVM N o simples portar aplica es exis tentes para utilizar este tipo de cluster pois a l gica computacional normal mente utilizada no desenvolvimento de sistemas ou aplica es sequenc
80. caso contr rio uma mensagem de erro enviada em resposta a requisi o A figura9 6 mostra um exemplo da configura o RAIDb 1 SQL requests Full DB Full DB Full DB Full DB Full DB Figura 9 6 Exemplo de RAIDb 1 RAIDb 2 RAIDb 2 a combina o de RAIDb 0 e RAIDb 1 provendo replica o parcial para diminuir a degrada o no processo de replica o de cada tabela do banco de dados e obtendo melhores resultados de leitura e escrita Este mo delo requer que cada tabela esteja dispon vel em pelo menos 2 n s Tamb m im plementa verifica o de erro como RAIDb lec Opera com um m nimo de 4 n s sendo que 3 deles configuram quorum para resposta A escolha dos n s tamb m mais complexa que em RAIDb lec dada a possibilidade de replica o parcial embora esta caracter stica garanta uma melhor performance A figura9 7 mostra um exemplo desta configura o VERSAO 0 6 P GINA 220 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA SQL requests Full DB table x table y tablex amp y table z Figura 9 7 Exemplo de RAIDb 2 N veis de RAIDb aninhados poss vel usar v rios n veis de RAIDb ao mesmo tempo para se configurar grandes sistemas ou atender necessidades espec ficas Um controlador RAIDb escala um n mero limitado de bancos de dados entre tanto pode se cascatear v rios controladores para disponibilizar mais backends Em principio n o h limite para a profundidade do aninhamento de RAIDb RAID
81. cializar um pequeno segmento de dados e se anexar ao processo principal Essa t cnica tamb m chamada de LightWeight Process ou LWP oferece uma nova maneira de multiprocessamento usando o m nimo poss vel de mem ria O apa che servidor WEB utiliza threads para aumentar a velocidade de suas tarefas de forma a permitir aumentar o n mero de hits sem afetar sua performance O Migshm um patch DSM Distributed Shared Memory para o openMosix Ele permite a migra o de processos que utilizam mem ria compartilhada no openMosix tais como o apache entre outros Checkpointing uma t cnica que prov a possibilidade de se salvar contex tos de processos em um arquivo de disco e dar um restore dos processos a partir do arquivo Logo processos que tenham sofrido checkpointing e que sejam reiniciados posteriormente deveriam funcionar como se n o tivessem sido inter rompidos Essa funcionalidade til para tarefas que possuam longos per odos de execu o como simula es num ricas no caso de instabilidade de sistema falhas de energia reboot s etc Checkpointing costuma ser um servi o de sis temas operacionais avan ados de clustering O CHPOX Checkpointer for Linux um m dulo do kernel Linux que prov checkpointing de processos Ele foi criado por Olexander O Sudakov e Eu geny S Meshcheryakov no Information and Computing Center National Taras Shevchenko University Kyiv Ucr nia O CHPOX usa
82. clientes requerem privacidade no tratamento dos seus dados enviados para os servi os Desta forma desej vel que apenas o cliente e o servi o que recebe os dados tenham acesso a eles V rias aplica es necessitam esse n vel de privacidade Garantir esse aspecto algo desafiador em um ambiente amplamente distribu do e din mico como o Grid A necessidade de prote o dos dados existe por dois motivos O primeiro se re fere a possibilidade de acesso n o autorizado a informa es confidenciais O se gundo aspectos est relacionado a possibilidade de sabotagem onde outra apli ca o modifica os dados a serem processados a fim de manipular os resultados que ser o obtidos com aquela computa o A Entropia 30 prov mecanismos de criptografia para garantir a seguran a dos dados da aplica o nos recursos do Grid Assim apenas o propriet rio do dado armazenado poder acessar e manipular os dados usando sua chave de cripto grafia 114 O problema que poss vel que algu m possa modificar o c digo da Entropia para obter as chaves armazenadas por eles Assim ainda existem muitos problemas em aberto nessa rea Hoje institui es que necessitam de um servi o de execu o distribu do e t m como requisito prin cipal privacidade n o utilizam uma infraestrutura t o dispersa quanto o Grid Essas aplica es executam em ambientes controlados e propriet rios onde a pri VERSAO 0 6 P GINA 289 GUIA CLUST
83. computer systems Electrotechnical Review 59 5 292 298 December 1992 343 B Sotomayor Globus toolkit 3 tutorial http gdp globus org gt3 tutorial 2004 344 E STERLING L SHAPIRO The Art of Prolog 2a Ed Cambridge MIT Press 1994 345 J Stiles T Bartol E Salpeter and M Salpeter Monte carlo simulation of neuromuscular transmitter release using mcell a general simulator of cellular physiological processes Computational Neuroscience 1998 346 James Surowiecki The Wisdom of Crowds Why the Many Are Smarter Than the Few and How Collective Wisdom Shapes Business Economies Societies and Nations Doubleday May 2004 347 D Talia Parallelism in knowledge discovery techniques Springer verlag Berlin 2367 127 136 2002 348 Siew Joo Tan Survey reveals web services are fulfilling their promises In Yakee Group Report September 2004 VERSAO 0 6 P GINA 419 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 349 Andrew S Tanenbaum Modern Operating Systems Prentice Hall 1992 350 Albert S TANENBAUM Andrew S WOODHULL Sistemas operaci onais projeto e implementa o Bookman 1999 351 Maarten Van TANENBAUM Andrew S STEEN Distributed sys tems principles and paradigms Prentice Hall 2002 352 PVFS2 Development Team Parallel virtual file system version 2 http www pvfs org pvfs2 pvfs2 guide html Ultima Visita em 20 09 2005 12 12 353 TechFest Ethernet technical sum
84. comunidade cient fica e da ind stria por arquiteturas orientadas a servi os bem como o cres cimento de esfor os nessa rea se deve em grande parte pelo sucesso e amplo uso de Web Services 168 348 Portanto poss vel citar v rias tecnologias anteriores a Web Services que em sua ess ncia forneciam mecanismos para a cria o de arquiteturas baseadas em servi os Por exemplo em um sentido amplo podemos considerar CORBA 35 VERSAO 0 6 P GINA 282 GUIA CLUSTER 13 2 1 ACESSO A SERVICOS e RMI Remote Method Invocation 21 como tecnologias que permitem a constru o de infraestruturas de computa o distribu da baseadas em servi os Todavia aspectos como a ampla dispers o de recursos falta de controle central e vasta diversidade de clientes as quais s o caracter sticas intr nsecas dos Grids intro duzem um requisito que se torna fundamental interoperabilidade Em RMI o provedor do servi o um objeto remoto requer invariavelmente que seu cliente n o s seja Java como tamb m conhe a antecipadamente em tempo de compila o qual sua interface Para tornar um servi o acess vel o prove dor deve registr lo no RMI registry 21 O servi o identificado e inclu do em um cat logo mantido pelo registro Do outro lado o cliente usa uma URL para acessar o registro e obter uma refer ncia para um dos servi os publicados em seu cat logo O acesso ao servi o feito usando a refer ncia obti
85. conjuntos de opera es devem fornecer destrui o expl cita de servi os como tamb m garbage collection destrui o impl cita do servi o e Conjunto de opera es para cria o e uso de cole es de Web Services por refer ncia e Mecanismos que permitam notifica o ass ncrona caso haja mudan a em valores dos elementos de dados dos servi os O Globus Toolkit 3 0 GT3 181 forneceu a primeira implementa o da OGSI 1 0 em julho de 2003 No intuito de esclarecer melhor o papel de OGSA OGSI e Glo bus Figura 13 6 ilustra como essas entidades se relacionam formando um cen rio de padr es e implementa es de tecnologias para Grids de Servi o ossi IN o Defines and specifies is based on implements Grid Service extension of Standard interoperable technologies Web Service XML WSDL SOAP Figura 13 6 Relacionamento entre OGSA OGSI e Globus 343 Note portanto que Grid Service um conceito central no relacionamento destas tecnologias e padr es Assim OGSA define Grid Services OGSI especifica o com portamento de Grid Services Web Services s o estendidos para se tornar Grid Services e Globus 3 implementa a especifica o OGSI Al m disso Globus prov VERSAO 0 6 P GINA 300 GUIA CLUSTER 13 2 7 PADRONIZA O servi os b sicos necess rios para a constru o de servi os de mais alto n vel e g servi os de autentica o via GSI WSRF Globus 4 x Uma
86. consequ ncia desta caracter stica a possibilidade de utilizar o software sequencial j existente praticamente sem nenhuma modifica o Deste modo o paralelismo al m de ser utilizado para melhorar o desempenho de um deter minado programa tamb m pode ser empregado para executar simultaneamente diversos programas sequenciais do usu rio Como a mem ria um recurso compartilhado para que a mesma n o se trans forme em um ponto de estrangulamento da opera o da arquitetura o n mero de processadores varia tipicamente entre 4 e 20 Uma estrat gia para aumentar o desempenho do sistema de mem ria comparti lhada o uso de uma mem ria cache entre o processador e a mem ria comum A busca de um sistema eficiente para manuten o da coer ncia de mem ria neste tipo de arquitetura um tema complexo e originou diversos trabalhos de pes quisa A utiliza o destes sistemas tr s v rios aspectos positivos como Abstra o da localidade do processador neste tipo de arquitetura o programa VERSAO 0 6 P GINA 85 GUIA CLUSTER 6 1 1 A CLASSIFICA O DE FLYNN PARA ARQUITETURAS DE COMPUTADORES dor pode abstrair a localidade do processador Deste modo a troca de mensagens sincronizada por um mecanismo de escrita em vari veis comuns Como a me m ria fisicamente compartilhada isto pode ser feito com elevado desempenho via de regra maior que os obtidos com as pol ticas de DSM Distributed Shared Memory
87. container EJB acessar transparente mente um cluster de banco de dados atrav s de JDBC N o necess rio mo dificar aplica es clientes aplica es servidoras ou servidor de banco de dados Basta apenas que os banco de dados sejam acessados pelo Sequoia Sequoia um projeto livre de c digo aberto continua o do projeto C JDBC http c jdbc obejctweb org hospedado pelo projeto ObjectWeb Con sortium http www objectweb org Sequoia liberado sob a licen a Apache v2 www apache org licenses LICENSE 2 0 htm1 enquanto C JDBC esta sob GNU Lesser General Public License http www gnu org copyleft lesser html LGPL Sequoia tamb m prov driver para aplica es n o escritas em Java O desenvol vimento do driver est na p gina do projeto Carob carob continuent org Um plug in Eclipse pare Sequoia est dispon vel na p gina do projeto Oak oak continuent org O que eu preciso para usar Sequoia Para se usar Sequoia necess rio o que se segue uma aplica o cliente que acesse um banco de dados atrav s de JDBC uma m quina virtual Java compilada para JOK 1 4 ou mais recente um banco de dados com driver JDBC tipo 1 2 3 ou 4 ou um driver ODBC para ser usado com JDBC ODBC bridge comunica o de rede com suporte a TCP IP entre os n s do cluster Nota Se sua aplica o cliente n o suporta JDBC voc pode usar a API C ou o driver ODBC disponibiliz
88. dado para uma consulta futura Cliente 1 Cliente 2 Cliente 3 Servidor DNS ZEO Server ZEO Server ZEO Server servidorl servidor servidor3 Figura 8 8 DNS round robin O DNS round robin uma maneira de se resolver um nome para v rios endere os IP fazendo uso do servidor de DNS para realizar a fun o de balanceamento de carga sem o uso de uma m quina dedicada para isso O servidor DNS resolve www dominiozope com por exemplo para os endere os IP de ZEO Server1 ZEO server2 e ZEO server3 para os clientes 1 2 e 3 respectivamente Outra solu o o uso de balanceamento de carga din mico tamb m tratado como roteador de camada 4 Neste caso um endere o especifico resolvido para apenas um IP que pertence ao roteador que por sua vez transparentemente redi VERSAO 0 6 P GINA 193 GUIA CLUSTER 8 4 ZOPE CLUSTER reciona as conex es para um grupo de servidores em cluster Preferencialmente estes servidores possuem a capacidade de informar sobre sua carga de trabalho ao roteador que depois de obter essa informa o decide a qual servidor enviar uma nova requisi o Uma solu o em software muito utilizada para isso o LVS parte integrante do kernel Linux que o transforma em um switch de camada 4 O outro problema da arquitetura de cluster Zope a falta de redund ncia nativa do servidor de armazenamento Uma maneira de se retirar esse ponto de falha al m do uso de hardware especializado o uso c
89. dados Este tipo de n armazena os dados do cluster H tantos n s de dados quantas r plicas vezes o n mero de fragmentos N SQL Este n acessa os dados do cluster um servidor MySQL tradi cional que usa a engine de armazenamento NDB Num ambiente real de produ o a configura o com tr s n s n o inclui redund ncia Para se beneficiar das propriedades de alta disponibilidade do MySQL Cluster recomend vel se usar m ltiplos n s de gerenciamento dados e SQL 9 5 Middlewares independentes de Banco de Dados 9 5 1 Middleware Sequoia Os dados aqui apresentados sobre o Sequoia tem como refer ncia a documen ta o User Guide traduzida pela equipe do Minist rio do Planejamento que pode ser obtida no endere o http guialivre governoeletronico gov br guiacluster Em muitos contextos um n geralmente uma m quina mas em MySQL cluster n um processo sendo poss vel rodar qualquer n mero de n s em uma nica m quina 3No contexto do MySQL Cluster fragmento uma parte de um banco de dados uma tabela dividida entre v rios n s para facilitar balanceamento de carga entre as m quinas e n s Cada fragmento armazenado como r plicas em outros n s para prover redund ncia VERSAO 0 6 P GINA 214 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA O que Sequoia Z Sequoia um middleware de cluster que permite a qualquer aplica o Java aplica o standalone servlet ou
90. dados vide figura 6 2 Os equipamentos que implementam este tipo de arquitetura tamb m s o conhecidos como multicomputadores 128 250 A rede de interconex o vide item 6 6 2 cr tica para o desempenho deste tipo de equipamento As diversas possibilidades de implementa o da rede de interco nex o topologia lat ncia conten o etc neste tipo de arquitetura constituem um dos aspectos respons veis pela falta de padr o no mercado de arquiteturas paralelas A configura o deste tipo de arquitetura vari vel O n mero de processadores por exemplo pode oscilar da casa das dezenas a alguns milhares Em alguns casos o crescimento ocorre em pot ncias de 2 16 32 64 128 etc vide item 6 6 3 Principais aspectos positivos Tecnologia de compila o uma vez que cada n da arquitetura uma unidade de processamento aut noma poss vel aproveitar toda esta tecnologia de com pila o dispon vel para programa o sequencial agregando mesma os recursos de uma biblioteca para troca de mensagens entre os n s processadores S o pro postas usuais que utilizando desta premissa exploram conhecidas linguagens sequenciais como C ou FORTRAN para programa o paralela Possibilidade de emular outras arquiteturas resguardadas as restri es ineren tes ao desempenho poss vel arquitetura de mem ria distribu da emular ou tros paradigmas de controle e de organiza o de mem ria Uma possibili
91. das dos equipamentos de grande porte mainframes tradicionais Nas arquiteturas com um nico processador o usu rio no momento do crescimento da plataforma precisa prever sua demanda no m nimo a m dio prazo Isto leva a um cresci mento feito aos saltos Logo ap s a expans o comum a instala o como um todo apresentar uma rela o custo benef cio ruim Essa rela o pode ser vista na figura 5 1 7 que mostra a escalada dos custos ao longo do tempo para as duas plataformas alta plataforma mainframe e baixa plataforma cluster e maquinas padr es de mercado em rela o a capacidade de carga do sistema Pode se ver nessa figura claramente os saltos dados pelo execesso de capacidade de processa mento O arco cinza escuro na figura 5 1 7 mostra a demanda de processamento VERSAO 0 6 P GINA 76 GUIA CLUSTER 5 1 7 CRESCIMENTO MODULAR ao longo do tempo a linha vermelha mostra a linha de crescimento de custos C1 para o ambiente em baixa plataforma e por ultimo os degrais cinza claro C2 mostram o crescimentode custos para a plataforma alta Carga Figura 5 1 Rela o Carga X Custo de investimento para plataforma Baixa X Alta Tanto para o fornecedor quanto para o usu rio muito oportuno que a arqui tetura possa ser expandida gradualmente atrav s da adi o de m dulos Esta possibilidade permite uma melhor adequa o da curva investimentos amp produti vidade uma vez que o equipamento poder cresce
92. data bank Nucleic Acids Rese arch 28 235 242 2000 VERSAO 0 6 PAGINA 397 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 92 93 94 95 96 97 98 99 100 101 102 VERSAO 0 6 J Bester I Foster C Kesselman J Tedesco and S Tuecke Gass A data movement and access service for wide area computing systems In Sixth Workshop on I O in Parallel and Distributed Systems May 1999 Ranjita Bhagwan Stefan Savage and Geoffrey M Voelker Understanding availability In Proceedings of the 2nd International Workshop on Peer to Peer Systems 2003 W J Bolosky J R Douceur D Ely and M Theimer Feasibility of a ser verless distributed file system deployed on an existing set of desktop pcs In Proceedings of the International Conference on Measurement and Modeling of Computer Systems pages 34 43 2000 G Booch Object Oriented Design The Benjamin Cummings Publishing Company Inc 1st edition 1991 M BRIAT J FAVRE In Computer Science editor Parallel Architectures and Languages Europe volume 506 chapter Scheduling of OR parallel Prolog on a scalable reconfigurable distributed memory multiprocessor Springer Verlang 1991 Rachid BRIOT Jean Pierre GUERRAOUI Concurrency and distribution in object oriented programming ACM Computing Surveys 30 3 291 329 september 1998 R Buyya D Abramson and J Giddy An economy driven resource mana gement architecture for comp
93. de baixo custo comparativamente aos sistemas VERSAO 0 6 P GINA 126 GUIA CLUSTER 7 2 4 GLOBAL NETWORK BLOCK DEVICE GNBD dedicados de armazenamento como Storage Area Networks SAN Atualmente o DRBD garante acesso de leitura escrita apenas num servidor de cada vez o que suficiente para a implementa o de sistemas fail over t pico de um cluster HA Existe uma vers o de desenvolvimento 0 8 que garante acesso de leitura escrita para dois servidores entretanto esta vers o ainda n o est est vel suficiente para ser utilizada em ambientes de produ o As possibilidades de aplica o ser o m ltiplas como para servidores web ou banco de dados de larga escala onde operam sistemas de arquivos como o GFS ou OCFS2 por exemplo Para se utilizar a vers o de desenvolvimento do drbd 0 8 no modo Prim rio Prim rio necess rio utilizar um sistema de arquivos compartilhado como por exemplo os citados acima Somente um sistema de arquivos compar tilhado capaz de gerenciar o lock de acesso de maneira global ao sistema de arquivos garantindo a integridade dos dados N o se deve ser utilizado siste mas de arquivos comuns tais como xfs ext3 reiserfs neste modo de opera o do drbd 7 2 4 Global Network Block Device GNBD Projeto Global Network Block Device S tio Oficial http sources redhat com cluster gnbd Licen a GPL Respons vel eis Red Hat GNBD Global Network Block Devices 230
94. de banda la t ncia e compartilhamento e Heterogeneidade trata das diferen as entre os processadores que podem ser de velocidade e ou arquitetura e Compartilhamento versa sobre a possibilidade dos recursos usados por uma aplica o serem compartilhados por outras aplica es e Imagem do sistema se refere exist ncia de uma vis o nica da plataforma independente do processador sendo utilizado Por exemplo todos os pro cessadores da plataforma enxergam o mesmo sistema de arquivos e Escala estabelece quantos processadores tem a plataforma Entender as diferen as entre plataformas fundamental porque cada aplica o paralela tem uma s rie de requisitos que podem ser melhor ou pior atendidos por uma dada plataforma Em princ pio procuramos executar uma aplica o pa ralela em uma plataforma adequada s caracter sticas da aplica o Por exemplo considere conectividade um aspecto em que plataformas diferem consideravel mente Obviamente para obter boa performance de uma aplica o paralela cujas tarefas se comunicam e sincronizam frequentemente necessitamos utilizar uma plataforma de execu o com boa conectividade Podemos agrupar as plataformas de execu o hoje existentes em quatro grandes grupos SMPs MPPs NOWs e Grids SMPs ou multiprocessadores sim tricos s o m quinas em que v rios processadores compartilham a mesma mem ria Multiprocessadores possibilitam um fort ssimo acoplamento en
95. de explora o do paralelismo na programa o em l gica s o for temente ortogonais entre si isto significa que podem ser explorados simultanea mente sem que um comprometa o outro O paralelismo OU presente em programas com n o determinismo caracteriza se VERSAO 0 6 P GINA 262 GUIA CLUSTER 11 3 2 MODELOS COM ASSINALAMENTO DO PARALELISMO EXPL CITO por uma granulosidade mais elevada o que faculta sua explora o em m quinas de mem ria distribu da Por sua vez o paralelismo E pass vel de ser explorado praticamente em qualquer programa em l gica apresenta uma granulosidade pequena da a maioria dos modelos existentes serem orientados a equipamen tos de mem ria compartilhada baixo custo de comunica o KERGOMMEAUX 244 Os modelos para explora o do paralelismo na programa o em l gica de forma totalmente impl cita apresentam um elevado n vel de abstra o Este aspecto que lhes confere eleg ncia portabilidade e possibilidade de aproveitamento de toda cultura da programa o sequencial dispon vel tamb m dificulta a garantia de desempenho destes modelos frente diversidade das aplica es reais Por m importante ter presente que situa es de bom ganho de desempenho foram registradas Por sua vez a elevada din mica da programa o em l gica dificulta sobremaneira qualquer medida de custo A explora o do paralelismo na programa o em l gica se mostra promissora A maioria dos
96. de tarefas com um grande conjunto de carac ter sticas desenvolvidas especialmente para plataformas de computa o de alto desempenho HPC Ele usa pol ticas de escalonamento agressivas para otimi zar a utiliza o de recursos e minimizar o tempo de respostas execu o das tarefas job E simultaneamente prov ferramentas de controle administrati vas sobre os recursos e o volume de tarefas sendo executadas permitindo uma grande capacidade de configura o em diversas reas como prioriza o de ta refas sequenciamento aloca o distribui o de cargas e pol ticas de reserva de recursos Maui foi projetado com base em experi ncias coletivas dos maiores e mais avan ados centros de HPC do mundo Ele prove ferramentas que estes centros pre cisavam para controlar rastrear e otimizar o uso de seus recursos Uma cole o extensiva de estat sticas e ferramentas de perfil modo de teste de opera o e um avan ado simulador de caracter sticas que permite a checagem de ambientes de produ o para saber se todas as altera es de configura es foram completa mente feitas de forma segura VERSAO 0 6 P GINA 276 Capitulo 13 Grids Computacionais Resumo Grids Computacionais surgiram em meados da d cada de 90 com a promessa de viabilizar a execu o de aplica es paralelas em recursos geograficamente dispersos e pertencentes a m ltiplas organiza es Tal proposta tinha dois grandes apelos O primeiro era o d
97. de usu rio login e uma senha Contudo al m das GUMs que o usu rio tem acesso direto OurGrid permite e VERSAO 0 6 P GINA 339 GUIA CLUSTER 13 4 3 OURGRID promove a obten o de acesso a GUMs de outros sites isso ocorre atrav s de um OurGrid Peer local ao site do usu rio Este peer deve estar conectado rede de favores ver Figura 13 5 Assim para as GUMs obtidas da comunidade h uma autentica o em duas vias baseada em certificados digitais no formato X 509 A primeira parte da autentica o deve garantir que o usu rio tem permiss o para solicitar servi os s GUMS i e que a GuM conhece o usu rio que est requi sitando seus servi os A segunda parte deve garantir que o usu rio n o est solicitando servi os a uma falsa GUM Ou seja tanto o usu rio atrav s do bro ker quanto os peers da comunidade possuem uma lista de certificados que s o usadas para validar a tentativa de aceso Isso impede que usu rios n o autorizados pelo peer obtenham acesso aos servi os de descoberta de novas Grid Machines transfer ncia de arquivos execu o e gerenciamento do ciclo de vida de replicas fornecido pelas GUMs controladas por um dado peer Outro aspecto importante que atrav s da utiliza o de certificados a comunica o entre o MyGrid Broker o peer e as Grid Machines ser segura evitando que os dados sejam interceptados e manipulados durante a comunica o A segu ran a na comunica
98. desvantagem da virtualiza o nativa requerer que o convidado carregue m dulos que podem afetar a sua sustenta o Ainda existe uma certa limita o quanto ao n mero de sistemas operacionais convidados rodando eficientemente em uma VMM prov vel que com as novas tecnologias de virtualiza o nativa de X86 e X86 64 da Intel Vander Pool e da AMD Pacifica o alcance de melhoras nestes quesitos possam estar sendo alcan ados Times de ambas as empresas tem VERSAO 0 6 P GINA 353 GUIA CLUSTER 14 2 4 VIRTUALIZACAO NATIVA NO XEN colaborado com o projeto Xen o que pode trazer bons frutos para a ferramenta VERSAO 0 6 P GINA 354 Parte IV Ap ndices Ap ndice A Licen a CC GNU GPL creative Commons COMMON S D E E D Figura A 1 Creative Commons Licen a P blica Geral do GNU GPL General Public License Vers o 21 Junho de 1991 Direitos Autorais Reservados c 1989 1991 Free Software Foundation Inc 59 Temple Place Suite conjunto 330 Boston MA Massachu setts 02111 1307 USA Estados Unidos da Am rica permitido a qualquer pessoa copiar e distribuir c pias sem altera es deste documento de licen a sendo vedada entretanto qualquer modifica o Introdu o As licen as da maioria dos softwares s o elaboradas para suprimir sua liberdade de compartilh los e modific los A Licen a P blica Geral do GNU ao contr rio 1 Dispon vel em http creativecommons org li
99. deve ser entendida como Confidencialidade o acesso a informa o dever ser realizado t o so mente s entidades leg timas ou seja quelas autorizadas pelo propri et rio da informa o Integridade a informa o manipulada deve manter todas as carac ter sticas originais estabelecidas pelo propriet rio da informa o in cluindo controle de mudan as e garantia do seu ciclo de vida nasci mento manuten o e destrui o Disponibilidade a informa o deve estar sempre dispon vel para o uso leg timo ou seja por aqueles usu rios autorizados pelo propriet rio da informa o VERSAO 0 6 P GINA 43 GUIA CLUSTER 3 3 1 CEN RIOS DE APLICA O e Utiliza o de Padr es Abertos crescente necessidade de utiliza o de pa dr es abertos e comuns entre as diferentes arquiteturas de aplica es com o objetivo de facilitar a integra o de sistemas bases de dados e diminuir a depend ncia de tecnologias propriet rias A e ping define os padr es adotados recomendados e em transi o que dever o ser utilizados pelo go verno brasileiro e Ader ncia Legisla o sistemas e aplica es de governo necessariamente devem estar de acordo com a legisla o vigente no pa s A defini o de solu es tecnol gicas ou at mesmo a realiza o de uma an lise do ambiente computacional do governo complicada devido esta heterogenei dade e diversidade tecnol gica existente De
100. devolver ao registro original da consulta os resultados que ser o entregues ao executor da consulta Esta abor dagem foi originalmente adotada pelo servi o Trader do CORBA Ela aumenta a robustez toler ncia a falhas efici ncia e escalabilidade do servi o de descoberta A vers o 3 0 do UDDI j fornece suporte para m ltiplos registros e permite a for ma o das federa es Com o crescimento esperado do uso de Web Services e consequentemente do servi o UDDI este parece ser o caminho natural de evolu o do servi o de descoberta 13 2 3 Autentica o e Autoriza o Na Se o 13 2 1 descrevemos como ocorre o acesso a servi os usando v rias tec nologias para computa o distribu da importante ressaltar que apresentamos uma simplifica o da realidade Pois devido ampla distribui o e exist ncia de m ltiplos dom nios administrativos o acesso aos recursos que comp em um Grid n o t o simples Quando comparamos o Grid com outras plataformas fica claro que a ampla dis pers o de servi os e clientes cria a necessidade de um maior controle sobre o acesso aos servi os e recursos Por exemplo em uma rede local ao efetuar login no sistema o usu rio identificado e autenticado em geral para todos os recur sos conectados e servi os dispon veis na rede Pois normalmente se mant m um cadastro de usu rios que v lido para toda a rede J em Grids necess ria uma forma de acesso para ca
101. e melhoria de performance posto que as requisi es n o onerar o apenas uma fonte de dados Para se implementar a replica o em bancos de dados podem ser usados VERSAO 0 6 P GINA 200 GUIA CLUSTER 9 2 REPLICACAO DE BANCO DE DADOS dois m todos levando se em considera o a maneira como feita a propa ga o de uma atualiza o Uma primeira aproxima o chamada replica o s ncrona ou seja uma atualiza o modifica o fruto de uma opera o de UPDATE INSERT ou DELETE por exemplo s consumada se for realizada em todos os n s que comp em o sistema Isto significa que o cliente ter de esperar at que todas as inst ncias do banco de dados sejam modificadas para receber uma confirma o Por outro lado isto garante a integridade da informa o entre os n s A outra aproxima o realizar a atualiza o de maneira ass ncrona ou seja as modifica es s o difundidas entre os n s ap s ser consumada e uma res posta ser enviada ao cliente O tempo de resposta se comparado ao m todo anterior menor por m isto pode gerar inconsist ncias entre as replicas Uma maneira de se contornar estes problemas restringir as atualiza es a um nico n chamado c pia prim ria ou master o que impede que atu aliza es em um mesmo objeto sejam feitas em duas m quinas diferentes Todas as opera es de modifica o no banco ser o enviadas para esta m quina que cuidar de propagar as
102. e solu es para a implementa o de Cluster ou Grid Neste cen rio de portal ou aplica o web poder o ser utilizadas tecnologias de alta disponibilidade para garantir que o n vel de servi o exigido e Balancea mento de Carga para distribuir as requisi es dos usu rios entre os servidores Estas tecnologias podem ser utilizadas em conjunto ou separadamente de acordo com a necessidade da institui o Exemplos de possibilidade s o e Implementar somente um sistema de alta disponibilidade com duas m qui nas A capacidade de processamento dever ser suportada trivialmente por ape nas uma m quina Uma das tecnologias mais utilizadas nesta possibilidade o HeartBeat e Implementar somente um sistema de balanceamento de carga para v rias m quinas As requisi es dos usu rios ser balanceada entre as diversas m quinas Shttp www linux ha org VERSAO 0 6 PAGINA 46 GUIA CLUSTER 3 3 1 CEN RIOS DE APLICA O Entretanto um usu rio ir receber uma mensagem de erro caso sua re quisi o seja redirecionada para uma m quina defeituosa Uma tecnologia amplamente utilizada para balanceamento de carga o DNS Round Robin e Implementar um sistema de alta disponibilidade e de balanceamento de carga As requisi es de usu rios ser o distribu das em um conjunto de servidores e caso ocorra falha em algum dos servidores o mesmo n o receber mais requisi es de usu rios As tecnologias
103. em redes um dos gran des erros em projetos de clusters para qualquer que seja a sua finalidade acre ditar que o processamento ou alta capacidade de processamento baseado ape nas em computadores ou em seus processadores Um cluster tem de ser visto como um organismo completo onde cada pe a tem sua import ncia e pode ser o respons vel por um melhor desempenho do sistema globalmente E exatamente nesse aspecto que a rede de comunica es tem sua import ncia na hora de projetar o cluster A rede normalmente o gargalo de desempenho para clusters que utilizam hardware n o propriet rio ou hardware de prateleira Assim importante tomar cuidado e colocar a camada de rede como uma das partes de grande import ncia no projeto A cria o de camadas separadas para dados e para gerenciamento dos sistemas a poss vel utiliza o de v rias interfa ces de rede ou outras tecnologias de comunica o precisam ser avaliadas para as caracter sticas que se deseja obter Com os baixos pre os das placas Gigabit Ethernet a sua utiliza o vem se tornando frequente nesses tipos de sistemas Minimize mas n o sub dimensione seu hardware Ao especificar o hardware dos n s computacionais de um cluster h muita coisa a ser observada Dependendo do ambiente e do n mero de m quinas que o cluster ir conter decis es como utilizar ou n o HACKS ser o de grande import ncia assim como uma tend ncia em ambientes de grand
104. entre si tanto f sica quanto logicamente Assim existe um grande n mero de paradigmas de balanceamento de carga emergidos de dife rentes topologias de interconex o cada qual adaptado s caracter sticas do am biente computacional no qual foi concebido 6 4 Alta Disponibilidade Um sistema computacional composto por diversos componentes eletr nicos que podem falhar impedindo o acesso a informa o A crescente demanda por sistemas que possam deixar informa o dispon vel para ser acessada modifi cada armazenada pelo maior tempo poss vel levou fabricantes de hardware e desenvolvedores de software a pensarem em maneiras de como contornar esses problemas de paradas de sistemas sejam elas causadas por falhas internas cau sadas por mal funcionamento de hardware erros introduzidos por softwares ou outras raz es de natureza imprevis vel como interfer ncia magn tica ou mesmo paradas programadas para manuten o O conceito de alta disponibilidade caracterizado por um sistema desenhado para impedir perda de um servi o por ele disponibilizado reduzindo ou gerenci ando falhas mais detalhes em 6 2 2 bem como minimizando tempo de desliga mento planejado para manuten o Este conceito n o se resume a um software espec fico mas a um conjunto de VERSAO 0 6 P GINA 100 GUIA CLUSTER 6 5 BALANCEAMENTO DE CARGA Disponibilidade Downtime ano Downtime m s 95 18 dias 6 00 00 1 di
105. es calonadores de recurso que determinados recursos e g processadores estar o dispon veis para aplica o em um intervalo de tempo preestabelecido 338 A Figura 13 20 apresenta um exemplo da submiss o de uma aplica o em um Grid Globus Veja que um usu rio envia uma solicita o de executar uma simu la o interativa envolvendo 100 000 entidades para um escalonador de aplica o especializado em simula o interativa distribu da Tal escalonador converte a so VERSAO 0 6 P GINA 330 GUIA CLUSTER 13 4 1 GLOBUS want toruna a Supercomputers distributed paar DIS specific providing 100 Gflops e a il simulation involving broker 100 GB lt 100 msec Information 100 000 entities A latency N service N a N i a SA Pd a I want to perfom gt gt gt Supercomputer a parameter study Parameterstudy ns resource broker _ E Eers amp involving 10 000 specific broke E 4 separate trials A r 80 nodes on Argonne SP 256 nodes on CIT Exemplar I want to create a EE ET o des S 2 to create Collaborative X 300 nodes on NCSA 02000 shared virtual space a ds nos Porta ee environment specific EAA with participants X cuco ol 7 Sli Y and Z Has e Simultancous start co allocator Run SF Express 0 scores ps ae ig Y Run SF Express Run SF Express on 300 nodes a on 256 nodes Argonne gt cIT N NCSA resource
106. es envolvidas Seus Web Services est o dispon veis apenas a usu rios auto rizados Um exemplo de registros afiliados o de Web Services sendo utilizados por aplica es de empresas de uma holding Cada empresa poderia ter seu pr prio registro e eles juntos formarem um grupo de registros afiliados permitindo que as aplica es de cada empresa localizasse os servi os umas das outras H ainda os registros p blicos que como o pr prio nome sugere guardam informa es sobre Web Services que podem ser acessados livremente na Web Os dados mantidos pelos registros p blicos podem ser compartilhados ou transferidos li vremente entre eles Um exemplo de um registro p blico o UBR UDDI Business Registry hoje estruturado em quatro n s sob responsabilidade das empresas IBM Microsoft NTT Communications e SAP Qualquer entidade pode publicar ou consultar servi os nesses n s gratuitamente O UBR est para os Web Servi ces assim como o Google est para as p ginas Web O consumidor de servi os que quiser localizar servi os na rede provavelmente ter mais sucesso em sua busca se consultar o UBR Igualmente o provedor que quiser ter seus servi os encontrados ter que public los no UBR No UDDI cada Web Service tem cadastrado um documento WSDL Web Service Description Language baseado em XML que descreve o servi o oferecido for VERSAO 0 6 P GINA 286 GUIA CLUSTER 13 2 2 DESCOBERTA DE SERVI OS necendo inf
107. escolher os melhores recursos a utilizar como tamb m determinar qual tarefa alocar a cada um desses recursos Para obter tal informa o foram desenvolvidos sistemas que monitoram e prev em o comportamento futuro de diversos tipos de recursos 262 389 Este esquema de obten o de in forma o baseado em monitora o tem se mostrado eficaz quando os recursos monitorados s o redes TCP IP ou computadores compartilhados no tempo mas ainda h quest es quanto a escalabilidade dos sistemas de monitora o 189 VERSAO 0 6 P GINA 310 GUIA CLUSTER 13 3 3 ESCALONAMENTO Previs o de Desempenho Apesar de serem teis e ajudarem no desenvolvimento de heur sticas de escalo namento eficientes as infraestruturas de monitora o e previs o de desempenho t m um desafio imposto pela escala que um Grid computacional pode alcan ar Al m disso devido a descentraliza o do controle sobre os recursos no Grid poss vel que por quest es de seguran a alguns dom nios administrativos n o adotem a implanta o de sistemas de monitora o a fim de fornecer informa es de previs o de desempenho para escalonadores de aplica o Mesmo assim pensando na possibilidade de prover um melhor desempenho no escalonamento de aplica es que alguns sistemas de previs o de desempenho fo ram desenvolvidos Como consequ ncia v rias heur sticas foram desenvolvidas dependendo das informa es fornecidas por estas infraestrut
108. essa conta possua R 100 00 de saldo e tamb m suponha que esse valor esteja armaze nado em um arquivo de um sistema de arquivos distribu do Quando o cliente da conta for realizar o saque a aplica o ir armazenar em mem ria o valor atual do saldo assim como acontecer com a aplica o do outro caixa que estar rece bendo o dep sito Esta aplica o ent o ir adicionar ao saldo o valor do dep sito e gravar no arquivo o novo saldo que ser de R 1100 00 Por m a primeira aplica o ir subtrair do valor armazenado em mem ria que para seu contexto de R 100 00 o valor do saque e gravar o resultado R 0 00 no mesmo arquivo sobrescrevendo o valor l existente Dessa forma o cliente perderia seu dep sito Para evitar esse tipo de problema as aplica es que operam dessa forma podem agrupar um conjunto de opera es no sistema de arquivos como sendo uma nica transa o deixando a cargo do sistema operacional gerenciar a melhor forma de executar isso Existem alguns mecanismos para o controle dessa concorr ncia como por exemplo o uso de bloqueios o controle de otimista e o de controle por data e hora que s o encontrados em 349 192 O mecanismo de bloqueios destaca se por ser amplamente utilizado e baseia se no bloqueio do arquivo que se quer acessar antes de acess lo atrav s de uma chamada ao sistema operacional ou ao sistema de arquivos Caso um segundo processo queira usar o mesmo arquivo tent
109. est para discos RAID combina v rios discos r gidos de baixo custo em um array de discos para obter performance capacidade e confiabilidade que excedem as capacidades de um disco de grande capacidade RAIDb visa me lhor performance e toler ncia a falhas pela combina o de m ltiplas inst ncias de bancos de dados em um array de bancos de dados RAIDb objetiva o uso de hardware e software de baixo custo como cluster de workstations e bancos de dados de c digo aberto Clusters de workstations j s o alternativa vi vel se comparadas s m quinas paralelas usadas em pesquisa cient fica pela vantajoso custo beneficio Clusters desta natureza podem ser usa dos para prover alta disponibilidade e escalabilidade a ambientes de bancos de dados RAIDb esconde a complexidade da replica o disponibilizando ao cliente a vis o de acesso a um nico banco de dados usando uma m quina controller que colocada frente dos recursos dispon veis Os cliente direcionam suas requisi es ao controlador RAIDb que por sua vez as distribui ao seu conjunto de sistemas de gerenciamento de bancos de dados SGBD Os tr s n veis b sicos do RAIDb s o VERSAO 0 6 P GINA 218 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA RAIDb 0 que particiona o banco de dados entre os n s mas n o oferece tole r ncia a falhas RAIDb 1 para espelhamento completo RAIDb 2 que oferece replica o parcial Tamb m est o definidos RAIDb lec
110. events archive myricom http www myricom com news Ultima Visita em 20 09 2005 12 12 284 Myricom Performance measurements http www myricom com myrinet performance index html Ultima Visita em 20 09 2005 12 12 285 M Nelson B Welch and J Ousterhout Caching in the sprite network file system 1987 286 Zsolt Nemeth and Vaidy Sunderam A formal framework for defining grid systems In Proceedings of the Second IEEE ACM International Symposium on Cluster Computing and the Grid IEEE Computer Society Press Maio 2002 287 NeSC National e science centre http www nesc ac uk 2005 288 Tsuen Wan Johnny Ngan Animesh Nandi and Atul Singh Fair bandwidth and storage sharing in peer to peer networks In Proceedings of Jan 2003 289 N Nieuwejaar D kootz A Purakayastha C S Ellis and M L Best File access characteristics of parallel scientific workloads IEEE Transactions on Parallel and Distributed Systems 7 10 1075 1089 october 1996 VERSAO 0 6 PAGINA 414 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 290 R Novaes P Roisenberg R Scheer C Northfleet J Jornada and W Cirne Non dedicated distributed environment A solution for safe and continu ous exploitation of idle cycles In Proceedings of the AGridM 2003 Workshop on Adaptive Grid Middleware 2003 291 R Oldfield Summary of existing and developing data grids draft In Grid Forum Remote Data Access Working Group IEEE
111. falhou for reestabelecida ao sistema os dados s o copiados para ela auto maticamente o mesmo acontece com um novo n que venha a se integrar ao sistema Sistema de Balanceamento de Carga Combinando os servidores de ar mazenamento e servidor de replica o PGCluster pode distribuir carga de acesso ao banco de dados verificando qual m quina est com menor carga redirecionando consultas para ela A figura 9 2 ilustra a estrutura de balan ceamento de carga Figura 9 2 Sistema de balanceamento de carga Sistema de Alta disponibilidade Adicionalmente PGCluster pode pro ver um sistema de Alta Disponibilidade pela adi o de um balanceador de VERSAO 0 6 P GINA 206 GUIA CLUSTER 9 3 2 PGCLUSTER carga Quando uma falha ocorre em um servidor de armazenamento os servidores de balanceamento e de replica o separam o componente falho e continuam servindo com o restante do sistema Isto feito sem que haja interrup o do mesmo A figura 9 3 ilustra a estrutura de Alta Disponibili dade para o PGcluster Quando uma m quina que falhou recolocada no sistema os dados s o copiados para ela automaticamente o mesmo acontecendo quando um ser vidor de armazenamento novo adicionado Figura 9 3 Sistema de alta disponibilidade VERSAO 0 6 P GINA 207 GUIA CLUSTER 9 3 3 SLONY 9 3 3 Slony Slony 7 um sistema de replica o master para muitos slaves que suporta cascateamento e pr
112. for grid environments In Procee dings of the IEEE High Performance Distributed Computing Conference HPDC 9 August 2000 362 TOP500 Top500 0rg http www top500 org Ultima Visita em 20 04 2006 12 20 363 H Topcuoglu S Hairi and M Wu Performance effective and low complexity task scheduling for heterogeneous computing IEEE Trasactions on Parallel and Distributed Systems 13 3 260 274 March 2002 364 Paulo R Trezentos Vitara Network clustering como solu o para grandes exig ncias de processamento apresenta o e contextualiza o Technical report Projeto final de curso de IGE ADETTI ISCTE 1999 365 W W Trigeiro L J Thomas and J O McClain Capacitated lot sizing with setup times Managemeent Science 35 3 353 366 March 1989 366 S Tuecke K Czajkowski I Foster J Frey S Graham C Kesselman T Ma quire T Sandholm P Vanderbilt and D Snelling Open grid services in frastructure ogsi version 1 0 Global Grid Forum Draft Recommendation June 2003 367 H T UNG The structure of parallel algorithms Advance in Computers 19 1 65 90 1 1980 368 A Vahdat P Eastham C Yoshikawa E Belani T Anderson D Culler and M Dahlin Webos Operating system services for wide area applications In Proceedings of the Seventh Symposium on High Performance Distributed Com puting 1998 369 L G VALIANTE A bridging model for parallel computation Communica tions of the AC
113. formas semelhantes a rvores malhas e cubos Tamanho do algoritmo indica o n mero total de computa es que o algoritmo deve executar Por exemplo a manipula o de matrizes 1000 x 1000 conside rado um problema grande O tamanho do algoritmo diz respeito ao n mero de processadores e disponibilidade de mem ria da arquitetura paralela VERSAO 0 6 P GINA 250 GUIA CLUSTER 11 2 1 RELA O ENTRE ALGORITMOS E ARQUITETURAS PARALELAS Crit rios para Caracteriza o das Arquiteturas Paralelas Segundo a proposta de MOLDOVAN 277 as arquiteturas dos computadores paralelos podem ser caracterizadas pelos seguintes crit rios complexidade do processador modo de opera o estrutura da mem ria rede de interconex o e n mero de processadores tamanho da mem ria Complexidade do processador trata do poder computacional e da estrutura in terna de cada elemento de processamento Sistemas cujos processadores tem ca pacidade id ntica s o ditos homog neos Aqueles sistemas cujos processadores s o diferentes ou s o direcionados para realizar fun es espec ficas s o ditos heterog neos A complexidade do processador varia bastante de uma classe de arquitetura para outra Em processadores sist licos por exemplo as c lulas de processamento s o simples e os dados s o apenas processados nunca armaze nados Em processadores matriciais SIMD alguma mem ria precisa estar asso ciada ao elemento de processamento
114. geogr fica e da situa o social do cidad o garantindo n veis b sicos de servi os estimulando a interoperabilidade de tec nologias e de redes A sociedade civil deve zelar para que o interesse p blico seja resguardado buscando organizar se para monitorar e influenciar sistemati camente os poderes p blicos e as organiza es privadas Livro Verde 135 VERSAO 0 6 P GINA 7 GUIA CLUSTER 2 1 1 A SOCIEDADE DA INFORMA O E A INOVA O TECNOL GICA Papel importante para o xito do Programa caber s universidades e demais en tidades educacionais pelo seu envolvimento na forma o de recursos humanos e na constru o da indispens vel base cient fico tecnol gica Em particular nesse contexto estrat gico deter conhecimento avan ado sobre as tecnologias de in forma o e comunica o que hoje ocupam o centro da din mica de inova es e s o fatores primordiais de competitividade econ mica Assim desafios da sociedade da informa o demandam cada vez mais uma grande quantidade de recursos computacionais devido a ampla difus o de ser vi os e aplica es ao p blico geral em especial aos cidad os Neste contexto o Livro Verde aponta uma s rie de tecnologias consideradas chave para o desen volvimento deste processo dentre estas tecnologias encontra se o Processamento de Alto Desempenho abordado no cap tulo 8 que ilustra os seguintes tipos de aplica es Genoma humano Dispers o de polui
115. importantes em implementa es paralelas s o a comunica o de da dos entre processos paralelos e o balanceamento da carga Dado o fato do n mero de processos no MPI ser normalmente fixo neste texto enfocado o mecanismo usado para comunica o de dados entre processos Os processos podem usar mecanismos de comunica o ponto a ponto opera es para enviar mensagens de um determinado processo a outro Um grupo de processos pode invocar ope ra es coletivas collective de comunica o para executar opera es globais O MPI capaz de suportar comunica o ass ncrona e programa o modular atra v s de mecanismos de comunicadores communicator que permitem ao usu rio MPI definir m dulos que encapsulem estruturas de comunica o interna Os algoritmos que criam um processo para cada processador podem ser imple mentados diretamente utilizando se comunica o ponto a ponto ou coletivas Os algoritmos que implementam a cria o de tarefas din micas ou que garantem a execu o concorrente de muitas tarefas num nico processador precisam de um refinamento nas implementa es com o MPI 11 2 Rela es Entre o Hardware e o Software para Ex plora o do Paralelismo Esta sess o tem por objetivos caracterizar os pontos de interdepend ncia entre o software e o hardware para paralelismo e analisar as caracter sticas de um modelo ideal de programa o buscando delimitar as condi es necess rias para que se
116. justificar a necessidade de adapta o e re desenvolvimento da aplica o ex plorando as possibilidades de paralelismo Atualmente a Petrobras a maior usu ria de processamento de alto desempenho em cluster do brasil sendo que possui 3 dos 4 supercomputadores da am rica do sul que encontram se atualmente na lista 500 supercomputadores mais r pidos do Mundo Estes 3 supercomputadores s o clusters de processamento de alto desempenho utilizados para a execu o de seus sistemas de explora o petrol fera Cen rio 4 Alta Disponibilidade Atualmente sistemas de tecnologia da informa o s o respons veis pela execu o das mais variadas atividades administrativas financeiras de gest o de pes soas e at mesmo de comunica o na maioria das institui es p blicas Neste ambiente dependente de tecnologias uma poss vel falha ou indisponibilidade em algum servidor ou servi o acarretar a impossibilidade de realizar alguma atividade ou at mesmo preju zo financeiro para a institui o Um fator importante a ser levado em considera o na prepara o de infra estrutura para qualquer servi o ou aplica o o fato de que todo e qualquer hard ware software ou aplica o est o sujeitos a falhas Sejam por conta de problemas nos componentes eletr nicos problemas de desenvolvimento do software apli ca o ou at mesmo erros resultantes de uma intera o errada dos usu rios ou administradores do am
117. lo 0 con figurada com o VIP que n o responde a requisi es ARP redirecionando as co nex es que receber para uma porta local e respondendo diretamente ao cliente o que implica que o Director n o necessita estar no caminho de volta Os Servidores Reais podem ser acessados de fora da rede caso haja falha no ba lanceador de carga No caso de ser usado apenas um Director e n o houver outro que atue como backup os servidores reais podem ser acessados de fora da rede diretamente 1Software de roteamento da IBM usado para balancear carga entre servidores TCP mais infor ma es podem ser obtidas em http www cs princeton edu courses archive fall03 cs518 papers networkdispatch pdf VERSAO 0 6 PAGINA 177 GUIA CLUSTER 8 1 2 TIPOS DE LVS CLUSTER Resposta Cliente Requisicao Servidor Real 1 Internet fIntranet NE Director Servidor Real 2 Servidor Real N Figura 8 3 LVS DR Caracter sticas do LVS DR Os Servidores Reais devem estar na mesma rede que o Director Os RIP n o necessitam estar em conformidade com a RFC 1918 Somente as requisi es passam pelo Director as respostas s o enviadas direta mente aos clientes pelos Servidores Reais As portas n o podem ser remapeadas no Director LVS DR permite mais Servidores Reais que LVS NAT N o h sobrecarga no Director como no LVS NAT Encapsula o IP IP Tunneling LVS Tun IP tunneling RFC 2003 uma t cnica q
118. m disso podem ocorrer falhas de hardware especial mente dos mecanismos de armazenamento de transmiss o etc Esses problemas acontecem em grande parte porque os sistemas distribu dos s o implementados sobre redes de computadores que n o s o totalmente confi veis Dessa forma um sistema distribu do precisa usar um protocolo de comunica o com capacidade para detec o de erros de transmiss o Assim caso uma mensagem chegue alterada no seu destino o protocolo precisa perceber isso e retransmit la Isso deve ocorrer tamb m para mensagens que se perderam no caminho Um outro problema que a rede pode ter o seu particionamento por tempo indeterminado Al m disso o hardware dentro das m quinas tamb m pode apresentar falhas Por exemplo um disco r gido pode deixar de funcionar de um momento para outro Nesse caso solu es como redund ncia f sica do equipamento reali zada atrav s de hardware ou redund ncia controlada pelo pr prio sistema dis tribu do que cuidaria de replicar os dados j evitaria a perda das informa es armazenadas VERSAO 0 6 P GINA 142 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS Seja qual for o problema o sistema deve evitar que o cliente fique aguardando uma resposta por muito tempo ou que seus dados sejam danificados ou at mesmo perdidos Isso significa que o servi o precisa ter disponibilidade e confi abilidade Por m essas caracter sticas pod
119. mais utilizadas para implementar solu es deste tipo s o lvs ldirectord Assim preciso garantir que a informa o ser a mesma n o importando qual servidor ela estar sendo acessada De maneira que todo o conte do seja ele est tico ou din mico publicado dever estar dispon vel sincronizado e id ntico em todos os servidores Informa es mais detalhadas sobre estas tecnologias ser o apresentadas no cap tulo XIII Cen rio 2 Minera o de Dados Nos ltimos anos a informatiza o dos meios de produ o e as novas formas de comunica o possibilitaram a gera o de grandes volumes de dados nas mais diversas institui es sejam p blicas ou privadas Grande parte das informa es armazenadas nessas bases de dados permanece ainda desconhecida uma vez que as ferramentas tradicionais de extra o n o permitem uma completa visualiza o de todas as correla es poss veis tornando o processo demorado dispendioso e pouco automatizado O aproveitamento de tais informa es armazenadas permite o desenvolvimento de estrat gias que possibilitam aumentar a competitividade das organiza es Especificamente no p blico a produ o de conhecimento a partir das bases de dados propicia melhor suporte tomada de decis o tendo por consequ ncia a promo o da efici ncia da Administra o Nesse contexto a automatiza o dos processos de an lise de dados com a uti VERSAO 0 6 P GINA 47 GUIA CLUST
120. mesmo esperar pelo da nova vers o WSDL 2 0 WS Resource Framework utiliza puramente WSDL 1 1 o que garante compatibilidade com as ferramentas existentes para Web Services Alguns entusiastas da rea de Web Services em geral argumentam que Web Ser vices n o devem manter estado ou ter inst ncias Ou seja OGSI modela um recurso que mant m estado como um Web Service que encapsula o estado do recurso VERSAO 0 6 P GINA 301 GUIA CLUSTER 13 3 GRIDS PARA ALTO DESEMPENHO WS Resource Framework modifica esse modelo para criar uma distin o expli cita entre servi o e entidades que mant m estado e s o manipuladas atrav s do servi o Esta composi o denominada WS Resource pelo padr o WSRF que in troduz a id ia de recursos que mant m estados e podem ser acessados atrav s de Web Services via o uso convencional de WS Addressing Portanto em linhas gerais a evolu o de OGSI obedeceu tr s fases de forma in cremental A primeira a introdu o do conceito de WS Resource Em seguida a divis o de funcionalidades em v rias especifica es melhorando a compatibili dade com ferramentas usadas para Web Service Finalmente uma melhoria nos mecanismos de notifica o O padr o WSRF deve se materializar de forma est vel atrav s do lan amento do Globus 4 Atualmente Mar o de 2005 o Globus se encontra na vers o 3 9 5 que apesar de inst vel j incorpora v rias das funcionalidades contempladas no padr o WSR
121. modelos implementados explora somente um tipo de paralelismo uns poucos exploram dois tipos e nenhum explora efetivamente todas as alter nativas de paralelismo poss veis O custo benef cio da explora o impl cita do paralelismo ainda n o atingiu pata mares satisfat rios KERGOMME AUX 244 11 3 2 Modelos com Assinalamento do Paralelismo Expl cito Nestes modelos o programador deve estar ciente da natureza do paralelismo que ser explorado e deve expressar todo o potencial para o mesmo no c digo por m n o precisa se envolver como este ser efetivamente tratado pelo ambiente de execu o Portanto fica a cargo do modelo como ir ocorrer a decomposi o o mapeamento a comunica o e a sincroniza o das tarefas paralelas Assim o programa deve expressar o m ximo paralelismo inerente ao algoritmo A implementa o do mesmo compila o e execu o por sua vez reduzir este n vel de paralelismo ao poss vel de ser explorado em fun o da arquitetura des tino e dos decorrentes custos de escalonamento comunica o e sincroniza o VERSAO 0 6 P GINA 263 GUIA CLUSTER 11 3 2 MODELOS COM ASSINALAMENTO DO PARALELISMO EXPL CITO Como exemplo de paralelismo neste n vel de abstra o temos explora o do pa ralelismo de dados Paralelismo de dados explora o de la os O paralelismo de dados tem uma origem hist rica no uso de processadores pipe line Neste caso a explora o de parale
122. modifica es A contrapartida para este modelo permitir atualiza es em qualquer banco que componha o sis tema n o introduzindo uma replica privilegiada mas requerendo um sis tema que resolva conflitos de poss veis inconsist ncias O uso de middleware software interface entre os clientes e o sistemas de bancos de dados se tornou um atrativo j que permite a constru o de sistemas replicados sem a necessidade de modifica o do sistema de geren ciamento de banco de dados nem no banco de dados em si Em sistemas desta natureza as requisi es s o enviadas ao middleware que se encarrega de propag las s r plicas de maneira a prover controle de replica o e ba lanceamento de carga Dentre os bancos de dados livres dois vem se sobressaindo o Mysql 13 e o Postgresql 19 dos quais veremos alguns detalhes sobre a clusteriza o e replica o de dados VERSAO 0 6 P GINA 201 GUIA CLUSTER 9 3 POSTGRESQL 9 3 PostgreSQL O PostgreSQL um SGBD Sistema Gerenciador de Banco de Dados objeto relacional de c digo aberto com mais de 15 anos de desenvolvimento extremamente robusto e confi vel al m de ser extremamente flex vel e rico em recursos Ele considerado objeto relacional por implementar al m das caracter sticas de um SGBD relacional algumas caracter sticas de orienta o a objetos como heran a e tipos de dados personalizados A equipe de desenvolvimento do PostgreSQL sempre teve u
123. n o precisem considerar compartilhamento Mas uma vez que aplica es executam em parti es dedicadas pode acontecer que n o haja n s suficientes para executar uma aplica o assim que ela submetida Neste caso a aplica o espera em uma fila at que os recursos que solicitou estejam dispon veis A Figura 13 8 exemplifica a arquitetura de um MPP NoWs ou redes de esta es de trabalho s o simplesmente um conjunto de es ta es de trabalho ou PCs ligados por uma rede local NOWs s o arquitetu ralmente semelhantes aos MPPs Ambas plataformas s o formadas por n s que agregam processador e mem ria Uma diferen a entre NOWs e MPPs que os n s que comp em uma MPP tipicamente s o conectados por redes mais r pidas que as que conectam os n s de NOWs Mas a principal diferen a entre ambas arquiteturas que NOWs n o s o escalonadas de forma centralizada Isto em uma NOW n o h um escalonador para o sistema como um todo Cada n tem VERSAO 0 6 P GINA 304 GUIA CLUSTER 13 3 1 PLATAFORMAS PARA PROCESSAMENTO PARALELO Escalonador CPU CPU CPU requisi es Figura 13 8 Arquitetura de um MPP seu pr prio escalonador local Como resultado n o h como dedicar uma par ti o da NOW a uma s aplica o paralela Assim uma aplica o que executa sobre a NOW deve considerar o impacto da concorr ncia por recursos por parte de outras aplica es sobre sua performance A Figu
124. nesta categoria as tecnologias de armazenamento normalmente utilizadas por aplica es ou sistemas que demandam o acesso online aos dados Alguns exemplos de tecnologias que encontram se neste grupo s o Disco R gido Storage De vices Sistemas de arquivos distribu dos Sistemas de Arquivos Paralelos Dispositivos Raid Controladoras de Discos entre outras 1 1 PetaByte 1 073 741 824MegaByte VERSAO 0 6 PAGINA 119 GUIA CLUSTER 7 2 BLOCK DEVICES e Tecnologias de Armazenamento Offline Encontram se neste grupo as tec nologias de armazenamento normalmente utilizadas para armazenar dados de backup ou dados que n o precisam ser acessados online Alguns exem plos de tecnologias que encontram se neste grupo s o Fitas CD DVD dis positivos de fitas bibliotecas de fitas Em sistemas cr ticos normalmente s o utilizados dispositivos de armazenamento propriet rios denominados Storage Devices e ou Bibliotecas de Fita que pos suem capacidade de armazenar Terabytes de informa es com funcionalidades que permitem consolidar e manter a integridade dos dados em um ambiente cen tralizado Existem alternativas tecnol gicas de Cluster e Grid baseadas em padr es abertos de hardware e software para a implementa o da camada de armazenamento e consolida o de dados em sistemas cr ticos Estas tecnologias em Cluster e Grid para armazenamento podem ser divididas em 3 categorias e Tecnologias baseadas em disposi
125. o inicio de servi os ou a execu o de comandos em um con junto de m quinas Em conjunto com o Heartbeat necess rio utilizar alguma tecnologia que seja respons vel por replicar e garantir a integridade dos dados entre os dois ou mais servidores em geral o software mais utilizado o drbd a A figura um diagrama onde 4 clientes est o acessando uma aplica o que encontra se hospedada em um conjunto de alta disponibilidade A aplica o encontra se ativa somente no servidor prim rio e todos os dados salvos no disco do servidor prim rio s o replicados para o servidor secund rio Em casa de fa lhas no servidor prim rio o heartbeat ser respons vel por tomar as a es neces s rias para que o servidor secund rio passe a executar a aplica o e servi la aos clientes Os clientes enchergam apenas um servidor atrav s de um endere o ip compartilhado entre os dois servidores Esta solu o est vel simples de implementa o simples e utilizada em produ o em todo o mundo Entretanto uma requisi o enviada ao servidor prim rio antes de sua falha que envolva alguma atividade de escrita email banco de da dos servidor de arquivos etc e n o tenha sido gravada no disco do servidor http linux ha org Whttp www drbd org VERSAO 0 6 PAGINA 52 GUIA CLUSTER 3 3 1 CEN RIOS DE APLICA O prim rio ser perdida quando o servidor secund rio assumir Pois o servidor secund rio s ir poss
126. o perfeita Obviamente WQR consome mais ciclos que os algoritmos de escalonamento tra dicionais A Figura 10 mostra o consumo adicional de CPU em fun o da hetero geneidade das tarefas Em situa es que a heterogeneidade de tarefas pequena este consumo n o significativo n o ultrapassando 15 Por outro lado quando tarefas s o muito heterog neas WOR desperdi a uma quantidade consider vel de ciclos De fato o desperd cio pode chegar pr ximo a 100 Entretanto tal VERSAO 0 6 P GINA 316 GUIA CLUSTER 13 3 3 ESCALONAMENTO 30000 r T T T Dynamic FPLTF E Workqueue s WOR 2x WOR 3x WOR 4x 25000 Sufferage 4 20000 f 4 15000 ri 4 Completion Time 10000 S J 5000 0 4 4 4 L 4 100 500 1000 5000 10000 Tasks Heterogeneity Figura 13 14 Desempenho do WQR problema pode ser controlado pela limita o do n mero m ximo de replicas de uma tarefa Quando limitamos WQR a usar 2 replicas WQR 2x temos que o des perd cio de CPU fica sempre abaixo de 40 Aplica es que Processam Grandes Quantidades de Dados Apesar de WQR ser uma heur stica eficiente ela apresenta uma limita o o bom desempenho alcan ado apenas para aplica es cpu intensive Ou seja caso a aplica o necessite processar grandes quantidades de dados o que implicar em muitas transfer ncias a replica o pode n o ter o mesmo efeito Uma grande parte da
127. o pol tico econ mica decorrente da contribui o da infra estrutura de informa es para que as regi es sejam mais ou menos atraentes em rela o aos neg cios e empreendimentos Livro Verde 135 Na sociedade da informa o o cen rio econ mico transforma se de tal modo que a inova o e a convers o de conhecimento em vantagem competitiva passam a constituir importantes diferenciais Da rapidez na gera o e difus o de inova es decorrem a dr stica diminui o da vida til dos produtos e a necessidade de moderniza o cont nua da produ o e da comercializa o de bens e servi os Da convers o do conhecimento surgem as possibilidades de se incorporar os be nef cios da tecnologia com maior agilidade Para a nova economia n o basta dispor de uma infra estrutura moderna de comunica o preciso compet ncia para transformar informa o em conheci mento A educa o um elemento chave para a constru o de uma sociedade da informa o e condi o essencial para que pessoas e organiza es estejam aptas a lidar com o novo a criar e assim a garantir seu espa o de liberdade e autonomia O desafio portanto duplo superar antigas defici ncias e criar as compet ncias requeridas pela nova economia O governo nos n veis federal estadual e municipal tem o papel de assegurar o acesso universal s tecnologias da informa o e comunica o e a seus benef cios independentemente da localiza o
128. o pr ximo n que ser usado quando uma nova conex o chegar sem levar em considera o o n mero de conex es que ainda est o ativas Servidores Reais com pesos maio res ter o prioridade no recebimento e quantidade de requisi es se comparados com Servidores Reais com pesos menores VERSAO 0 6 P GINA 180 GUIA CLUSTER 8 1 3 ALGORITMOS DE ESCALONAMENTO Destination hash DH Neste m todo o Director sempre envia requisi es de um mesmo endere o IP de origem para o mesmo Servidor Real no sistema LVS usando uma lista est tica de endere os de destino O m todo til quando o Servidor Real um servidor proxy ou cache Least Connection LC Com este m todo quando uma nova conex o chega o Director verifica o n mero de conex es ativas e inativas para determinar para qual n ir enviar a requisi o Para realizar esta escolha o Director multiplica o n mero de conex es ativas do n por 256 atribui o interna do algoritmo em sua implementa o e adiciona ao resultado o n mero de conex es inativas resultando num overhead para cada n O n com menor overhead receber a conex o Caso haja n s com mesmo overhead o primeiro n encontrado na tabela do IPVS ser selecionado Weighted Least Connection WLC Este m todo combina o Least Connection com um peso para cada n este o m todo padr o se nenhum for selecionado til para ser usado com n s de dife rentes capacidades de p
129. observado A constru o deste tipo de sistema complexa e necess rio conhecer muito bem o problema para propor a melhor solu o Clusters de alto desempenho prov em frequentemente o modo de melhor custo benef cio para acelerar c lculos ou em outras palavras a computa o de alto desempenho mas a constru o do pri meiro cluster pode ser uma experi ncia dif cil Os desafios para a constru o de uma infra estrutura deste tipo grande e muitas vari veis tem de ser observadas e trabalhadas para se obter al m do melhor desempenho um menor custo de in vestimento O pensamento semelhante quando em sistemas enterprise mas com um grau de complexidade maior pois estamos tratando de um ambiente que tem de ser est vel robusto escal vel e capaz de responder por toda a carga de processamento projetada O tempo de vida das aplica es desenvolvidas para clusters enterprise tem a tend ncia de ser maior podendo ter ciclos de mais de 10 anos de opera o Nestes casos a escolha das tecnologias a serem usadas ter o grande import ncia para as bases do projeto Entre muitas outras informa es e detalhes de projetos alguns considerados mais importantes s o levantados e discutidos nas pr ximas sess es a listar 1 Estabele a metas realistas 2Ciclo de vida e de desenvolvimento dos sistemas VERSAO 0 6 P GINA 61 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO 2 Projeto piloto 3 Utiliza
130. os backends de acordo com o n vel do RAIDb poss vel refor ar um n vel de isolamento espec fico para todas as conex es isto n o ter efeito se o banco de dados usado n o suporta isolamento de transa es Em geral o n vel de isola mento de transa o padr o ser usado e nenhum refor o ser dado s conex es Os seguintes balanceadores de carga est o dispon veis SingleDB balanceador de carga para um inst ncia nica de banco de dados VERSAO 0 6 P GINA 222 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA Disponivel se apenas um controlador for usado ParallelDB balanceador de carga para ser usado em banco de dados para lelos como Oracle Parallel Server ou Middle R Ambas escrita e leitura s o balanceadas entre os backends deixando a replica o paralela dos bancos es crever RAIDb 0 particionamento completo de banco de dados nenhuma tabela pode ser replicada com pol tica opcional que espec fica onde novas tabelas se r o criadas RAIDb 1 espelhamento completo de banco de dados todas as tabelas s o replicadas em qualquer lugar com pol tica opcional que espec fica como a con suma o de consultas distribu das write commit rollback s o manipuladas quando o primeiro a maioria ou todos os backends completam as consultas RAIDb lec espelhamento completo de banco de dados como em RAIDb 1 mais verifica o de erros para detec o de falhas bizarra
131. para designar o que hoje conhecemos comumemente como inform tica era processamento de dados termo que n o incorporava ainda os recursos de comunica o presentes no cen rio da chamada inform tica atual Ademais as pol ticas de informa o eram estritamente rela cionadas ao tema da seguran a do Estado Torres 134 Nos anos seguintes em especial na d cada de 70 o Brasil experimentou taxas de crescimento expressivas apoiadas na forte presen a do investimento estatal Ao final deste per odo o dom nio da tecnologia foi apontado como um fator de terminante dentre outros para a supera o do problema de gera o de d ficits persistentes tornando o clima prop cio para a intensifica o dos investimentos p blicos em inform tica ao lado de uma pol tica protecionista ind stria nacio nal Torres 134 Um exemplo desta pol tica protecionista foi a Pol tica Nacional de Inform tica PND Lei 7 232 aprovada em 29 de Outubro de 1984 pelo Congresso Nacional VERSAO 0 6 P GINA 2 GUIA CLUSTER 2 1 A INFORM TICA PUBLICA BRASILEIRA com prazo de vig ncia previamente estabelecido em 8 anos A Lei tinha como objetivo estimular o desenvolvimento da ind stria de inform tica no Brasil por meio do estabelecimento de uma reserva de mercado para as empresas de capital nacional Apesar da import ncia neste per odo do dom nio nacional da tecnologia alme jando a utiliza o de tecnologias considerad
132. para rodar mais de um sistema operacional ao mesmo tempo atrav s de microkernels ou de camadas de abstra o de hardware como por exemplo o Xen 14 1 Principais tipos de virtualiza o Virtualiza o um termo muito amplo que leva abstra o de recursos em di ferentes aspectos da computa o O conceito virtualiza o foi concebido pela rea de TI para se referir a tudo que quisessem dizer sobre m quinas virtuais e a softwares da ger ncia de sistemas o que acaba tornando o sentido do termo muito amplo VERSAO 0 6 P GINA 347 GUIA CLUSTER 14 1 1 VIRTUALIZACAO POR SOFTWARE 14 1 1 Virtualiza o por software Uma m quina virtual um ambiente que se apresenta como um sistema opera cional convidado no hardware mas simulado em um ambiente de software dentro do sistema hospedeiro A simula o dos drivers do hardware deve ser muito robusta para o sistema hospedeiro funcionar corretamente A cria o e a ger ncia de m quinas virtuais s o frequentemente consultadas pelo software de vitrualiza o tamb m chamado de servidor de virtualiza o H diversas solu es considerando e Emula o a m quina virtual simula todo o hardware permitindo que um Sistema Operacional sem modifica es rode em um processador central completamente diferente do hardware nativo Bochs PearPC vers es do virtual PC para PPC Qemu sem acelera o e Virtualiza o nativa ou virtualiza o cheia
133. peso associado a cada backend Um backend com peso 2 recebe 2 vezes mais requisi es que um backend com peso 1 LeastPendingRequestFirst a requisi o enviada para o backend com o menor n mero de requisi es pendentes A defini o do elemento CreateTable dada na se o 10 6 4 3 A defini o do elemento WaitForCompletition dada na se o 10 6 6 4 Balanceamento de carga RAIDb 2ec A pol tica de verifica o de erros de RAI Db 2ec dada da mesma forma que para RAI Db lec se o 10 6 4 5 Os outros elementos s o similares aos definidos para controlador RAIDb 2 se o 10 6 4 6 VERSAO 0 6 P GINA 229 GUIA CLUSTER 9 5 2 PARGRES Nota RAIDb 2ec n o operacional em Sequoia v1 0alpha A defini o do elemento RAIDb 2ec dada como seguinte lt ELEMENT RAIDb 2ec CreateTablex WaitForCompletion ErrorChecking RAIDb 2ec RoundRobin RAIDb 2ec WeightedRoundRobin gt lt ATTLIST RAIDb 2ec nbOfConcurrentReads CDATA REQUIRED lt ELEMENT RAIDb 2ec RoundRobin EMPTY gt lt ELEMENT RAIDb 2ec WeightedRoundRobin BackendWeight gt 9 5 2 ParGRES ParGRES 268 um projeto que tem como objetivo desenvolver um sistema de software livre para processar com efici ncia consultas pesadas que envolvam grandes quantidades de dados usando para isso o SGBD PostgreSQL sobre clus ters de PCs
134. pr prio protocolo NFS sem a necessidade de servidores externos como o NLM O VERSAO 0 6 P GINA 150 GUIA CLUSTER 7 3 4 NETWORK FILE SYSTEM NFS mecanismo para isso baseado em leases ou seja um cliente NFS pede ao ser vidor um contrato de bloqueio tempor rio lease e deve manter contato com o mesmo para continuar prolongando esse contrato conforme a necessidade Al m disso foi introduzido um esquema de delega o de arquivos onde o cliente NFS pode acessar e modificar o arquivo dentro do seu cache local sem a neces sidade de mand lo para servidor at que o servidor contate o cliente avisando que outro cliente gostaria de acessar o arquivo quando ent o este atualizado no servidor Isto reduz o tr fego de rede consideravelmente nos casos em que os clientes n o desejam acessar um conjunto de arquivos concorrentemente Quanto comunica o entre cliente e servidor o NFSv4 usa chamadas RPC com postas ou seja uma mesma chamada RPC pode conter uma opera o complexa envolvendo bloqueio abertura leitura etc Essas chamadas s o realizadas atra v s de conex o TCP ao contr rio das vers es mais antigas que usam UDP Em rela o seguran a o NFSv4 possui mecanismos sofisticados e todas as im plementa es de clientes obrigatoriamente devem t los Dentre esses mecanis mos est o inclusos Kerberos 5 e SPKM3 juntamente com o tradicional AUTH SYS 160 Al m disso uma nova API foi cria
135. preocupar com quest es como seguran a ex como proteger o recurso de aplica es maliciosas e escalonamento ex que servi o de execu o mais adequado para a aplica o Neste texto usaremos Grids de Servi os quando estivermos tratando quest es per tinentes a qualquer Grid disponibilize ele o servi o de execu o remota ou n o Usaremos Grids para Alto Desempenho quando estivermos tratando das quest es adicionais que s o introduzidas pelo servi o de execu o remota Assim nesta nossa terminologia todo Grid para Alto Desempenho um Grid de Servi os embora o contr rio n o seja necessariamente verdade Outra forma de ver Grids encar los como plataformas de computa o distri bu da H v rias plataformas tradicionais de computa o distribu da seja de prop sito mais comercial CORBA DCOM etc seja de prop sito mais t cnico clusters supercomputadores paralelos Para esclarecer um pouco mais a dife ren a entre os Grids e outras plataformas de computa o distribu da podemos citar algumas caracter sticas que s o intr nsecas aos Grids De modo geral os Grids s o mais distribu dos diversos e complexos que outras plataformas As pectos que evidenciam esta distribui o diversidade e complexidade s o e Heterogeneidade Os componentes que formam a infraestrutura tendem ser extremamente heterog neos Ou seja importante ter em mente que qual quer solu o para Grids Computaci
136. que entregue ao execu tor da consulta Esse protocolo empregado por aplica es populares como o Gnutella 32 na consulta de arquivos compartilhados por seus usu rios O WSPDS traz algumas vantagens e desvantagens em rela o ao UDDI Ele de fato uma solu o mais tolerante a falhas j que n o possui pontos nicos de fa lha N o h servidores respons veis por atender s consultas por servi os A escalabilidade tamb m um ponto forte seu j que o aumento da quantidade de servi os n o influencia o desempenho das consultas No entanto n o h uma ga rantia de que um servi o que atenda aos crit rios de uma consulta seja localizado Um resultado de consulta negativo n o necessariamente significa a aus ncia de servi os na rede que satisfa am os crit rios de pesquisa Pode acontecer que os peers que participam da pesquisa n o tenham contato com o servi o que atende consulta Uma alternativa h brida entre as duas abordagens a de federa es de registros UDDI 26 A id ia fazer com que os registros estejam conectados entre si em VERSAO 0 6 P GINA 287 GUIA CLUSTER 13 2 3 AUTENTICACAO E AUTORIZACAO uma rede peer to peer Desta forma quando uma consulta for feita a um registro e este n o puder atend la ele repassar a mesma consulta a outros registros e assim sucessivamente de forma semelhante a como ocorre no WSPDS Cada re gistro realizar a consulta em seus pr prios n s e
137. ralelismo em diferentes modelos de programa o A classifica o utilizada tem como crit rio o n vel de abstra o com que a explo ra o pode ser feita Estes n veis de abstra o est o sugeridos em SKILLICORN 331 e BAL 74 A partir de textos espec ficos sobre os modelos foram feitas considera es e selecionados exemplos de sistemas paralelos 11 3 1 Modelos nos quais o Paralelismo Explorado de Forma Totalmente Impl cita Nestes modelos o programador descreve somente o prop sito da computa o o que o programa deve fazer e n o como deve ocorrer o processamento para que o programa atinja seu prop sito O desenvolvimento de software n o precisa levar em considera o se o programa ir executar em paralelo ou n o Em fun o disto estes modelos trabalham em um n vel de abstra o elevado e os programas desenvolvidos pensando no pa ralelismo n o s o necessariamente mais complexos que os elaborados para exe cu o sequencial Como exemplos caracter sticos deste n vel de abstra o na explora o do parale lismo destacam se a programa o funcional e a programa o em l gica VERSAO 0 6 P GINA 258 GUIA CLUSTER 11 3 1 MODELOS NOS QUAIS O PARALELISMO EXPLORADO DE FORMA TOTALMENTE IMPL CITA fib n n lt 1 1 otherwise 1 fib n 1 fib n 2 Figura 11 2 N meros de Fibonacci em Programa o Funcional Programa o Funcional A programa o funcional
138. referencial que for utilizado Os equipamentos maiores est o nos laborat rios governamentais os quais via de regra tem sua pr pria equipe de desenvolvimento Outro grupo de equipamentos est em universidades utilizados principalmente para pesquisa e ensino Por sua vez as empresas que fazem desenvolvimento tecnol gico de seus produtos com o suporte de computadores paralelos empresas qu micas autom veis avi es por quest es de propriedade intelectual tamb m tem seu pr prio grupo de programa o e elevado custo de convers o atualmente para uma empresa migrar seu produto de software de uma arquitetura tradicional para uma plataforma paralela ter de ter uma equipe de desenvolvimento conhecedora do hard ware paralelo utilizado Em fun o deste hardware poder o ser necess rias modifica es no layout de dados no fluxo de controle e at mesmo nos al goritmos b sicos utilizados O ganho de desempenho principal raz o de ser da ado o do hardware paralelo poder ser prejudicado com a n o ob serv ncia criteriosa destas modifica es quase sempre indispens veis VERSAO 0 6 P GINA 78 GUIA CLUSTER 5 1 9 RELA O ENTRE A TEORIA E A TECNOLOGIA e valida o testar o qu o correto est o porte de um software para uma m quina paralela pode se mostrar uma tarefa bastante complexa at mesmo porque os resultados das implementa es sequencial e paralela podem apresentar diferen as Isto se pote
139. regi es n o coincidentes dos arquivos at mesmo em regi es n o cont nuas de forma at mica Isso possibilita paralelizar a escrita sem correr o risco de se gerar incon VERSAO 0 6 P GINA 169 GUIA CLUSTER 7 4 2 PARALLEL VIRTUAL FILESYSTEM VERSION 2 PVFS2 sist ncias entre servidor e clientes Quanto consist ncia do cache o PVFS2 permite colocar no cache do cliente a estrutura de diret rios do servidor de meta dados Isso pode gerar inconsist n cias tempor rias pois caso haja alguma mudan a em tal estrutura o cliente ficar desatualizado por um certo tempo configur vel Consist ncia do sistema de arquivos Ao realizar altera es na estrutura de diret rios do PVFS2 o sistema de arquivos bloqueado enquanto essa tarefa realizada Foi notado que esse tipo de tarefa n o representa um gargalo na maioria das aplica es mesmo em larga escala Por m esses bloqueios n o ocorrem em todas as opera es Por exemplo para criar um arquivo deve se 1 criar uma entrada no diret rio 2 criar um objeto de meta dados 3 apontar a entrada no diret rio para o objeto de meta dados 4 criar um conjunto de objetos de dados para o novo arquivo e apont los aos objeto de meta dados Cada uma dessas opera es realizada atomicamente mas o conjunto delas n o Isso um problema para o PVFS2 caso a execu o dessas tarefas seja interrom pida An lise Cr tica O PVFS2 realmente evolui
140. resource resource manager A t manager manager Figura 13 20 Exemplo do uso de escalonadores no Globus 133 licita o original em outra mais especifica que descreve a necessidade do usu rio em termos de ciclos mem ria e lat ncia de comunica o Esta nova solicita o ent o enviada a um escalonador de aplica o especializado em MPPs Este es calonador consulta o MDS para descobrir quais MPPs dentro aqueles aos quais o usu rio tem acesso s o os melhores para utilizar no momento Al m disso o escalonador especializado em MPPs faz a parti o do trabalho entre os MPPs escolhidos e envia a solicita o mais refinada para o co alocador O co alocador garante que as tarefas submetidas aos distintos MPPs comecem a executar simul taneamente Note tamb m que outros escalonadores de aplica es podem parti cipar do sistema A Figura 13 20 por exemplo exemplifica ainda escalonadores para varredura de par metros e para ambientes de colabora o virtual Comunica o O problema de comunica o no Grid pode ser visto como uma inst ncia do eterno conflito entre generalidade e performance Caso utilizemos um mecanismo de comunica o gen rico e g TCP que viabilize a comunica o fim a fim entre quaisquer duas tarefas no Grid perdemos performance em casos especiais e g VERSAO 0 6 P GINA 331 GUIA CLUSTER 13 4 1 GLOBUS se ambas tarefas rodam em uma m quina de mem ria compartilhada elas po deri
141. se ter m ltiplos servidores de meta dados Redes Como j mencionado utilizando se do BMI poss vel que o PVFS2 se comunique por TCP IP InfiniBand6 6 4 Myricom6 6 4 ou qualquer outro protocolo de rede que venha a ser implementado Interfaces Os clientes podem acessar 0 PVFS2 atrav s de duas interfaces UNIX nativo re presentado pelo cliente do sistema operacional ou ROMIO MPI IO Ambas as formas seguem o mesmo perfil que foi desenvolvido para o PVFS1 Intera es cliente servidor Durante o primeiro acesso ao PVFS2 os clientes acessam algum dos servidores para obter informa es sobre a configura o do sistema de arquivos Esse pro cesso ocorre de forma similar ao NFS para abrir um arquivo o cliente pede ao servidor um handle Tendo um handle o cliente pode acessar qualquer trecho do arquivo desde que tenha permiss o de a acesso Quando esse handle expirar o servidor avisar o cliente no momento do acesso Esse tipo de estrat gia permite que um processo possa passar seu handle a outro processo que evita uma nova busca pelo arquivo junto ao servidor Como os clientes e servidores n o possuem estado uma desvantagem que se um arquivo removido o cliente que tiver o handle ainda poder acess lo por um tempo at expirar Esse tipo de problema tamb m ocorre em sistemas de arquivos locais Consist ncias do ponto de vista do cliente O PVFS2 permite que v rios clientes realizem escritas simult neas em
142. sequentemente gastos excessivos Construir um sistema de teste com um n mero pequeno de m quinas e com o modelos do seu sistema permitir determinar o que mais preciso antes de as sumir compromissos que podem ser equivocados Isto provavelmente ir econo mizar tempo e dinheiro j que corrigir enganos em um cluster de grande porte e em produ o pode ser muito demorado e principalmente ter um custo muito elevado O dom nio da tecnologia tamb m importante e um projeto piloto pode ser uti lizado para v rias outras aplica es como plataforma de desenvolvimento de sistemas testes de configura es proje o de estresse de sistemas e homologa VERSAO 0 6 P GINA 63 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO o de aplica es entre muitas outras coisas Utiliza o de hardware id ntico Certamente h exce es a esta regra Voc certamente precisar de um n fron tal mais r pido para seu sistema da mesma maneira que tamb m ir querer ter discos de maior capacidade em servidores de I O No entanto a utiliza o do mesmo hardware em cada m quina do cluster traz muitas facilidades e Simplificar a instala o e a configura o de seus clusters j que poder ser usado imagens id nticas do sistema para cada m quina e Simplificar a manuten o do cluster pois todos os sistemas t m a mesma configura o b sica Assim deve ser preciso manter poucas pe as sobres salentes
143. ser distribu dos e executados em servidores de aplica o de EJB EJB Servers Planejamento de recursos corporativos atrav s de siste mas integrados de gest o implementados por softwares um programa integrado de gest o empresarial geral mente dividido em diversos m dulos como o de admi nistra o o financeiro de manufatura etc um protocolo aplicativo que utiliza os protocolos TCP IP da Internet sendo a maneira mais simples de trocar arquivos entre computadores na Internet conjunto de regras para permuta de arquivos texto imagens gr ficas som v deo e outros arquivos multi m dia na World Wide Web fomenta o desenvolvimento de padr es e normas que frequentemente se tornam nacionais e internacionais entidade que define protocolos operacionais padr o da Internet como o TCP IP Rede mundial de computadores que utiliza a arquite tura de protocolos de comunica o TCP IP Originou se de um sistema de telecomunica es descentralizado cri ado pelo Dept de Defesa dos Estados Unidos durante a Guerra Fria Durante os anos 70 e 80 cresceu entre os meios acad micos quando sua principal aplica o era o correio eletr nico Com a apari o da World Wid Web em 1993 a Internet se popularizou Prov transfer ncias de arquivos login remoto correio eletr nico news na vega o na Web e outros servi os P GINA 378 GUIA CLUSTER CAP TULO E GLOSS RIO JDBC Metadados Middlewa
144. so bre tarefas batch jobs em n s computacionais distribu dos Ele um esfor o da comunidade de software livre baseado no c digo original do projeto PBS e que j conta com mais de 1 200 corre es e melhorias de c digo com melhorias sig nificativas em reas como escalabilidade toler ncia falhas e novas extens es Alguns contribuidores do projeto s o NCSA OSC USC U S Dept of Energy Sandia PNNL U Buffalo TeraGrid e outras organiza es l deres em desenvolvi mento de HPCs Caracter sticas e Toler ncia falhas Suporte a checagem de n s fora do ar V rias condi es de checagens de falhas nos n s e Interface de seqii nciamento Interface de busca estendida provendo informa es mais acuradas sobre o escalonamento das tarefas Interface de controle estendida para permitir maior controle sobre as tarefas seus atributos e execu o Permite a obten o de dados estat sticos de tarefas j executadas e Escalabilidade Servidor de monitoramento Capacidade de trabalhar com cluster muito grande acima de 15TF e 2500 processadores Capacidade de trabalhar com um grande volume de tarefas acima de 2000 processos Capacidade de suportar grande n mero e tamanho de mensagens de servi dores e Usabilidade Mecanismo de log mais completo Logs com caracter sticas de leitura mais simples VERSAO 0 6 P GINA 275 GUIA CLUSTER 12 3 MAUI 12 3 MAUI Maui um avan ado escalonador
145. sobre uma obra escrita inteiramente por voc VERSAO 0 6 P GINA 359 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL a inten o antes de exercer o direito de controlar a distribui o de obras derivadas ou obras coletivas baseadas no Programa Al m do mais a simples agrega o de outra obra que n o seja baseada no Programa a ele ou a uma obra baseada no Programa em um vo lume de m dia ou meio de armazenamento ou distribui o n o inclui esta outra obra no mbito desta Licen a 4 Voc poder copiar e distribuir o Programa ou uma obra baseada nele de acordo com a Cl usula 2 em c digo objeto ou formato execut vel de acordo com os termos das Cl usulas 1 e 2 acima desde que voc tamb m tome uma das provid ncias seguintes a Incluir o c digo fonte correspondente completo pass vel de leitura VERSAO 0 6 pela m quina o qual ter de ser distribu do de acordo com as Cl u sulas 1 e 2 acima em um meio ou m dia habitualmente usado para interc mbio de software ou Incluir uma oferta por escrito v lida por pelo menos tr s anos para fornecer a qualquer terceiro por um custo que n o seja superior ao seu custo de fisicamente realizar a distribui o da fonte uma c pia completa pass vel de leitura pela m quina do c digo fonte correspon dente a ser distribu do de acordo com as Cl usulas 1 e 2 acima em um meio ou m dia habitualmente usado para interc mbio de software o
146. tem uma rela o com conectividade Voltando ao exemplo acima o SETI home e o PAU t m seus focos em aplica es fracamente acopladas enquanto o TeraGrid pode propiciar condi es para execu o eficiente de aplica es fortemente acopladas VERSAO 0 6 P GINA 307 GUIA CLUSTER 13 3 2 EXECU O REMOTA SMP MPP Now Grid Conectividade excelente muito boa boa regular ruim Heterogeneidade nula baixa m dia alta Compartilhado nao nao sim sim Imagem unica comum comum m ltipla Escala 10 1 000 1 000 100 000 Tabela 13 1 Compara o entre as plataformas de execu o para aplica es paralelas 13 3 2 Execu o Remota Na Se o 13 3 1 apresentamos o Grid como uma plataforma de execu o de apli ca es paralelas Al m disso apresentamos o que diferencia os Grids de outras plataformas mais tradicionais para processamento de alto desempenho Vale res saltar que o componente fundamental dos Grids para Alto Desempenho o ser vi o de execu o remota Este servi o respons vel por qualificar o grid como pla taforma de execu o de aplica es paralelas Um Grid que fornece servi os de execu o remota possui v rias vantagens Uma delas a possibilidade de converter este servi o gen rico de execu o de aplica es em qualquer outro servi o mais espec fico Por exemplo oferecer um servi o de processamento de imagens que utiliza v rias inst ncias do ser
147. transfer ncia a mesma usada para a solicita o de servi os de execu o ou seja RMI Uma vez que poss vel ter seguran a na comunica o com as GuMs de RMI sobre SSL as opera es de transfer ncias de dados tamb m gozam da seguran a fornecida pela camada de comunica o baseada em certificados Avalia o do OurGrid A caracter stica mais importante do OurGrid conseguir prover uma solu o til e eficiente para uma comunidade de usu rios em produ o apesar de se basear em solu es simples e de escopo limitado i e apenas aplica es do tipo Bag of Tasks importante notar que o objetivo do OurGrid contrasta com o objetivo do Glo bus que fornece um conjunto de servi os para a constru o da infraestrutura do Grid Portanto OurGrid uma solu o que complementa o Globus provendo um broker i e MyGrid e abstra es que permitem o usu rio usar recursos Glo bus e n o Globus Por outro lado Globus complementa o OurGrid ao fornecer a infraestrutura de servi os para execu o de aplica es em larga escala VERSAO 0 6 P GINA 342 GUIA CLUSTER 13 4 4 CONDOR OurGrid persegue um objetivo diferente do que seria prover uma solu o ge n rica para computa o em Grid Com o foco em aplica es BoT foi poss vel produzir uma solu o efetiva para uma comunidade de usu rios em produ o N o se quer dizer com isso que n o se pretende introduzir novas funcionalida des que aumentem o
148. 00 org 72 dos computadores mais r pidos do mundo s o clusters e o Linux j est presente em 73 destes Os principais desafios de utiliza o de software livre no desenvolvimento de solu es em Cluster e Grid para a constru o de sistemas cr ticos governamentais consistem na possibilidade de se aproveitar a grande quantidade de solu es e softwares de Cluster e Grid dispon veis bem como na perspectiva de comparti lhamento dos sistemas desenvolvidos com outros rg os e institui es p blicas dentro da perspectiva conceitual do software p blico vide 270 http www top500 org stats VERSAO 0 6 P GINA 17 GUIA CLUSTER 2 2 4 A ARQUITETURA DE CLUSTER E GRID E AS DIRETRIZES DO GOVERNO ELETR NICO 2 2 4 A Arquitetura de Cluster e Grid e as Diretrizes do Governo Eletr nico As principais raz es pela escolha preferencial por arquiteturas de cluster e grid no governo federal est o embasadas nas diretrizes de governo eletr nico de uti liza o de software livre e racionaliza o de recursos e encontram se descritas abaixo e independ ncia tecnol gica e independ ncia de fornecedor e integra o de processos de inova o tecnol gica nas estruturas de infor m tica p blica como instrumento de melhoria da qualidade de servi os competividade e efici ncia e est mulo o desenvolvimento de tecnologias nacionais e a pol tica nacional de inform tica e ado o de padr
149. 1 67 70 1996 178 Message Passing Interface Forum MPI A Message Passing Interface standard Message Passing Interface Forum 1997 179 I Foster Designing and building parallel programs Concepts and tools for paral lel software engineering Addison Wesley 1995 180 I Foster What is the grid a three point checklist GRID today 1 6 July 2002 181 I Foster and C Kesselman Globus A metacomputing infrastructure tool kit International Journal of Supercomputer Applications 11 2 115 128 1997 182 I Foster and C Kesselman The globus project A status report In Procee dings of IPPS SPDP Heterogeneous Computing Workshop pages 4 18 1998 VERSAO 0 6 PAGINA 405 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 183 I Foster and C Kesselman editors The Grid Blueprint for a Future Compu ting Infrastructure Morgan Kaufmann 1999 184 I Foster C Kesselman J Nick and S Tuecke The Physiology of the Grid An Open Grid Services Architecture for distributed systems integration Global Grid Forum GGF 2002 185 I Foster C Kesselman and S Tuecke The nexus approach to integrating multithreading and communication Journal of Parallel and Distributed Com puting 37 70 82 1996 186 I Foster C Kesselman and S Tuecke The anatomy of the Grid Enabling scalable virtual organizations International J Supercomputer Applications 15 3 2001 187 The Apache Software Foundation Apache jak
150. 1 1 Troca de Mensagens Message Passing cvs snsa rasa tosa 244 ILLL PYNC cos ara E ae A IN E es eo ee 245 11 1 2 Message Passing Interface MPI 0 246 11 2 Rela es Entre o Hardware e o Software para Explora o do Para TERES co dedo do ed Edo do e Di dp dd Db RES a EO dDs 248 11 2 1 Rela o entre Algoritmos e Arquiteturas Paralelas 249 11 2 2 Propriedades de um Modelo de Programa o para o Pro cessamento Paralelo 00000 0 253 11 3 A Explora o do Paralelismo N veis de Abstra o e Modelos 258 11 3 1 Modelos nos quais o Paralelismo Explorado de Forma To talmente Implicita Soe ke Oe eed pa EPE ee Ae 258 11 3 2 Modelos com Assinalamento do Paralelismo Expl cito 263 11 3 3 Modelos com Assinalamento e Decomposi o do Parale lismo Expl citos 4446 eG S44 wa REED ER ds RHE 266 11 3 4 Modelos com Assinalamento Decomposi o e Mapea mento do Paralelismo Expl citos 268 11 3 5 Modelos com Assinalamento Decomposi o Mapeamento e Comunica o Expl citos sas isa ee god 270 11 3 6 Modelos nos quais o Paralelismo Explorado de Forma To talmente Expl cita gt sa ccas arira rid ri a a 271 12 Escalonadores de Tarefas 273 VERSAO 0 6 P GINA XXI GUIA CLUSTER SUMARIO 12 1 OpenPBS 12 2 TORQUE 12 3 MAUI 13 Grids Computacionais 13 1 Introdu o 13 2 Grids de Servi os 13 3 Grids para Alto Dese
151. 11 VERSAO 0 6 P GINA 364 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL 1307 USA Inclua tamb m informa es sobre como contatar voc por correio eletr nico e por meio postal Se o programa for interativo fa a com que produza uma pequena notifica o como esta quando for iniciado em um modo interativo Vers o 69 do Gnomovision Direitos Autorais Reservados c ano nome do autor O Gnomovision N O POSSUI QUALQUER TIPO DE GARANTIA para detalhes digite show w Este um Software Li vre e voc bem vindo para redistribu lo sob certas condi es digite show c para detalhes Os comandos hipot ticos show w e show c devem mostrar as partes apropri adas da Licen a P blica Geral Naturalmente os comandos que voc utilizar poder o ter outras denomina es que n o show w e show c eles poder o at ser cliques do mouse ou itens de um menu o que for adequado ao seu programa Voc tamb m pode solicitar a seu empregador se voc for um programador ou sua institui o acad mica se for o caso para assinar uma ren ncia de direitos autorais sobre o programa se necess rio Segue um exemplo altere os nomes A Yoyodyne Ltda neste ato renuncia a todos eventuais direitos auto rais sobre o programa Gnomovision que realiza passagens em com piladores escrito por James Hacker lt Assinatura de Ty Coon gt 1 de abril de 1989 Ty Coon Presidente
152. 133 Estrutura de diret rios distribu da 00 138 Volumes VSGs e AVSGs 0 0 0 000 cee eee ee eee 157 Vis o Geraldo PVFS 2 6 60 ep pe eR ee A EAS 163 PAGINA XXVI GUIA CLUSTER LISTA DE FIGURAS 7 8 249 8 1 8 2 8 3 8 4 8 5 8 6 8 7 8 8 8 9 9 1 9 2 9 3 9 4 9 5 9 6 OF 9 8 VERSAO 0 6 Clientes acessando o PVES lt lt 2 csc dae Cee Law REE HRS 164 Fluxo ue dades pelo kernel gt 2 lt 46445 6 64644 6 KGS as wR 164 Esquema geral de um Linux Virtual Server cc 62k 4ss ee ews 174 INVSNA cosmo KEDRON DR OSS ESS ED e 176 RD ok a a tk Oh DE oe SE pa a ot eh ae 178 PAI 6 2A RA EEE DA REO dd ata dd a e E EEE 179 Vis o geral de um cluster Tomcat 26 24 ss Sobra ana ee RS 185 Balancemento de carga via DNS Round Robin 186 Balanceamento de carga via Apache mod jk 188 DNS TOLO ss aaa Koh eee EHH ERE E da ESS 193 ZEO ZODB Nae i Yn nh nk inks Wh ewe We a 194 Sistema de balanceamento de carga 1 2 0 000045 205 Sistema de balanceamento de carga sc ane was was ae es 206 Sistema de alta disponibilidade 00 207 Pando DO SEQUDIA sa pas rss ge gs Bae go Dogue os 217 Exemplo de RAIDBO sm pese hee ese SRT SR e a 219 Exemplo de RAID 246 054 5426 444 F5E4 KES a Da Doai 220 Exemplo de RAR as se sen o da HR RR RH ce SL 221 Exemplo de RAND 25 eee eb ee ee ee ee EE Epia 222 PAGINA XXVII GUIA CLUSTER LISTA DE FIGURAS
153. 1993 pode ser obtido em ftp netlib2 cs utk edu mpi mpil ps Em novembro de 1992 foi decidido colocar o processo de padroniza o numa base mais formal adotando se o procedimento e a organiza o do HPF the High Performance Fortran Forum O projeto do MPI padr o foi apresentado na confe r ncia Supercomputing 93 realizada em novembro de 1993 do qual se originou a vers o oficial do MPI 5 de maio de 1994 Ao final do encontro do MPI 1 1994 foi decidido que se deveria esperar mais experi ncias pr ticas com o MPI A sess o do Forum MPIF de Supercomputing 94 possibilitou a cria o do MPI 2 que teve inicio em abril de 1995 No Super Computing 96 foi apresentada a vers o preliminar do MPI 2 Em abril de 1997 o documento MPI 2 foi unanimemente votado e aceito Este documento est dispon vel via HTML em http www mpi forum org docs mpi 20 html mpi2 report html O Padr o MPI No padr o MPI uma aplica o constitu da por um ou mais processos que se comunicam acionando se fun es para o envio e recebimento de mensagens en tre os processos Inicialmente na maioria das implementa es um conjunto fixo VERSAO 0 6 P GINA 247 GUIA CLUSTER 11 2 RELA ES ENTRE O HARDWARE E O SOFTWARE PARA EXPLORA O DO PARALELISMO de processos criado Por m esses processos podem executar diferentes progra mas Por isso o padr o MPI algumas vezes referido como MPMD multiple program multiple data Elementos
154. 2 verifica periodicamente se ela voltou caso a inst ncia volte a responder ela posta junto com as outras ins t ncias em funcionamento voltando a receber requisi es Cliente A Cliente B Cliente C Servidor Servidor Servidor Tomcat 1 Tomcat 2 Tomcat 3 Figura 8 7 Balanceamento de carga via Apache mod jk As requisi es s o distribu das com mod jk2 atrav s de um algoritmo de Round robin podendo ser levado em conta um fator de carga peso associado a cada inst ncia que regula a prioridade com a qual recebem conex es mod jk2 trabalha tamb m com sess es afins sticky sessions que assegura que todas as requisi es com mesma sess o ser o tratadas pelo mesmo n Tomcat A desvantagem desde m todo que caso uma inst ncia deixe de funcionar a sess o associada a ela ser perdida Balanceamento de carga via software Entre as solu es usadas para balanceamento de carga via software uma das mais conhecidas o LVS Classificado como um roteador de camada 4 trata se de modifica es incluidas no kernel Linux usadas para redirecionar conex es TCP de maneira transparente para o usu rio De maneira geral funciona como o balanceamento feito com hardware especiali zado Uma m quina com o sistema operacional Linux conhecida no jarg o LVS como Director possui o IP que ser acessado pelos clientes O Director usando VERSAO 0 6 P GINA 188 GUIA CLUSTER 8 2 2 COMPARTILHAMENTO DE SESSOES seus
155. 273 particularmente potencializa a explora o do parale VERSAO 0 6 P GINA 264 GUIA CLUSTER 11 3 2 MODELOS COM ASSINALAMENTO DO PARALELISMO EXPL CITO lismo de dados inerente aos la os disponibilizando construtores que devem ser utilizados nos programas para determinar como as estruturas de dados devem ser alocadas aos processadores Para fazer isto o programador precisa ter clareza da rela o entre os dados Potencialidade de Explora o do Paralelismo O c digo para explora o do paralelismo de dados simples de ser escrito e depurado Isto decorre do paralelismo ser explicitamente trabalhado pelos sin cronismo e fluxo de controle inerentes aos equipamentos matriciais Os programas para paralelismo de dados necessitam para sua execu o de uma pr distribui o dos conjuntos de dados que ser o manipulados Deste modo a organiza o das estruturas de dados utilizadas neste tipo de paralelismo deter minante para o seu desempenho Portanto este paralelismo centrado em computa es locais e opera es de ma nipula o de dados replica es permuta es redu es etc Pode ser explo rado com sucesso mesmo em problemas de baixa granulosidade desde que estes utilizem conjuntos de dados com estruturas multidimensionais regulares Dependendo da granulosidade inerente ao problema e do algoritmo adotado o paralelismo de dados pode tamb m ser explorado em multiprocessadores tanto de mem r
156. 3 3 Acessando um servico usando CORBA 14 Apesar das vantagens de CORBA alguns autores defendem que CORBA falhou na garantia de interoperabilidade entre os ORBs o que tornaria a plataforma mais amplamente utilizada O argumento que a competi o entre os desen volvedores de ORBs se tornou acirrada acarretando problemas de interoperabili dade 199 Por outro lado Web Services surgiu como uma nova tecnologia para computa o distribu da que aproveitou v rios padr es j bem estabelecidos como seu alicerce O primeiro e talvez maior contraste entre Web Services e CORBA a camada de transporte utilizada por cada uma das plataformas Enquanto CORBA baseado no protocolo TOP Web Services aproveita o protocolo HTTP para en vio de mensagens entre cliente e provedor A Figura 13 4 ilustra como ocorre a comunica o entre o cliente e um Web Service Note que a interface do servi o descoberta em tempo de execu o Ap s obten o da refer ncia para o servi o o cliente pode iniciar a comunica o com o servi o atrav s do envio de mensa gens VERSAO 0 6 P GINA 284 GUIA CLUSTER 13 2 2 DESCOBERTA DE SERVI OS UDDI Registry 1 Where can find a Web Service that does X UDDI 2 Server Ais capable of doing X UDDI 3 How exactly should invoke you 4 Take a look at this WSDL 5 Request operation X SOAP Client Web Server A 6 Result of operation X SO
157. 7th IEEE Symposium on High Performance Distributed Computing July 1998 310 C Rolland Latex Guide Pratique Addison Wesley France SA 1995 311 C De Rose F Blanco N Maillard K Saikoski R Novaes O Richard and B Richard The virtual cluster A dynamic environment for exploitation of idle network resources In Proceedings of 14th Symposium on Computer Architectures and High Performance Computing 2002 312 C De Rose and P Navaux Fundamentos de processamento de alto de sempenho In ERAD 2002 2a Escola Regional de Alto Desempenho Janeiro 2002 313 Rob Ross Walt Ligon and Phil Carns Parallel virtual file system http www parl clemson edu pvfs2 sc2002 whitepaper pvfs pdf Ultima Visita em 20 09 2005 12 12 VERSAO 0 6 PAGINA 416 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 314 D De Roure N R Jennings and N R Shadbolt The semantic grid Past present and future In Proceedings of the IEEE volume 93 2003 315 David De Roure Mark A Baker Nicholas R Jennings and Nigel R Shad bolt The evolution of the Grid Int J of Concurrency and Computation Prac tice and Experience to appear 316 Antony I T Rowstron and Peter Druschel Storage management and ca ching in PAST a large scale persistent peer to peer storage utility In Sym posium on Operating Systems Principles pages 188 201 2001 317 Alex Salkever Trading cpu time like corn http yahoo businessweek com
158. 987 iniciou se o desenvolvimento de um sistema de arquivos de alta disponibi lidade baseado na escalabilidade e seguran a do AFS denominado CODA mais detalhes na se o 7 3 6 e AFS 3 O AFS 3 ou simplesmente AFS foi uma iniciativa de tornar o AN DREW um sistema comercial no in cio de 1990 Para tanto era necess rio adotar alguns padr es como por exemplo o Virtual File System VFS da SUN possibilitando integr lo a outros sistemas de arquivos Foi implementado o protocolo Kerberos para autentica o m tua entre cli entes e servidores resolvendo assim o problema de seguran a no acesso aos dados A prote o dos arquivos baseada em listas de controle de acesso que especificam quais usu rios ou grupos t m que tipo de acesso sobre eles Al m disso a partir dessa implementa o os arquivos deixaram de ser ca cheados em sua totalidade e passaram a ser transferidos conforme a ne cessidade em blocos de 64 Kbytes reduzindo assim a lat ncia da abertura e tornando poss vel o acesso a arquivos grandes que n o cabem no disco local Princ pios do AFS A fim de atingir seus objetivos foram adotadas algumas regras para o desenvol vimento do ANDREW e consequentemente do AFS 1 Sempre que for poss vel deve se realizar as opera es no cliente e n o no servidor distribuindo assim as tarefas entre as m quinas dispon veis evi tando sobrecarregar o servidor 2 Sempre que poss vel usar o cach
159. A riodos de tempo Replica o dos Dados Pelo CODA cada volume um conjunto de diret rios do sistema de arquivos associado a um volume storage group VSG que consiste de um conjunto de servidores que replicam o volume O conjunto de servidores acess veis de um certo grupo em um certo momento chamado de AVSG accessible VSG Essa organiza o melhor visualizada na figura 7 6 A coer ncia entre as v rias c pias de um arquivo mantida por um sistema parecido com o de callbacks do AFS Luma ei Figura 7 6 Volumes VSGs e AVSGs Quando um cliente envia uma atualiza o de um arquivo para o servidor a atu aliza o enviada para todos os servidores AVSG usando um mecanismo deno minado multiRPC Al m disso s o enviadas mensagens aos clientes quebrando o callback que eles possuem para aquele arquivo invalidando o cache do mesmo Se um servidor que estava ca do volta rede nada feito inicialmente para atu alizar seus arquivos Por m sempre que um cliente envia uma requisi o para abrir um arquivo para o seu servidor preferido ele tamb m pede a todos os ser vidores AVSG que enviem a vers o daquele arquivo que eles det m Assim o cliente pode descobrir se existe algum servidor com uma c pia desatualizada avisando o para atualizar esse arquivo Dessa forma quem toma as iniciativas VERSAO 0 6 P GINA 157 GUIA CLUSTER 7 3 6 CONSTANT DATA AVAILABILITY CODA para atualiza o
160. A 179 GUIA CLUSTER 8 1 3 ALGORITMOS DE ESCALONAMENTO o sistema Quando o Director recebe uma requisi o de um cliente atrav s dos algoritmos de escalonamento que ele decide qual n dever trata la Existem m todos de escalonamento din mico que d o maior controle sobre a carga de chegada com pouco ou nenhum custo adicional em processamento O Director mant m uma lista do n mero de conex es ativas e inativas para cada n do cluster e usa esta informa o para determinar qual n ir enviar uma nova conex o Os m todos mais utilizados s o discutidos a seguir Round Robin RR O Director mant m uma lista com os endere os de cada Servidor Real assim que recebe uma conex o ele a redireciona para um servidor dessa lista onde uma pr xima conex o ser enviada para o servidor seguinte e assim continua percorrendo essa lista de forma circular atendendo todas as requisi es Todos os servidores da lista s o tratados de igual maneira n o importando quantas conex es est o sendo manipuladas por um servidor espec fico nem seu tempo de resposta e ou capacidade de processamento Round Robin com pesos WRR Cada n do sistema LVS possui um peso inteiro associado sua capacidade de processamento e atribu do pelo administrador do ambiente baseado na quanti dade de carga que ele pode manipular capacidade de processamento O peso ent o usado em conjun o com o m todo round robin para selecionar
161. A CLUSTER 6 3 ESCALONAMENTO entre outros As fun es objetivo tamb m podem ser diversas como a minimi za o do tempo m dio gasto por uma atividade de montagem de pe as em uma m quina de uma linha de produ o ou a minimiza o do tempo de execu o de uma tarefa computacional Escalonadores de tarefas s o componentes de software comumente integrados a sistemas operacionais paralelos e ou distribu dos e que t m como fun o a distri bui o de trabalho computacional para as unidades de processamento integran tes do sistema de modo a maximizar o desempenho global do processamento realizado isto promover o balanceamento de carga entre as unidades de pro cessamento envolvidas Em sistemas homog neos o problema de balanceamento de carga pode ser redu zido a uma divis o de um determinado trabalho computacional em N por es iguais e que possam ser distribu das e executadas por N unidades de proces samento do sistema supostamente id nticas Neste caso o problema est forte mente relacionado maneira de como representar o trabalho computacional a ser processado e a melhor maneira de dividi lo em v rias partes iguais Em sistemas heterog neos o problema de balanceamento de carga considera velmente mais complexo e nestas circunst ncias o escalonador de tarefas ganha especial import ncia Para que o conjunto heterog neo de unidades de processa mento possa ser utilizado de maneira eficiente ques
162. A LEI APLIC VEL EXCETO QUANDO DE OUTRA FORMA ESTA BELECIDO POR ESCRITO OS TITULARES DOS DIREITOS AUTORAIS E OU OUTRAS PARTES FORNECEM O PROGRAMA NO ESTADO EM QUE SE ENCONTRA SEM NENHUMA GARANTIA DE QUAL QUER TIPO TANTO EXPRESSA COMO IMPL CITA INCLUINDO DEN TRE OUTRAS AS GARANTIAS IMPL CITAS DE COMERCIABILIDADE E ADEQUA O A UMA FINALIDADE ESPEC FICA O RISCO INTE GRAL QUANTO QUALIDADE E DESEMPENHO DO PROGRAMA ASSUMIDO POR VOC CASO O PROGRAMA CONTENHA DEFEITOS VOC ARCAR COM OS CUSTOS DE TODOS OS SERVI OS REPAROS OU CORRE ES NECESS RIAS EM NENHUMA CIRCUNST NCIA A MENOS QUE EXIGIDO PELA LEI APLIC VEL OU ACORDADO POR ESCRITO QUALQUER TITULAR DE DIREITOS AUTORAIS OU QUALQUER OUTRA PARTE QUE POSSA MO DIFICAR E OU REDISTRIBUIR O PROGRAMA CONFORME PERMI TIDO ACIMA SER RESPONS VEL PARA COM VOC POR DANOS INCLUINDO ENTRE OUTROS QUAISQUER DANOS GERAIS ESPECI AIS FORTUITOS OU EMERGENTES ADVINDOS DO USO OU IMPOS SIBILIDADE DE USO DO PROGRAMA INCLUINDO ENTRE OUTROS VERSAO 0 6 P GINA 363 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL PERDAS DE DADOS OU DADOS SENDO GERADOS DE FORMA IMPRE CISA PERDAS SOFRIDAS POR VOCE OU TERCEIROS OU A IMPOSSI BILIDADE DO PROGRAMA DE OPERAR COM QUAISQUER OUTROS PROGRAMAS MESMO QUE ESSE TITULAR OU OUTRA PARTE TE NHA SIDO ALERTADA SOBRE A POSSIBILIDADE DE OCORRENCIA DESSES DANOS FINAL DOS TERMOS E CONDICOES Como Aplicar Estes Termos para Seus
163. AP Figura 13 4 Intera o entre cliente e provedor Web Services 343 13 2 2 Descoberta de Servi os Apesar de ser poss vel que clientes acessem servi os diretamente sem envolver um cat logo permitir que os servi os sejam descobertos dinamicamente fun damental para construir uma infraestrutura de servi os sob demanda Sendo assim em Grids computacionais fundamental que seja poss vel desco brir os servi os existentes em uma infra estrutura que podem atender a demanda de uma determinada aplica o A id ia que um servi o de descoberta funcione como as p ginas amarelas de um cat logo telef nico que permitem os usu rios da rede telef nica encontrarem prestadores de servi os a partir de alguns cri t rios como classifica o da atividade localiza o do estabelecimento e outras informa es divulgadas no cat logo Em sistemas CORBA por exemplo o servi o de descoberta se chama Trader 35 Ele possui o cadastro dos objetos distribu dos do sistema com suas respectivas propriedades e permite que qualquer objeto consulte este cadastro para encon trar objetos cujas propriedades atendam um determinado crit rio de pesquisa Se em um sistema CORBA restrito a uma nica organiza o um servi o de des coberta importante o que dizer de sistemas em Grid que executam em um ambiente multi institucional Eles s o fundamentais para que seja poss vel com partilhar recursos e servi os computacionai
164. Chuan Chang The design and implemen tation of the pasda parallel file system In International Conference on Parallel and Distributed Systems chapter pages 142 147 1994 238 Paul JONES Mark P HUDAK Implicit and explicit parallel program ming in haskell nebula systemsz cs yale edu pub yale fp reports RR 982 ps Z julho de 1999 239 T Jones A Koniges and R K Yates Performance of the ibm gene ral parallel file system http www 11lnl gov icc 1c siop papers GPFSperformance doc Ultima Visita em 20 09 2005 12 12 240 Zhiwei Xu K Hwang Scalable Parallel Computing McGraw Hill 2000 241 Poul Henning Kamp and Robert N M Watson Jails Confining the om nipotent root In Proceedings of 2nd International System Administration and Networking Conference May 2000 242 Subramanian Kannan Mark Roberts Peter Mayes Dave Brelsford and Jo seph F Skovira Workload management with loadleveler http www redbooks ibm com redbooks November 2001 243 Z M Kedem K V Palem and P G Spirakis Efficient robust parallel com putations extended abstract In ACM Symposium on Theory of Computing pages 138 148 1990 244 Philippe KERGOMMEAUx Jacques Chassin CODOGNET Parallel logic programming systems ACM Computing Surveys 26 3 295 336 september 1994 245 Fabio Kon Distributed file systems past present and future a distributed file system for 2006 http choices cs uiuc edu f kon DFSPaper ps gz
165. Computer Society Press March 2001 292 OpenMP Simples portable scalable smp programming http www openmp org December 2003 293 C Osthoff P Barros C Veronez F Agostini W Cirne E Santos Neto L Costa F Silva P Pascutti P Bisch and A Silva Utiliza o do software mygrid para adaptar uma aplica o de din mica molecular em um grid de 7 dom nios In Technical Report LNCC LNCC Rio de Janeiro Brasil 2002 294 John Ousterhout A brief retrospective on the sprite network operating sys tem ABriefRetrospectiveontheSpriteNetworkOperatingSystem Ul tima Visita em 20 09 2003 12 12 295 S P Pacheco A user s guide to mpi http nexus cs usfca edu mpi Ultima Visita em 20 04 2005 12 20 296 GIMPS Home Page The great internet mersenne prime search nttp www merssene org December 2003 297 D Paranhos W Cirne and F Brasileiro Trading cycles for information Using replication to schedule bag of tasks applications on computational grids In Proceedings of the Euro Par 2003 International Conference on Parallel and Distributed Computing Klagenfurt Austria August 2003 298 Simon PEYTON JONES Implementing Functional Programming Languages International Series in Computer Science Prentice Hall 1992 299 M Pinedo Scheduling Theory Algorithms and Systems Prentice Hall 2nd edition New Jersey USA August 2001 300 Jef Poskanzer Bandwidth http www acme com buildapc ba
166. Consultas SQL Nesta categoria encontram se as tec nologias de paraleliza o de consultas SOL cujo objetivo aumentar a velocidade de processamento e execu o de consultas sql complexas particionando a e distribuindo em um conjunto de servidores Uma solu o independente de plataforma de banco de dados o Pargres desenvolvido para ser utilizado principalmente em aplica es OLAP e DataWareHouse Unttp http pargres nacad ufrj br VERSAO 0 6 P GINA 53 GUIA CLUSTER 3 4 ARQUITETURA PARA SISTEMAS CRITICOS ONLINE EM N CAMADAS e Distribui o do banco e balanceamento das requisi es Este tipo de tecno logia utilizada normalmente em grandes aplica es transacionais onde necess rio aumentar a performance e disponibilidade As solu es mais co nhecidas s o o pgCluster espec fico para o postgres e o Sequoia solu o em java independente de sistema de gerenciamento de banco de dados Maiores informa es sobre as tecnologias dispon veis para cluster de banco de dados podem ser encontradas no cap tulo 9 3 4 Arquitetura para sistemas cr ticos online em N Camadas 3 4 1 Defini o A Arquitetura para sistemas cr ticos online em N camadas um conceito que vem ganhando credibilidade no mercado Em sistemas mais voltados para servi os web suas principais vantagens s o o fato de ser baseada totalmente em padr es abertos e ser uma arquitetura extremamente modular capaz de se adaptar ao
167. E DISTRIBUIDA Grande Porte Cluster e Grid Alto custo de implanta o Depend ncia de fornecedor nico Utiliza o de hardware espec fico Alto custo de manuten o Dificuldade de redimensiona mento do ambiente Utiliza o parcial da capacidade de processamento Grande custo total de proprie dade Tecnologia estabelecida no mer cado Baixo custo de implanta o Independ ncia de fornecedores facilidade de negocia o Utiliza o de hardware comum padr o PC Baixo custo de manuten o Facilidade de redimensiona mento do ambiente Maximiza o da capacidade de processamento Baixo custo total de proprie dade Tecnologia inovadora VERSAO 0 6 Tabela 2 1 Diferen as entre computa o de grande porte e distribu da P GINA 34 Parte II Aspectos Gerenciais GINA Capitulo 3 Introdu o As tecnologias de Cluster e Grid tem sido amplamente utilizadas nos ltimos 20 anos principalmente em aplica es de pesquisa algumas das reas de maior utiliza o destas tecnologias s o pesquisa gen tica bioinform tica f sica qui mica engenharia climatologia petroqu mica pesquisa espacial e resolu o de equa es e m todos matem ticos Apesar das tecnologias de clusters serem recentes sua utiliza o e crescente e j domina a lista das m quinas mais rapidas do mundo A figura 3 1 mostra a evolu o percentual d
168. ER 13 2 5 COMPOSI O DE SERVI O vacidade pode ser garantida Um exemplo disso foi a infraestrutura montada pela HP para prover a renderiza o das imagens do filme Sherek 2 34 13 2 5 Composi o de Servi o Em nossa sociedade estamos bem acostumados com a presta o de servi os por parte de empresas profissionais e governo Muitas vezes para executar um ser vi o um prestador de servi o torna se cliente de outros prestadores sem que seus clientes tomem conhecimento disso Uma ag ncia de turismo por exemplo vende pacotes de viagem e para prestar este servi o contrata servi os de compa nhias a reas centrais de interc mbio estudantil hot is empresas de aluguel de carro etc Para o cliente que compra o pacote o servi o prestado por uma nica entidade como se a venda da passagem a rea de quartos em hot is aluguel de carro fossem feitos pela pr pria ag ncia de turismo Todavia muito dif cil uma ag ncia de viagens se estruturar e funcionar tendo que ser respons vel por tantas atividades que n o s o sua atividade fim O servi o torna se mais caro e complexo de ser administrado A estrat gia adotada geralmente terceirizar estas atividades Assim a venda do pacote de viagem torna se uma composi o de servi os prestados por diversas entidades Da mesma forma em Grids Computacionais os servi os podem ser compostos por outros servi os A composi o de servi os traz uma s rie de be
169. ER 3 3 1 CEN RIOS DE APLICA O liza o de software espec fico diretamente conectado massa de informa es tornou se uma grande necessidade a qual aplica o de t cnicas de minera o de dados prop e se a dirimir Minera o de dados compreendida como a explora o e a an lise por meio autom tico ou semi autom tico de grandes quantidades de dados a fim de descobrir padr es e regras significativos O processo de minera o de dados tem como principais objetivos descobrir rela cionamentos geralmente n o triviais entre dados armazenados fornecer subsi dios para que seja poss vel realizar previs o de tend ncias futuras com base nos registros acumulados bem como estabelecer par metros para an lise e auditoria das informa es coletadas A realiza o de um processo de minera o de dados geralmente emprega al goritmos de alta complexidade os quais podem realizar tarefas de classifica o estimativa associa o segmenta o ou agrupamento de informa es com pos sibilidade de consultas bases de dados n o estruturadas Dessa forma medida que a base de dados aumenta as possiblidades de relaci onamentos e combina es de tarefas cresce exponencialmente Por essa raz o existe o desafio de promover um ambiente computacional favor vel ao processo de minera o de dados para que os resultados possam ser obtidos em curto espa o de tempo Existem 2 tipos de Cluster que
170. Engineering Computation The Mit Press Cambridge Massachussets 51 W Allcock J Bester J Bresnahan A Chervenak L Liming S Meder and S Tueck Gridftp protocol specification GGF GridFTP Working Group Document September 2002 52 W Allcock A Chervenak I Foster C Kesselman and C Salisbury S Tu ecke The data grid Towards an architecture for the distributed manage ment and analysis of large scientific datasets Journal of Network and Compu ter Applications 23 187 200 2001 53 Globus Alliance Ogsa site http www globus org ogsa 2003 54 S F Altschul W Gish W Miller E W Myers and D J Lipman Basic local alignment search tool Journal of Molecular Biology 1 215 403 410 1990 55 S F Altschul T L Madden A A Schaffer J Zhang Z Zhang W Mil ler and D J Lipman Gapped BLAST and PSI BLAST a new generation of protein database search programs Nucleic Acids Research 25 3389 3402 1997 56 Ahmed Amer and Amr El Kadi Beating bottlenecks in the design of dis tributed file systems Dez 1996 57 T Bray and J Paoli and C M Sperberg McQueen Extensible Markup Lan guage XML 1 0 Second Edition W3C 1 1 edition October 2000 http www w3c org TR REC xml 58 Carl Anderson and John J Bartholdi III Centralized versus decentralized control in manufacturing Lessons from social insects In I P McCarthy VERSAO 0 6 PAGINA 394 GUIA CLUSTER REFER NCIAS BIBL
171. Essa demanda ser atendida se existir uma GuM n o alocada que possua um atributo compat vel com o requisito especificado pela aplica o Por tanto apesar de n o ter uma arquitetura que prov comunica o entre as tarefas que est o sendo executadas nas GuMs a solu o OurGrid prov meios de agre gar ao Grid GuMs que permitem a execu o de aplica es fortemente acopladas VERSAO 0 6 P GINA 341 GUIA CLUSTER 13 4 3 OURGRID Transfer ncia de Dados A solu o OurGrid para transfer ncia de dados baseada no tratamento de ar quivos Desta forma o usu rio ao descrever sua aplica o tem a sua disposi o o uso de tr s opera es de transfer ncia arquivos put store e get que podem ser usadas para preparar o ambiente para execu o da aplica o colocando os arquivos nos sites onde a aplica o ir executar como tamb m coletar os dados resultantes do processamento Tanto put quanto store s o opera es que permitem a transferir arquivos para a GuM A diferen a entre as duas opera es consiste apenas do fato que store evita a transfer ncia do arquivo caso o arquivo j se encontre armazenado no lado remoto Isso til por exemplo para execut veis da aplica o e dados que s o reutilizados entre execu es sucessivas da aplica o A terceira opera o get fornece um m todo de coletar arquivos resultantes da execu o das aplica es A infraestrutura de comunica o usada para a
172. F Por exemplo o GRAM do Globus 3 ser substitu do pelo WS GRAM 0 qual segue as especifica es definidas na fam lia de padr es WSRF 13 3 Grids para Alto Desempenho Neste cap tulo os Grids Computacionais s o apresentados como uma plataforma de execu o para aplica es paralelas Sendo assim faremos compara es com plataformas de execu o convencionais Em seguida definiremos quais s o os tipos de aplica es paralelas mais adequadas para executar em um Grid Compu tacional Finalmente apresentaremos dois estudos de caso 13 3 1 Plataformas para Processamento Paralelo Uma aplica o paralela composta por v rias tarefas As tarefas que comp em uma aplica o paralela executam em v rios processadores caracterizando desta forma o paralelismo da execu o da aplica o e consequente redu o no seu tempo de execu o Os processadores usados por uma determinada aplica o constituem a plataforma de execu o da aplica o VERSAO 0 6 P GINA 302 GUIA CLUSTER 13 3 1 PLATAFORMAS PARA PROCESSAMENTO PARALELO Plataformas de execu o de aplica es paralelas variam em diversos aspectos dos quais destacamos conectividade heterogeneidade compartilhamento ima gem do sistema e escala e Conectividade diz respeito aos canais de comunica o que interligam os pro cessadores que comp em a plataforma de execu o Atributos que definem a conectividade de uma plataforma s o a topologia largura
173. GF Global grid forum http www ggf org November 2003 197 Sanjay Ghemawat Howard Gobio and Shun Tak Leung The go ogle file system http www cs rochester edu sosp2003 papers p125 ghemawat pdf Ultima Visita em 20 09 2005 12 12 198 R Gibbons A historical application profiler for use by parallel schedulers Lecture Notes in Computer Science 1291 58 77 1997 199 Dan Gisolfi Is web services the reincarnation of CORBA http www 106 ibm com developerworks webservices library ws arc3 200 J et al GOGUEN An Introduction to OBJ3 Springer Verlag 1995 201 TI amp Governo O serpro inicia os testes para aban donar o mainframe e busca solu es em software livre http www serpro gov br noticiasSERPRO 20060829 02 TI amp Governo n 170 29 de agosto de 2006 202 Grid3 Grid3 An application grid laboratory for science http www ivdgl org grid2003 2005 203 Gridbus The gridbus project nttp www gridbus org 2005 204 Andrew S Grimshaw Wm A Wulf and The Legion Team The legion vi sion of a worldwide virtual computer Communications of the ACM 40 1 39 45 1997 205 W Lusk Gropp Using MPI Portable Parallel Programming with the Message Passing Interface MIT Press 1994 206 Apache Group The apache xml project http xml apache org Ultima Visita em 20 01 2005 12 20 207 GriPhyN Group http www GriPhyN org 2002 208 JBoss Group Jboss group Professiona
174. Guia de Estrutura o e Administra o do Ambiente de Cluster Vers o Beta 0 6 www governoeletronico gov br Minist rio do Planejamento Or amento e Gest o SLTI Secretaria de Log stica e Tecnologia da Informa o DSI Departamento de Integra o de Sistemas de Informa o Guia de Estrutura o e Administra o do Ambiente de Cluster Vers o Beta 0 6 Bras lia DF Presidente da Republica Luiz In cio Lula da Silva Vice Presidente da Rep blica Jos de Alencar Gomes da Silva Ministro de Estado do Planejamento Or amento e Gest o Paulo Bernardo Silva Ministro de Estado da Casa Civil Comit Executivo de Governo Eletr nico Dilma Roussef Secret rio de Log stica e Tecnologia da Informa o Secret rio Executivo de Governo Eletr nico Rog rio Santanna dos Santos Guia de Estrutura o e Administra o do Ambiente de Cluster Bras lia 2006 XXX p il Inclui Bibliografia 1 Cluster e Grid 2 Governo Eletr nico 3 Tecnologias da Informa o e Comunica o 4 Agregados Computacionais A menos que modifiquemos a nossa maneira de pensar n o seremos capazes de resolver os problemas causados pela forma como nos acostumamos a ver o mundo Albert Einstein GUIA CLUSTER Coordena o Secretaria de Log stica e Tecnologia da Informa o SLTI Minist rio do Planejamento Or amento e Gest o Colabora o T cnico Administrativa Claude
175. IOGR FICAS and T Rakotobe Joel editors Complexity and Complex Systems in Industry pages 92 105 September 2000 59 D Anderson J Cobb and E Korpela SETI home An experiment in public resource computing Communication of the ACM 45 11 56 61 2002 60 N Andrade F Brasileiro W Cirne and M Mowbray Discouraging free riding in a peer to peer grid In HPDC13 the Thirteenth IEEE International Symposium on High Performance Distributed Computing June 2004 61 N Andrade W Cirne F Brasileiro and P Roisenberg Ourgrid An appro ach to easily assemble grids with equitable resource sharing In Proceedings of the 9th Workshop on Job Scheduling Strategies for Parallel Processing 2003 62 Nazareno Andrade Walfredo Cirne Francisco Brasileiro and Paulo Roi senberg Ourgrid An approach to easily assemble grids with equitable resource sharing 9th Workshop on Job Scheduling Strategies for Parallel Proces sing June 2003 63 Gregory ANDREWS Synchronizing resources ACM Transactions on Pro gramming Languages and Systems 3 4 405 430 october 1981 64 Gregory ANDREWS The distributed programming language sr me chanisms design and implementation Software Practice and Experience 12 8 719 753 august 1982 65 Gregory R Andrews Synchronising resources ACM Transactions on Pro gramming Languages Andsystems 3 4 405 430 oct 1981 66 Ronald ANDREWS Gregory OLSSON The evolution of the sr langu
176. L CITOS p processadores cada qual com sua mem ria local todos conectados atrav s da rede de interconex o Os par metros da rede de interconex o utilizados s o tempo necess rio para a realiza o da barreira de sincroniza o e g a raz o na qual dados locais com endere o aleat rio podem ser liberados recebidos Estes par metros s o determinados experimentalmente para cada computador para lelo Deste modo se o tempo consumido com computa es locais exigir um total w e o volume de valores recebidos e enviados pelo processador for h ent o o tempo total gasto em um superstep t w hg 1 Considerando que a computa o sequencial tem diversas m tricas de comple xidade dispon veis e trabalhando com o maior valor previsto para as vari veis anteriores o tempo m ximo que um superstep ir despender pode ser facilmente obtido O outro modelo que trabalha neste n vel de abstra o o logP CULLER 129 Tamb m neste modelo s o utilizadas threads com contextos locais e com atualiza es de dados por comunica es globais Potencialidade de Explora o do Paralelismo O n vel de abstra o dos programas em BSP bastante elevado Apesar de sua decomposi o em threads ser feita pelo programador a aloca o das mesmas e toda comunica o sincroniza o feita de forma transparente para o mesmo Podem ser obtidos bons desempenhos com o modelo do BSP por m sua previsi
177. M 33 8 103 111 august 1990 370 S Vazhkudai J M Schopf and I Foster Predicting the performance of wide area data transfers In Proceedings of the 16th Internetional Parallel and Distributed Process Symposium IEEE Computer Society Press April 2002 371 Bill von Hagen Exploring the ext3 filesystem what is journaling http www linuxplanet com linuxplanet reports 4136 3 Ultima Vi sita em 20 09 2005 12 12 VERSAO 0 6 PAGINA 421 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 372 Gregor von Laszewski Grid Computing Enabling a Vision for Collabora tive Research In Juha Fagerholm Juha Haataja Jari J rvinen Mikko Lyly Peter Raback and Ville Savolainen editors The Sixth International Confe rence on Applied Parallel Computing volume 2367 of Lecture Notes in Computer Science pages 37 52 Espoo Finland 15 18 June 2002 Springer 373 Gregor von Laszewski Gail Pieper and Patrick Wagstrom Performance Evaluation and Characterization of Parallel and Distributed Computing Tools chapter Gestalt of the Grid Wiley Book Series on Parallel and Distribu ted Computing to be published 2002 374 W3C World wide web consortium W3c http www w3c org Ultima Visita em 24 01 2005 12 20 375 A Waheed W Smith J George and J Yan An infrastructure for moni toring and management in computational grids In Proceedings of the 2000 Conference on Languages Compilers and Runtime Systems 2000 376 A Waheed
178. NEXAO e independ ncia de processador caracteriza se o processador precisa ou n o ser interrompido para auxiliar na atividade de comunica o Muitas das atuais implementa es de redes de interconex o permitem que o processa dor continue sua computa o enquanto uma mensagem est sendo trans mitida recebida ou roteada Isto minimiza o custo introduzido pela neces sidade de comunica o entre processadores e conten o pode ocorrer a recep o praticamente simult nea de duas men sagens por uma determinada chave e ambas podem necessitar usar o mesmo canal de sa da Uma obrigatoriamente ter de aguardar O atraso na computa o do processador que aguarda a mensagem retida pode resultar em perda de desempenho Uma possibilidade o hardware de comuta o prever uma pol tica de tempo compartilhado para as portas das chaves isto dividiria o custo de espera entre os dois processadores destinat rios por m introduziria custos de comuta o vide lat ncia de comuta o 6 6 3 Topologias da Rede de Interconex o Uma vez que a interconex o direta de todos os processadores entre si n o vi vel quando o n mero dos mesmos aumenta como regra geral utilizado um padr o para definir as liga es Este padr o denominado de topologia da rede de interconex es Tr s par metros podem ser utilizados para caracterizar o pos s vel desempenho de uma topologia Os mesmos s o a largura da bisse o o di metr
179. No ParGRES o processamento da consulta explora o paralelismo intra e inter consultas usando replica o e fragmenta o virtual de dados O paralelismo do ParGRES voltado para as consultas pesadas t picas de aplica es OLAP e propomos uma solu o para essa demanda implementando parale lismo intra consulta em um cluster de BD O paralelismo intra consulta significa decompor consultas complexas em sub consultas que ser o executadas em para lelo A id ia que cada sub consulta atue em um fragmento de dados diferente Dessa forma cada sub consulta poder ent o ser enviada para o n que possui o respectivo fragmento dos dados Assim cada sub consulta enviada para um n diferente e executada em paralelo com as demais Embora esteja realizando o desenvolvimento sobre o PostgreSQL o paralelismo baseado no padr o SQL n o sendo dependente de nenhuma caracter stica espec fica do SGBD vide 16 Como as demais solu es para clusters de bancos de dados o ParGRES consiste em uma camada intermedi ria de software middleware que orquestra inst n cias de SGBDs em execu o nos diferentes n s do cluster para a implementa o VERSAO 0 6 P GINA 230 GUIA CLUSTER 9 5 2 PARGRES de t cnicas de processamento paralelo VERSAO 0 6 PAGINA 231 Capitulo 10 Alta Capacidade de Processamento HPC Cluster de Processamento HPC essa categoria de cluster possui como principal caracter stica o processamen
180. Novos Programas Se voc desenvolver um programa novo e quiser que ele seja da maior utilidade possivel para o publico o melhor caminho para obter isto fazer dele um Soft ware Livre o qual qualquer pessoa pode redistribuir e modificar sob os presentes termos Para fazer isto anexe as notifica es seguintes ao programa E mais seguro anex las ao comeco de cada arquivo fonte de modo a transmitir do modo mais efici ente a exclus o de garantia e cada arquivo deve ter ao menos a linha de direitos autorais reservados e uma indica o de onde a notifica o completa se encontra lt uma linha para informar o nome do programa e uma breve id ia do que ele faz gt Direitos Autorais Reservados c lt nome do autor gt Este programa Software Livre voc pode redistribu lo e ou modific lo sob os termos da Licen a P blica Geral GNU conforme publicada pela Free Software Foundation tanto a vers o 2 da Licen a como a seu crit rio qualquer vers o posterior Este programa distribu do na expectativa de que seja til por m SEM NENHUMA GARANTIA nem mesmo a garantia impl cita de COMERCIABILIDADE OU ADEQUA O A UMA FINALIDADE ESPEC FICA Consulte a Licen a P blica Geral do GNU para mais detalhes Voc deve ter recebido uma c pia da Licen a P blica Geral do GNU junto com este programa se n o escreva para a Free Software Founda tion Inc no endere o 59 Temple Street Suite 330 Boston MA 021
181. PE CLUSTER Zope uma solu o que integra um servidor Web ZServer middleware e um servidor de dados ZODB em um nico pacote Como parte desta solu o Zope pode emular a separa o entre o servidor Web e o servidor de dados atrav s de ZEO Zope Enterprise Objects ZEO uma parte sistema Zope que permite que um Zope Object Database seja compartilhado entre mais de um processo Zope Com o uso de ZEO pode se ro dar m ltiplas inst ncias de Zope em um nico computador ou em v rios compu tadores acrescentando escalabilidade ao sistema j que para atender ao poss vel e muito prov vel aumento de demanda mais m quinas podem ser acrescenta das ao sistema al m do aumento de confiabilidade caso uma m quina apresente problemas as outras ativas poder o atender a requisi es at que a falha seja re solvida Os servidores Zoe inst ncias do Zope que servem a aplica o aos clientes da Internet ou Intranet s o chamados de clientes nesta arquitetura j que acessam o servidor de aplica o Os clientes e servidores ZEO se comunicam atrav s de TCP IP o que permite que eles sejam distribu dos inclusive geograficamente sendo capaz de geren ciar uma grande quantidade de requisi es simult neas a partir de hardware de baixo custo A nica ressalva em rela o a esta arquitetura e que n o h mecanis mos de redund ncia nativa do ZODB servidor de armazenamento Isso pode ser resolvido com o uso de har
182. RTE A TOLER NCIA A FALHAS esta afirma o que somente um pequeno conjunto de aplica es poderia ser exe cutado eficientemente em um hardware paralelo A lista de aplica es acima in dica exatamente o contr rio a inefici ncia do processamento paralelo tem muito mais rela o com as dimens es do problema do que com as particularidades de um dom nio espec fico do conhecimento humano Nos ltimos dez anos os computadores paralelos tem sido programados com efici ncia tanto para aplica es do mundo comercial como para o da pesquisa e desenvolvimento MORSE 280 5 1 6 Suporte Toler ncia a Falhas Muitas aplica es cr ticas controle de tr fego a reo sistemas de controle indus triais automa es banc rias etc exigem um regime de opera o sem interrup es A exist ncia de redund ncia de hardware inerente s arquiteturas para lelas oferece um suporte natural s t cnicas de toler ncia a falhas Alguns pro cessadores podem monitorar e registrar a opera o do sistema no momento que for detectado alguma disfun o as partes envolvidas podem ter suas fun es continuadas por outras Deste modo no caso de falhas o equipamento paralelo pode manter a computa o corrente possivelmente ocorrendo t o somente uma diminui o no desempenho na presta o dos servi os HWANG 222 5 1 7 Crescimento Modular Esta caracter stica diferencia fortemente as arquiteturas paralelas e distribu
183. Recent Trends in Data Type Specifications volume 906 chapter 351 367 Springer Verlag 1995 254 C Lee and M Handi Parallel image processing applications on a network of workstations Parallel Computing 21 137 160 1995 255 F Leymann Web services flow language version 1 0 2001 256 Especial Cosmo On Line Declara o de ir pela internet bate recorde http www cosmo com br especial impostoderenda integra asp id 149890 ltima Visita em 11 09 2006 12 20 VERSAO 0 6 P GINA 411 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 257 M Litzkow M Livny and M Mutka Condor A hunter of idle worksta tions In Proceedings of 8th Internetaional Conference of Distributed Computing Systems pages 104 111 1988 258 Michael Litzkow Miron Livny and Matthew Mutka Condor a hunter of idle workstations In Proceedings of the 8th International Conference of Distri buted Computing Systems June 1988 259 V Lo J Mache and K Windisch A comparative study of real workload tra ces and synthetic workload models for parallel job scheduling In D Feitel son and L Rudolph editors Job Scheduling Strategies for Parallel Processing volume 1459 pages 25 46 Lecture Notes in Computer Science Springer Verlag 1998 260 Olivier Lobry Evaluation des syst mes de fichiers pvfs et nfsp http www id imag fr Laboratoire Membres Lobry_Olivier PVFS_NFSP PVFS_NFSP html Ultima Visita em 20 09 2005 12 12 261 Pierre Lo
184. Scheduler controla a execu o da aplica o submetendo tarefas tanto a Condor Pools quanto a recur sos acess veis via Globus como MPPs No caso de recursos Globus Condor G utiliza os servi os GRAM GASS MDS e GSI para viabilizar a execu o das tarefas 13 5 Tend ncias em Grids Computacionais Neste cap tulo foi apresentando os principais aspectos dos Grids Computacio nais desde a apresenta o de um conceito do que classifica uma infraestrutura de computa o distribu da como um Grid Computacional at o estado atual do VERSAO 0 6 P GINA 345 GUIA CLUSTER 13 5 TEND NCIAS EM GRIDS COMPUTACIONAIS desenvolvimento de tecnologia para a constru o dessas infraestruturas Vimos que Grids Computacionais levantam quest es em v rias reas de pes quisa por m seus benef cios v o al m de uma simples plataforma para execu o de aplica es em larga escala A id ia facilitar a colabora o de grupos de pesquisa distribu dos geograficamente Mostramos ent o que os Grids Computacionais como uma tecnologia que nas ceu na comunidade de alto desempenho e ganhou espa o na ind stria atrav s da transforma o da computa o distribu da pelo uso de servi os sob demanda Assim a converg ncia de tecnologias que culminou com a defini o do conceito de Grid Service foi um processo natural de evolu o dos Grids Tendo em vista a nova perspectiva que os Grid Services trouxeram para o de senvolvimento d
185. USTER 14 2 3 PARAVIRTUALIZACAO NO XEN Esta afirma o faz cair por terra a tese de que necess rio o uso de um ser vidor por aplica o considerando que servidor neste caso subentendido por hardware As taxas de utiliza o do processador do hardware podem ser melhor aproveitadas utilizando sistemas de virtualiza o aumentando o uso dos proces sadores o Xen prov virtualiza o dos processadores ou mesmo balanceamento de carga entre eles reduzindo o espa o f sico do Data Center e em contra partida reduzindo o consumo de energia el trica tanto para a alimenta o dos servidores quanto para outros tens como condicionador de ar Ainda com Xen poss vel manter um SLA muito interessante A possibilidade de dar manuten o f sica nos servidores sem necessidade de parada dos servi os um diferencial que todo administrador deseja ter para n o sofrer no momento da parada de um hardware Basta para isso ter um outro servidor configurado e migrar em tempo real 50ms o sistema operacional de um dom nio para outro 14 2 3 Paravirtualiza o no Xen O Xen usa uma t cnica completamente diferente do que conceitualmente utili zada em outros hypervisors Na paravirtualiza o o Sistema Operacional hospede portado para uma camada de hardware ring 1 que virtualiza todas as rela es do Sistema Operacional com o hardware Quando o Sistema Operacional atualiza estruturas de dados do hardware tais como a tab
186. Ultima Visita em 20 09 2005 12 12 VERSAO 0 6 PAGINA 410 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 246 Fabio Kon Sistemas de arquivos distribu dos http choices cs uiuc edu f kon thesis kon master ps gz Ultima Visita em 20 09 2005 12 12 247 Charles M Kozierok Hard disk drives http www pcguide com ref hdd Ultima Visita em 20 09 2005 12 12 248 Charles M Kozierok The processor http www pcguide com ref cpu Ultima Visita em 20 09 2005 12 12 249 B Kreaseck L Carter H Casanova and J Ferrant Autonomous proto cols for bandwidth centric scheduling of independent task applications In 17th International Parallel and Distributed Processing Symposium Nice France April 2003 250 Heather Kreger Web services conceptual architrecture http www 3 ibm com software solutions webservices pdf WSCA pdf 2003 251 J Kubiatowicz D Bindel Y Chen S Czerwinski P Eaton D Geels R Gummadi S Rhea H Weatherspoon W Weimer C Wells and B Zhao Oceanstore An architecture for global scale persistent storage In Proce edings of the Ninth International Conference on Architectural Support for Pro gramming Languages and Operating Systems IEEE Computer Society Press November 2000 252 The Olson Laboratory Fight aids home http fightaidsathome scripps edu 2003 253 U et al LECHNER An object oriented airport Specification and refine ment in maude In Computer Science editor
187. W Smith J George and J Yan An infrastructure for moni toring and management in computational grids In Proceedings of the 2000 Conference on Languages Compilers and Runtime Systems 2000 377 C Waldspurger and W Weihl Stride scheduling Deterministic proportional share resource mangement In Technical Memorandum MIT LCS TM 528 MIT Laboratory for Computer Science June 1995 378 David D H WARREN An abstract prolog instruction set Technical report Manchester SRI International 1983 379 J Weissman Gallop The benefits of wide area computing for parallel pro cessing Journal of Parallel and Distributed Computing 54 2 November 1998 380 J Weissman and Andrew Grimshaw A framework for partitioning parallel computations in heterogeneous environments Concurrency Practice and Experience 7 5 August 1995 381 Von Welch Frank Siebenlist Ian Foster John Bresnahan Karl Czajkowski Jarek Gawor Carl Kesselman Sam Meder Laura Pearlman and Steven Tu ecke Security for grid services In Twelfth International Symposium on High Performance Distributed Computing HPDC 12 June 2003 382 Wikipedia 10 gigabit ethernet http www wikipedia org wiki 10 Gigabit_Ethernet Ultima Visita em 20 09 2005 12 12 VERSAO 0 6 PAGINA 422 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 383 Wikipedia Pio mode http en wikipedia org wiki Programmed_ input output Ultima Visita em 20 09 2005 12 12 384 Wikipedia Scsi
188. a es e tamanho do algoritmo Granulosidade do m dulo os m dulos podem ser programas processos rotinas ou instru es dependendo do n vel no qual o paralelismo est sendo explorado A granulosidade do m dulo indica o volume de computa o que o mesmo con t m relativamente usual existir abund ncia de paralelismo com baixa granulo sidade o qual via de regra n o pode ser explorado com efici ncia Isto porque o trabalho com baixa granulosidade aumenta o volume de comunica o de dados entre os m dulos O desempenho da arquitetura paralela obtido atrav s de um equil brio entre granulosidade e comunica o As comunica es al m do custo de tempo que lhes inerente o qual dependente da rede de interconex o dos processadores normalmente estabelecem sincroniza es entre processos Controle da concorr ncia diz respeito estrat gia de selecionar m dulos para execu o A estrat gia de controle deve considerar as depend ncias de dados e controle para que a execu o do algoritmo seja correta Algumas estrat gias de VERSAO 0 6 P GINA 249 GUIA CLUSTER 11 2 1 RELA O ENTRE ALGORITMOS E ARQUITETURAS PARALELAS Algoritmo Paralelo Arquitetura Paralela Granulosidade do m dulo Complexidade do processador Controle da concorr ncia Modo de opera o Mecanismo de dados Estrutura da mem ria Geometria das comunica es Rede de interconex o N mero de processadores e tamanho d
189. a o destes modos de controle O modo VERSAO 0 6 P GINA 251 GUIA CLUSTER 11 2 1 RELA O ENTRE ALGORITMOS E ARQUITETURAS PARALELAS de opera o da arquitetura relacionado com o modo de controle da concorr n cia do algoritmo Estrutura da mem ria refere se ao modo de opera o e organiza o da mem ria do hardware paralelo A mem ria pode ser acessada utilizando tanto endere os como conte do de dados como nas mem rias associativas Em arquiteturas n o convencionais como as orientadas a conex o Connection Machine ou redes neurais a mem ria consiste de interconex es ponderadas cujo peso relativo in dica a alternativa a ser utilizada Nas arquiteturas convencionais a organiza o e o tamanho da mem ria est o fortemente associadas ao mecanismo de dados utilizado pelo algoritmo Rede de interconex o diz respeito s conex es de hardware entre processado res bem como destes com os bancos de mem ria Considerando o desempenho a rede de interconex o deve ser o mais semelhante poss vel geometria das comu nica es do algoritmo paralelo Computadores paralelos com redes de intercone x o simples e ou fixas conseguem ser eficientes para um determinado conjunto de tipos de algoritmos Redes de interconex o complexas ao contr rio podem ser configuradas para atender um ampla faixa de aplica es naturalmente isto torna o hardware mais caro e tamb m possivelmente ir crescer o custo overhe
190. a A file system for massively parallel computers http ssrc cse ucsc edu elm Papers mss93 pdf Ultima Visita em 20 09 2005 12 12 275 Ethan L Miller and Randy H Katz Rama An easy to use high performance parallel file system http ssrc cse ucsc edu elm Papers pc97 pdf Ultima Visita em 20 09 2005 12 12 276 V MILUINOVIC Scanning the issue Special issue on distributed shared memory systems Proceedings of the IEEE 87 3 1 March 1999 VERSAO 0 6 PAGINA 413 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 277 Dan I MOLDOVAN Parallel Processing From Applications to Systems Mor gan Kaufmann Publishers 1993 278 T N Moretti C O Bittencourt Aspectos gerais da computa o paralela e do sistema pvm Technical report Escola Polit cnica da Universidade de S o Paulo Boletim T cnico BT PEF 9709 ISSN 0103 9822 1997 279 R S Morrison Cluster Computing Theory Richard S Morrison GNU Gene ral Public Licence 2003 280 H Stephen MORSE Practical Parallel Computing Academic Press Inc 1994 281 M V MUTHUKUMAR K HERMENEGILDO Complete and effici ent methods for supporting side effects in independent restricted and parallelism In INTERNATIONAL CONFERENCE ON LOGIC PROGRAM MING 1989 282 M V MUTHUKUMAR K HERMENEGILDO Determination of variable dependence information through abstract interpretation In NORTH AME RICAN CONFERENCE ON LOGIC PROGRAMMING 1989 283 Myricom News amp
191. a a Pesquisa Nuclear CERT Computer Emergency Response Team CORBA Common Object Re quest Broker Architecture CRP Continuous Replenish ment Process VERSAO 0 6 Negocios feitos entre empresas seus clientes distribui dores e fornecedores conectando seus sistemas de infor ma o atrav s da Internet Negocios feitos das empresas com seus consumidores ou seja com rcio eletr nico com o consumidor final Um dos mais importantes centros mundiais de pesqui sas avan adas em F sica Nuclear e de Part culas loca lizado em Genebra Sui a Um de seus pesquisadores Tim Berners Lee foi o inventor em 1989 do HTTP Hy pertext Transfer Protocol o protocolo usado na WWW para transferir arquivos HTML Organiza o criada em 1988 que oferece servi os de con sulta para usu rios da Internet e que entra em a o sem pre que um novo v rus e outras amea as ao computado res s o descobertas um padr o para comunica o entre objetos distri bu dos Prov diferentes formas para executar progra mas objetos desenvolvidos em diferentes linguagens de programa o e em diferentes plataformas a pr tica de parceria entre os membros do canal de dis tribui o que altera o tradicional processo de reposi o de mercadoria de gera o de pedidos elaborados pelo distribuidor baseado em quantidades economicamente convenientes para a reposi o de produtos baseada em previs o de demand
192. a aplica es cpu intensive enquanto Storage Affinity foi desenvolvido para melhorar o desempenho de aplica es que processam grandes quantidades de dados Note que ter um algoritmo de escalonamento que funciona bem sem depender de muita informa o importante pois simplifica a defini o da Grid Machine Interface Caso o algoritmo de escalonamento do MyGrid necessitasse de infor ma es sobre as m quinas do Grid Grid Machine Interface teria que ser mais rica e portanto mais dif cil de virtualizar Por exemplo o Nimrod G 102 define uma interface de abstra o para os recursos que contempla m todos de fornecimento de informa o sobre o recurso Certamente a informa o obtida por esses m todos valiosa para o escalonamento eficiente das aplica es Por m isso limita o tipo de recurso que pode ser utilizado pois torna o middleware dependente de um recurso que forne a uma implementa o para os m todos dessa interface Uma aplica o ou Job MyGrid composta de tarefas independentes Estas tare fas s o compostas por tr s partes ou sub tarefas init remote e final As sub tarefas s o executadas sequencialmente init remote gt final As sub tarefas init e final s o usadas para efetuar as transfer ncias de arquivo de entrada e sa da da tarefa respectivamente Sendo assim tanto a sub tarefa inicial quando a final s o executadas na m quina base Enquanto a sub tarefa remote como o pr prio nome
193. a criar formatos de informa es co muns e compartilhar ambos os formatos e os dados na World Wide Web nas intranets e em qualquer lugar O XML extens vel porque diferentemente do HTML os s mbolos markup s o ilimitados e se autodefinem Protocolo aberto baseado em XML para mensagens em tempo real linguagem de cria o de planilhas que descreve como um dado mandado por meio da web usando o XML e apresentado ao usu rio O XSL uma linguagem para formatar um documento XML P GINA 382 Ap ndice F O Ambiente LabCluster O LabCluster o laborat rio da SLTI MP que prove infra estrutura tecnol gica e computacional baseada em computa o distribu da e padr es abertos de hard ware e software para os projetos internos ou em parceria com a Secretaria de Lo g stica e Tecnologia da Informa o O laborat rio um ambiente de testes pros pec o e an lise de tecnologias em especial de Cluster e Grid Alguns exemplos de a es pr ticas da SLTI com a aplica o de tecnologias de Cluster e Grid neste laborat rio s o e Tamandu projeto piloto de minera o da base de dados de compras go vernamentais O processo de minera o de dados tem como principais ob jetivos descobrir relacionamentos geralmente n o triviais entre dados ar mazenados fornecer subs dios para que seja poss vel realizar previs o de tend ncias futuras com base nos registros acumulados bem como estabele
194. a de pagamento do pa s alcan ando mais de 20 milh es de benefici rios m s Maiores informa es em http www dataprev gov br 3O Programa Nacional de Desburocratiza o da Secretaria de Gest o do Minist rio do Planeja mento Or amento e Gest o Decreto n 3335 de 11 de janeiro de 2000 que previa Desburocrati zar a Administra o P blica fundamental para preparar o pa s aos novos desafios imperativo que o Estado se mostre gil e competente no atendimento de seus cidad os como tamb m im prescind vel que esses n o se intimidem ao procurar os servi os p blicos e que tenham certeza da boa qualidade e da efici ncia do servi o prestado VERSAO 0 6 P GINA 4 GUIA CLUSTER 2 1 1 A SOCIEDADE DA INFORMA O E A INOVA O TECNOL GICA em institui es de pesquisa e empresas privadas e estatais alguns exemplos s o Petrobras Sistema Nacional de Processamento de Alto Desempenho SINAPAD Instituto de Pesquisas Espaciais INPE Laborat rio Nacional de Compputa o Cient fica LNCC Google HP IBM Sun Itautec Departamento de Defesa Ame ricano DOD National Center for Supercomputing Applications NCSA entre outros importante salientar que um fator decisivo para a ado o de tecnologias de cluster e grid no governo brasileiro est relacionada possibilidade de reverter o quadro de consumismo tecnol gico desenvolvido ao longo das ltimas 2 duas d cadas e promover o dom nio
195. a efetiva Busca integrar por meio de pr ticas distintas o fluxo de informa es e produtos P GINA 376 GUIA CLUSTER CAP TULO E GLOSS RIO Customer Relationship Ma nagement CRM Data warehouse DNS Domain Name System Sistema de Nomes de Domi nio EAI Enterprise Application Integration EDI Electronic Data Inter change VERSAO 0 6 Gerenciamento do relacionamento com cliente a arte de integrar todos os aspectos da tecnologia da informa o em benef cio de um completo relacionamento com o cliente desde atividades de marketing e vendas at con tas a receber Armaz m de dados sistema que guarda e organiza to das as informa es espalhadas pelos v rios sistemas dentro de uma empresa Termo gen rico para um tipo de banco de dados que consiste num sistema de ar mazenamento recupera o e gerenciamento de grandes quantidades de quaisquer tipos de dados Os softwares da esp cie frequentemente incluem sofisticadas t cnicas inclusive de compacta o para buscas mais r pidas de dados assim como filtros avan ados forma como os nomes de dom nio s o encontrados e tra duzidos no endere o de protocolo da Internet Um nome de dom nio um recurso f cil de ser lembrado quando referenciado como um endere o na Internet Integra o de Aplica es entre Empresas um tipo de tecnologia que permite o movimento e troca de informa es entre diferentes aplica es e p
196. a mem ria Tamanho do algoritmo Tabela 11 1 Rela o entre as caracter sticas do hardware e do software paralelo controle s o executadas com base na disponibilidade dos dados dataflow con trole centralizado synchronized ou sob demanda demand driven Algoritmos com um alto grau de regularidade por exemplo multiplica o de matrizes s o indicados para um controle centralizado e s o otimamente mapeados em proces sadores sist licos ou outros processadores matriciais SIMD Por sua vez algo ritmos que incorporam transfer ncias condicionais ou outras irregularidades no fluxo de execu o s o melhor indicados para arquiteturas ass ncronas tais como os multiprocessadores Mecanismo de dados refere se maneira como os operandos das instru es s o manipulados Os dados gerados por uma instru o podem tanto ser utilizados como dados puros padr o do modelo de controle por disponibilidade de da dos dataflow ou podem ser colocados em um lugar de armazenamento e ent o referenciados pelo seu endere o como no modelo de Von Neumann e suas exten s es Geometria das comunica es trata do padr o como ocorrem as interconex es entre os m dulos em execu o A geometria das comunica es de um algoritmo dita regular quando o padr o das interconex es repete ao longo dos ciclos da computa o e irregular quando as interconex es s o aleat rias comum geo metrias regulares assumirem
197. a n o ser pelo seu pr prio c digo fonte Assim como o PVFS1 o PVFS2 d suporte ao ROMIO MPI IO que permite ao VERSAO 0 6 P GINA 166 GUIA CLUSTER 7 4 2 PARALLEL VIRTUAL FILESYSTEM VERSION 2 PVFS2 desenvolvedor da aplica o descrever seus dados usando tipos MPI melhorando o desempenho na leitura dos dados persistidos Distribui o de dados flex vel No PVFS1 os dados s o distribu dos entre os servidores de dados usando o algo ritmo round robin isto um arquivo dividido em blocos de igual tamanho e cada bloco subsequente armazenado no pr ximo servidor sendo que ao chegar no ultimo servidor volta se para o primeiro at que todos os blocos estejam ar mazenados Isso muito eficiente como uma t cnica gen rica para quando n o se conhece o padr o de acesso ao arquivo Por m em geral sabe se qual o pa dr o de acesso de um arquivo e isso poderia ser usado para otimizar o acesso a ele O PVFS2 permite que se informe esse padr o de acesso e decide qual a me lhor forma de armazenar os dados para m xima efici ncia podendo at mesmo utilizar se de redund ncia Servidores de meta dados distribu dos No PVFS1 o servidor de meta dados que armazena informa es sobre estrutura de diret rios data de cria o de arquivos etc centralizado podendo represen tar um gargalo maior conforme o n mero de clientes aumenta O PVFS2 permite ter mais de um servidor de meta dados que pode ou n o
198. a repetidamente a segii ncia leitura da mensagem dispon vel na pilha de entrada envia suas mensagens a todos os ou tros atores que ele conhece e a partir das mensagens que chegaram define seu novo contexto o qual determinar suas respostas s pr ximas mensagens que receber As mensagens s o enviadas de forma ass ncrona e sem preocupa o de ordem Os nomes dos atores podem ser distribu dos atrav s de mensagens A explora o de concorr ncia e distribui o em objetos amplamente discutida em BRIOT 97 VERSAO 0 6 P GINA 270 GUIA CLUSTER 11 3 6 MODELOS NOS QUAIS O PARALELISMO E EXPLORADO DE FORMA TOTALMENTE EXPLICITA Potencialidade de Explora o do Paralelismo Al m dos custos de comunica o outro ponto de estrangulamento do desempe nho do modelo de atores o processamento sequencial das mensagens na fila de entrada Para minimizar este aspecto o modelo ActorSpace AGHA 45 prop e estrat gias para reduzir o n mero de mensagens distribu das A comunica o entre processadores no modelo atores e seus derivados grande o que aumenta consideravelmente o indeterminismo introduzido pelo desempe nho da rede de interconex es da arquitetura Em fun o disto n o poss vel nestes modelos nem garantia de desempenho nem medida de custo 11 3 6 Modelos nos quais o Paralelismo Explorado de Forma Totalmente Expl cita Nestes modelos o programador precisa especificar todos os aspectos da imp
199. a se na conectividade de rede pois o GNBD utiliza uma nica thread para cada inst ncia cliente servidor dispositivo desta forma quanto mais clientes melhor ser a performance do servidor gnbd em termos de throughput total Obviamente a performance por cliente ir diminuir por conta da limita o da largura de banda Outro fator de performance num ambiente que utilize gnbd a performance do disco local no servidor se esta performance for baixa ela n o ser ampliada com a utiliza o do GNBD Desta forma recomen dado sempre fazer uma an lise da performance dos discos locais e da rede para manter um equil brio e tentar conseguir a maior performance poss vel importante salientar que o GNBD n o um dispositivo de blocos distribu do ou replicado de forma que os os dados n o s o replicados ou distribu dos entre dois ou mais servidores A figura 7 3 apresenta um exemplo de cen rio gnbd onde o dispositivo de blocos local do servidor gnbd exportado via rede TCP IP para 3 clientes gnbd que mapeiam este disco localmente 7 2 5 Internet SCSI iSCSI O Internet SCSI iSCSI um protocolo de rede padr o oficialmente ratificado em 11 02 2003 pelo IETF Internet Engineering Task Force que permite o uso do Storage Area Network VERSAO 0 6 PAGINA 128 GUIA CLUSTER 7 2 5 INTERNET SCSI ISCSI Dispositivos Virtuais GNBD gina ee PAPPEL aeae er Cliente GNBD N Cliente Clien
200. abalhando de forma independente sobre um ramo espec fico da rvore de busca VERSAO 0 6 P GINA 261 GUIA CLUSTER 11 3 1 MODELOS NOS QUAIS O PARALELISMO EXPLORADO DE FORMA TOTALMENTE IMPL CITA Programa p a b piv p se a Ei d e s 3 a d e aq Eats pasadnttemo Caminho 3 Paralelismo OU Figura 11 3 Fontes de Paralelismo na Programa o em L gica O modelo amp Prolog HERMENEGILDO 213 um dos mais maduros modelos explorando paralelismo E independente Ele combina uma detec o de inde pend ncia a n vel de compila o com um eficiente ambiente de execu o imple mentado em multiprocessadores com mem ria compartilhada Sua proposta fundamentada no Paralelismo E Restrito DEGROOT 148 O paralelismo pode ser explorado automaticamente a partir de um programa em Prolog padr o opcionalmente o programador pode fazer anota es O compi lador do modelo executa a transforma o de programas Prolog para amp Prolog A an lise est tica do compilador detecta a independ ncia entre literais mesmo na presen a de predicados com side effects MUTHUKUMAR 281 e 282 Os programas amp Prolog s o compilados em uma extens o da WAM denominada PWAM cuja principal diferen a em rela o a WAM a adi o de uma pilha de literais paraleliz veis onde processadores inativos retiram trabalho Potencialidade de Explora o do Paralelismo As alternativas
201. abilidade para a aplica o provida por algoritmo Round robin que cria novas sess es no pr ximo n livre na fila round robin Simplicidade de implanta o e manuten o Nenhum tipo de configura o adicional ou sobrecarga de recurso VERSAO 0 6 P GINA 189 GUIA CLUSTER 8 3 HEARTBEAT Apesar das vantagens as sess es s o perdidas se o servidor que as manipula cai Stiky sessions com gerenciamento de sess es persistentes e armazenamento compartilhado A partir da vers o 5 Tomcat possui um sistema de gerenciamento de sess es persistentes O prop sito deste mecanismo manter as sess es ativas caso haja desligamento e rein cio de servidor Para tanto as sess es s o gravadas em disco ou em SGBD o que garante a manuten o da informa o mesmo que o servidor seja desligado Esse mecanismo a princ pio n o foi desenvolvido para atender demanda de clusteriza o entretanto sistemas de arquivos compartilhados ou SGBD essas informa es estar o dispon veis para todas as inst ncias de Tomcat que comp em o sistema A figura ilustra o funcionamento deste mecanismo Um diret rio para armazena mento das sess es acess vel a todos os servidores Tomcat atrav s de mecanis mos como SMB NFS OCFS2 assim as sess es podem ser criadas ou modificadas por todas as inst ncias Isto tamb m garante uma menor perda de informa o em caso de problemas com o sistema e procedimentos de recupera o 8 3 He
202. acionais No caso de trans miss o entre arquiteturas diferentes automaticamente feita uma convers o dos dados pelo formato XDR External Data Representation conforme RFC 1832 11 1 2 Message Passing Interface MPT Segundo Gropp et al 205 Foster 179 e Pacheco 295 o MPI um padr o de interface para a troca de mensagens em m quinas paralelas com mem ria distribu da e n o se devendo confundi lo com um compilador ou um produto espec fico VERSAO 0 6 P GINA 246 GUIA CLUSTER 11 1 2 MESSAGE PASSING INTERFACE MPI Hist rico do MPI O MPI o resultado do esfor o de aproximadamente 60 pessoas pertencen tes a 40 institui es principalmente dos Estados Unidos e Europa A maioria dos fabricantes de computadores paralelos participou de alguma forma da ela bora o do MPI juntamente com pesquisadores de universidades laborat rios e autoridades governamentais O in cio do processo de padroniza o aconte ceu no semin rio sobre Padroniza o para Troca de Mensagens em ambiente de mem ria distribu da realizado pelo Center for Research on Parallel Com puting em abril de 1992 Nesse semin rio as ferramentas b sicas para uma padroniza o de troca de mensagens foram discutidas e foi estabelecido um grupo de trabalho para dar continuidade padroniza o O desenho prelimi nar foi realizado por Dongarra Hempel Hey e Walker em novembro 1992 sendo a vers o revisada finalizada em fevereiro de
203. ad decorrente de um n mero maior de comuta es no caso de uma rede reconfigu r vel dinamicamente N mero de processadores e tamanho da mem ria indica quantos processadores o sistema paralelo cont m e o tamanho da mem ria dispon vel Para a tecnolo gia atual e considerando apenas o n mero de processadores e n o o seu poder computacional sistemas com 1 a 100 processadores s o considerados pequenos sistemas com 100 a 1000 processadores s o considerados m dios e sistemas com mais de 1000 processadores s o considerados grandes ou muito grandes Como regra geral um n mero maior de processadores confere arquitetura um maior poder computacional o que faculta ao sistema paralelo trabalhar com problemas mais complexos Quando o tamanho do algoritmo maior que o tamanho do sistema se faz ne cess rio particionar o mesmo durante a execu o isto implica que medida que os m dulos de processamento vide granulosidade do m dulo s o atribu dos aos processadores e s mem rias os resultados intermedi rios precisam ser ar mazenados O particionamento de algoritmos pode introduzir efeitos colaterais VERSAO 0 6 P GINA 252 GUIA CLUSTER 11 2 2 PROPRIEDADES DE UM MODELO DE PROGRAMAGAO PARA O PROCESSAMENTO PARALELO side effects indesej veis Do ponto de vista ideal o n mero de processadores deve ser compat vel com o tamanho do algoritmo A abordagem desta se o enfatizou que o processamento com desem
204. ade uma vez que ele n o o respons vel direto por executar todas as suas etapas Como no mundo real para os clientes que usam um servi o como se ele fosse nico prestado por um nico provedor No exemplo usado anteriormente a responsabilidade por atender aos requisitos do cliente que compra o pacote de viagem do provedor do servi o O servi o da ag ncia teria que atender os requisitos de seguran a tempo de processamento limites de custo informados pelo cliente para o qual a composi o do servi o invocado transparente Para a especifica o apropriada de servi os compostos precisamos de modelos que definam as v rias caracter sticas da composi o Ou seja a identifica o dos poss veis componentes quando como e em que condi es ser o usados regras para seu funcionamento dentre outras Assim um modelo de composi o possui as seguintes dimens es e Modelo de componentes define a estrutura dos componentes que fazem parte da composi o e Modelo de orquestra o especifica a ordem em que cada componente dever ser acionado e sobre quais condi es e Dados e modelo de acesso aos dados especifica a estrutura dos dados usados na composi o bem como a forma de acesso a eles e Modelo de sele o de servi o especifica como o usu rio pode selecionar cada servi o e o papel que cada componente desempenha na composi o e Transa es especifica o tratamento de transa e
205. ado pelo projeto Carob http carob continuent org 4Sequoia pode funcionar com vers es mais antigas da m quina virtual mas n o foi testado VERSAO 0 6 P GINA 215 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA Porque devo usar Sequoia Se voc tem uma aplica o cliente em Java ou uma aplica o de servidor baseada em Java que acessa um ou v rios bancos de dados A fila do banco de dados torna se um gargalo para sua aplica o ou um ponto nico de falha ou ambas as coisas Sequoia pode ajudar a resolver este problema provendo Escalabilidade de performance pela adi o de n s de banco de dados e balan o de carga entre os n s Alta disponibilidade para o banco de dados se ocorrer problemas com os ban cos Sequoia oferece toler ncia a falhas de maneira transparente usando t cnicas de replica o Incrementa performance com cache de consultas de granulosidade fina e pool de conex o transparente Log de tr fego SQL para monitoramento e an lise de performance Suporte para cluster de bancos heterog neos Como funciona Sequoia prov arquitetura flex vel que permite alcan ar escalabilidade alta dis ponibilidade e toler ncia a falhas para banco de dados Sequoia implementa o conceito de RAIDb Array Redundante n o oneroso de banco de dados Redun dant Array of Inexpensive Databases O banco de dados distribu do e replicado entre v rios n s e Sequoia distribui a carga das consultas
206. age Distributed Computing 1 3 133 149 july 1986 67 Ronald ANDREWS Gregory OLSSON An overview of the sr language and implementation CM Transactions on Programming Languages and Sys tems 10 1 51 86 january 1988 68 Ronald A ANDREWS Gregory R OLSSON The SR Programming Lan guage The Benjamin Cummings Publishing Company 1992 69 R N Anthony Planing and control systems A framework for analysis Technical report Havard University Graduate Schoole of Business Admi nistration 1965 VERSAO 0 6 PAGINA 395 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 70 71 72 73 74 75 76 77 78 79 80 VERSAO 0 6 Eliane Ara jo Walfredo Cirne Gustavo Wagner and Nigini Oliveira The seghidro experience Using the grid to empower a hydro meteorological scientific network Bradley BAKER Louis SMITH Parallel Programming McGraw Hill Inc 1996 K R Baker Requirements planning In S C Graves A H G Rinnooy Kan and P H Zipkin editors Handbooks in Operations Research and Management Science Logistics of Production and Inventory volume 4 chapter Chapter 11 North Holland 1993 Mark Baker Rajkumar Buyya and Domenico Laforenza The Grid Inter national efforts in Grid Computing 2000 Jennifer G BAL Henri E STEINER Programming languages for distribu ted computing systems ACM Computing Surveys 21 3 261 322 september 1989 F Banaei Kashani C
207. ais benef cios que um sistema SSI proporciona ao funcionamento de um cluster segundo Buyya 104 e Prov uma simples e nica vis o de todos os recursos e atividades em exe cu o no cluster e Exclui do usu rio a necessidade de apontar onde se deve executar tal apli ca o e Garante o uso de recursos independentemente da proximidade f sica aos mesmos e Permite maior facilidade para gerenciamento do sistema pelo administra dor e uso do mesmo pelo usu rio j que a interface e os comandos s o um s para o acesso a todos os n s e Reduz a possibilidade de erros por parte do operador isto de por exemplo se utilizar uma sintaxe de comandos diferentes para o acesso a um mesmo n e outra sintaxe diferente para um outro n garantindo assim perfor mance e confiabilidade ao sistema VERSAO 0 6 P GINA 236 GUIA CLUSTER 10 2 3 MEM RIA DISTRIBU DA COMPARTILHADA DSM e Como o controle deve ser apresentado centralizado permite o uso do sis tema por pessoas sem que tenham necessariamente elevado conhecimento sobre como funciona o sistema permitindo seu uso por usu rios comuns e Redu o de gastos com a implanta o manuten o do sistema e Prove comunica o de mensagens independente de localiza o e Como os programadores n o devem se preocupar com a distribui o da carga para suas aplica es garantese mais tempo aos mesmos para aumen tar a complexidade e qualidade de seus si
208. ais simples e atualizar o grafo com as mesmas Quando n o existirem redu es a serem feitas o grafo que resta o resultado da computa o VERSAO 0 6 P GINA 259 GUIA CLUSTER 11 3 1 MODELOS NOS QUAIS O PARALELISMO EXPLORADO DE FORMA TOTALMENTE IMPL CITA Utilizando regras de exclus o para evitar sobreposi es m ltiplos processadores podem pesquisar simultaneamente diferentes regi es do grafo correspondente ao programa As redu es das sub rvores poderiam ent o ser realizadas em paralelo Potencialidade de Explora o do Paralelismo Uma vez que o grafo correspondente ao programa funcional sem nenhum tipo de anota o varia de forma muito din mica durante sua redu o bastante difi cil gerenciar a distribui o de carga entre processadores o total de novas tarefas criadas e o volume de comunica es Segundo HANUS 210 a explora o total mente impl cita do paralelismo na programa o funcional resulta em um grande n mero de tarefas paralelas de pequena granulosidade Os modelos atualmente existentes para explora o totalmente impl cita do para lelismo com programa o funcional tem obtido desempenho razo vel em equi pamentos com mem ria compartilhada n o conseguindo boa efici ncia com equipamentos de mem ria distribu da HUDAK 219 Programa o em L gica Uma importante caracter stica das linguagens de programa o em l gica que as mesmas s o de atribui o nica
209. al ocioso poderia ser amplamente aproveitado atrav s do emprego de VERSAO 0 6 P GINA 27 GUIA CLUSTER 2 4 DOIS PARADIGMAS COMPUTACIONAIS paradigmas de computa o probabil stica e Grid Computing Alguns poss veis usu rios desta capacidade de processamento seriam o governo atrav s do pro cessamento e execu o de sistemas internos e as universidades e centros de pes quisa atrav s de projetos de pesquisa cient fica 272 Existem diversos projetos mundiais de aproveitamento de recursos ociosos de processamento que demonstram o poder da computa o probabil stica Alguns exemplos s o SETI home que posteriormente deu origem ao BOINC uma infra estrutura aberta de computa o em rede e o distributted net um projeto de computa o distribu da para finalidades gen ricas criado em 1997 Nestes projetos s o utilizados os ciclos ociosos de processamento de m quinas interliga das na internet n o dedicadas exclusivamente rede de processamento e disper sas mundialmente Uma lista extensa por m incompleta de projetos de aproveitamento de ciclos de processamento ociosos pode ser encontrada na p gina http en wikipedia org wiki List of distributed computing projects Existem no Brasil diversas atividades de pesquisa em andamento e solu es de senvolvidas em universidades brasileiras que poderiam ser utilizadas para apro veitar a capacidade de processamento ocioso das milhares de esta es de tra
210. algoritmos de escalonamento decide para qual m quina a conex o ser re direcionada Qualquer servi o TCP pode ser redirecionado incluindo requisi es m quinas que componham um cluster Tomcat O LVS mant m algumas informa es sobre os servidores como n mero de co nex es ativas para o processo de decis o do balancemento Tamb m pode n o enviar conex es a um servidor que n o esteja ativo 8 2 2 Compartilhamento de sess es As solu es para balanceamento de carga resolvem o problema da distribui o das requisi es dos clientes entre os n s que comp em o sistema A outra camada mostrada na figura tal serve a outro prop sito assegurar que sess es e outras informa es n o sejam perdidas caso o servidor Tomcat que as manipulavam caia Na camada de compartilhamento mostrada na figura podem ser usado alguns tipos de back ends cada qual com suas funcionalidades O compartilhamento de informa es nesta camada podem assegurar que a perda de conectividade de um dos servidores Tomcat que comp em o cluster seja manipulada de forma a n o gerar transtorno para o usu rio Sticky sessions em compartilhamento de sess es Neste tipo de configura o o balanceador de carga mod jk2 assegura que as requisi es de uma mesma sess o ser o sempre tratadas pela mesma inst ncia Tomcat Este tipo de configura o conveniente a muitos cen rios de produ o apresentando as seguintes caracter sticas Escal
211. am Protocol Real time Transport Protocol Virtual Router Redundancy Protocol VRRP 7 Cluster de Armazenamento 71 Introdu o 72 Block Devices 1 VERSAO 0 6 7 2 1 fae false 7 2 4 729 Sistemas de Arquivos Distribu dos Zal T P i pe Pe 7 3 4 Arranjo Redundante de Discos RAID RAID via Hardware e via Software Distributed Replicated Block Device DRBD Global Network Block Device GNBD Internet SCSI iSCSI casas ke ee dad d Conceitos Basicos 00848 Servi os Oferecidos pelos SADs Algumas Caracter sticas Desejadas em SADs Network File System NFS c cccco P GINA XVIII GUIA CLUSTER SUMARIO 7 3 9 Andrew File System AFS sp hale Cee Bae Bed eH 152 7 3 6 Constant Data Availability CODA 04 156 mo AMD pontos Ea SORES ES 160 7 4 Sistemas de Arquivos Paralelos 0000 161 74 1 Parallel Virtual Filesystem Version 1 PVES 161 74 2 Parallel Virtual Filesystem Version 2 PVFS2 165 8 Cluster de Aplica o 172 Bol Linux Virtual Server es 5 ee MRE MRE EA A 173 8 1 1 Nomenclatura e abrevia es 174 8 1 2 TiposdeLVS Cluster i lt eetas ireaaea ra ad dad 175 8 13 Algoritmos de escalonamento gt oe sacc sacrata 179 BIA Cas sdeusodeLVS cepas se sa ww eR enak 183 8 2 Cluster Ms i e iea d ana d e wh eh Oh a a a 184 de
212. am se comunicar muito mais rapidamente pela mem ria Por outro lado gostar amos de usar um mecanismo gen rico para n o ter que programar para cada uma das v rias tecnologias de comunica o existentes Globus ataca este problema com o Nexus 185 Nexus fornece uma interface de baixo n vel mas uma implementa o adapt vel que escolhe dentre as tecnolo gias de comunica o dispon veis a que vai oferecer melhor performance Por exemplo se ambas tarefas est o em uma m quina de mem ria compartilhada Nexus utilizar a mem ria para efetuar a comunica o Caso as tarefas este jam em um MPP Nexus utilizar o switch de alta velocidade para comunica o Caso as tarefas estejam em m quinas geograficamente distantes Nexus utilizar TCP IP Nexus fornece uma interface de relativo baixo n vel invoca o remota de proce dimento mas sem retorno de resultado Portanto programar diretamente em Ne xus n o das tarefas mais agrad veis Entretanto a id ia da equipe Globus que Nexus seja usado por desenvolvedores de ferramentas e mecanismos de comu nica o n o diretamente pelo desenvolvedor de aplica es MPI G o exemplo perfeito desta abordagem MPI G implementa o popular padr o MPI Message Passing Interface sobre Nexus Assim o desenvolvedor de aplica es escrever em MPI e link editar sua aplica o com MPI G para automaticamente ter acesso a melhor tecnologia de comunica o dispon vel selecionada pel
213. am transa es em sistemas de arquivos distribu dos Acesso Concorrente V rios usu rios podem acessar v rios arquivos ou os mesmos arquivos sem so frer danos perda de desempenho ou quaisquer outras restri es Isso tudo deve ocorrer sem que o usu rio precise saber como o acesso realizado pelos servido res Assim necess rio haver transpar ncia de concorr ncia e de paralelismo O maior problema encontrado nas implementa es desse tipo de solu o quanto sincroniza o dos arquivos o que inclui leitura e escrita concorrente A leitura concorrente pode ser implementada facilmente se n o houver escrita concorrente pois quando um arquivo estiver sendo lido certamente ningu m poder escrever nele Caso tamb m se queira escrita concorrente deve se levar em conta que quando um cliente escreve em um arquivo todos os leitores devem ser avisados que o arquivo foi alterado e todos escritores precisam tomar cuidado para n o escrever sobre as altera es que foram feitas por outros Assim ou vale a ultima altera o ou os escritores discutem entre si para tentar fazer uma fus o das altera es VERSAO 0 6 P GINA 144 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS Para se ter uma id ia da complexidade desse problema imagine duas opera es banc rias simult neas na mesma conta Uma delas um saque de R 100 00 e outra um dep sito de R 1000 00 Antes dessas opera es suponha que
214. anciamento entre o hardware e o software paralelo oscila com rapidez isto porque o tempo de vida de uma arquitetura paralela via de regra medido em anos enquanto que o tempo de vida desej vel para qualquer software de grande porte medido em d cadas Dentro de uma vis o tradicional o procedimento no espa o de alguns anos reescrever o software medida que uma nova tecnologia de arqui tetura paralela disponibilizada no mercado A rescrita de c digo dentre outros problemas introduz custos Isso hoje causado principalmente por causa da evolu o r pida desta rea da computa o Apesar da rea de pesquisa j ser antiga a sua aplica o em ambi entes empresariais recente e vem evoluindo muito rapidamente VERSAO 0 6 P GINA 71 GUIA CLUSTER 5 1 ASPECTOS PARA A ADOCAO DO PROCESSAMENTO PARALELO 5 1 Aspectos para a Ado o do Processamento Para lelo Nesta se o ser o tratados aspectos que podem ser vistos como est mulos para ado o do processamento paralelo seja a partir do ponto de vista da exaust o das arquiteturas sequenciais em fun o dos limites impostos pela tecnologia atual seja considerando as necessidades dos diferentes segmentos usu rios 5 1 1 Barreiras ao Crescimento da Freqii ncia de Opera o dos Processadores Como regra geral quando maior a frequ ncia de opera o do processador clock maior desempenho ter o computador Por m importante ter presente q
215. ante o isolamento da aplica o remota do resto do sistema local Isso inclui um sistema de arquivos completamente diferente i e uma parti o do disco diferente a impossibilidade de enviar sinais para processos fora da m quina virtual e a restri o no acesso aos recursos de rede da m quina na qual est executando A vantagem dessa abordagem a explora o de ociosidade por m h o overhead gerado pela reinicializa o em outro sistema operacional No estado atual n o encontramos um padr o definido pelos comit s da rea de Grid Computing por m v rios projetos apresentam solu es semelhantes para a prote o de recursos que formam o Grid Prote o da aplica o Um outro lado da quest o da seguran a a prote o da aplica o que executa no Grid Ou seja garantir que n o haver sabotagem na execu o do servi o requisi tado por um cliente Por exemplo suponha um servi o que fornece renderiza o de imagens O servi o supostamente estaria dispon vel para responder a requisi es de renderiza o de clientes espalhados por v rios dom nios administrativos Por m por algum motivo esse servi o prioriza as requisi es dos clientes locais e retorna sempre a mesma imagem para qualquer requisi o de clientes exter VERSAO 0 6 P GINA 324 GUIA CLUSTER 13 3 5 SEGURAN A nos Com isso o provedor do servi o pretende economizar recursos que seriam destinados computa es estrange
216. aos arquivos do sistema Sistemas Unix adotam um m todo baseado em permiss es para controlar o acesso aos seus arquivos 246 Cada arquivo possui informa es sobre quais usu rios podem acess lo e de que maneira Nos sistemas distribu dos que executam sob o Unix quando um servidor recebe um pedido para enviar dados de um determinado arquivo ele tamb m recebe informa es sobre qual usu rio est tentando realizar tal acesso Com isso veri fica se tal usu rio tem permiss o suficiente para realizar essa solicita o fazendo uma compara o com as informa es de permiss es do arquivo Outra forma de implementar esse controle de seguran a um sistema baseado em capacidades 349 que consiste em enviar ao servidor uma prova de que ele possui a capacidade de acessar um determinado arquivo Na primeira vez que o usu rio acessa tal arquivo enviado ao servidor sua identifica o e o servidor por sua vez retorna um c digo que a sua prova de capacidade para acessar aquele arquivo Nas pr ximas requisi es o cliente n o precisa se identificar novamente bastando apenas enviar a prova de sua capacidade Deve se tomar cuidado para n o criar provas de capacidade que sejam f ceis de ser forjadas E poss vel tamb m implementar o controle de seguran a atrav s de listas de controle de acesso 349 onde cada elemento da lista possui as permiss es que cada usu rio tem para acessar determinado arquivo Isso evi
217. aperfei oamento do uso de seu cluster atual e para projetos futuros Se estiver instalando equipamentos mantenha o registro da informa o de configura o de rede dados hist ricos de tr fego utiliza o e principalmente de problemas Muitas vezes passamos por problemas que j foram resolvidos em ocasi es ante riores mas por falta de um hist rico de ocorr ncias n o sabemos como resolver o problema o que obriga a todo um retrabalho de pesquisa por solu es dos problemas apresentados As documenta es s o de extrema import ncia nesses momentos mas as principais documenta es ainda s o as relacionadas ao pr prio cluster Deve se conhecer como as conex es de rede e energia est o feitas quais as configura es e todos os detalhes t cnicos da implementa o para aju dar a prever problemas bem como facilitar em muito o processo de resolu o de qualquer incidente VERSAO 0 6 P GINA 68 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO Seguran a Muitos projetos esquecem de trabalhar com a seguran a dos ambientes de uma forma integrada ou seja a seguran a pensada tanto na interface de hardware como na de software A ISO 17799 Tecnologia da Informa o C digo de Pr tica para Gest o da Seguran a de Informa es aborda v rios aspectos da seguran a que tem de ser observados para uma boa pr tica desta Entre outros itens ela aborda e Pol tica de Seguran a e Seguran a Organizacional
218. ar realizar o bloqueio usando o mesmo comando que o primeiro processo O sistema operacional ou o sistema de arquivos o avisar caso esse arquivo esteja bloqueado Se estiver cabe ao pro cesso decidir se espera na fila pelo desbloqueio ou se continua seu processamento sem o acesso ao arquivo Esse desbloqueio realizado pelo processo detentor do arquivo atrav s de um comando similar ao usado para o bloqueio Atrav s desses bloqueios tornar as transa es serializ veis isto o resultado da opera o de v rias transa es simult neas o mesmo obtido se elas fossem realizadas uma ap s a outra 246 Um protocolo para a realiza o dessa seria liza o o protocolo de bloqueio de duas fases onde na primeira fase ocorre o bloqueio de todos os arquivos a serem usados nessa transa o e na segunda fase a libera o conjunta de todos os arquivos ap s a realiza o das opera es dentro dessas fases VERSAO 0 6 P GINA 145 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS Por m esse protocolo pode gerar um travamento deadlock onde um processo es peraria a libera o de um arquivo que foi bloqueado por outro processo que tam b m estaria esperando a libera o de um arquivo que foi bloqueado por aquele primeiro processo por exemplo Para evitar travamentos em sistemas distribu dos existem t cnicas e algoritmos que fogem do escopo deste trabalho devido complexidade mas que s o d
219. ar ambientes geografica mente dispersos com objetivos claros de especifica o de qualidade de servi os Atualmente a Internet com uma configura o distribu da de recursos conhe cida como o ambiente que melhor pode demonstrar esse tipo de ambiente Em outras palavras diferentes tipos de aplicativos com diferentes tipos de requeri mentos de qualidade exemplos s o a largura de banda retardo de comunica es e jitter s o tratados de maneira igual Em adi o os servi os WEB que oferecem servi os para a execu o de tarefas de usu rios finais ainda s o pou cos Desta forma o objetivo destas configura es voltar toda a potencialidade de recursos e servi os dispon veis para o processamento de tarefas dos usu rios pertencentes configura o de grid DANTAS 136 Grids computacionais s o amplamente discutidos no cap tulo 13 deste trabalho Jitter uma varia o estat stica do retardo na entrega de dados em uma rede ou seja pode ser definida como a medida de varia o do atraso entre os pacotes sucessivos de dados VERSAO 0 6 P GINA 92 GUIA CLUSTER 6 2 DEPENDABILIDADE 6 2 Dependabilidade Dependabilidade um termo traduzido literalmente do ingl s dependability que re ne diversos conceitos que servem de medida tais como confiabilidade relia bility disponibilidade availability seguran a safety mantenabilidade main tainability comprometimento do desempenho performability
220. ara computadores de usu rios mais avan ados assim como na cria o de grandes sistemas de armazenamento de dados Usu rios avan ados vem usando RAID em suas esta es de trabalho e Workstati ons para aplica es que necessitam de utiliza o intensiva de disco seja de leitu ra escrita ou mesmo capacidade de armazenamento como no caso de aplica es de edi o de v deo e udio 7 2 2 RAID via Hardware e via Software RAID pode ser implementado por hardware na forma de controladoras especiais de disco ou por software como um m dulo do kernel que fica dividido entre a controladora de disco de baixo n vel e o sistema de arquivos acima dele RAID via hardware sempre um controlador de disco isto um dispositivo que pode atrav s de um cabo conectar os discos Geralmente ele vem na forma de uma placa adaptadora que pode ser plugada em um slot ISA EISA PCI S Bus MicroChannel Entretanto algumas controladoras RAID v m na forma de uma caixa que conectada atrav s de um cabo entre o sistema controlador de disco e os dispositivos de disco RAIDs pequenos podem ser ajustados nos espa os para disco do pr prio compu tador outros maiores podem ser colocados em um gabinete de armazenamento com seu pr prio espa o para disco e suprimento de energia O hardware mais novo de RAID usado com a mais recente e r pida CPU ir provavelmente forne cer o melhor desempenho total por m com um pre o expressivo Isto po
221. arta tomcat http tomcat apache org tomcat 5 0 doc Ultima Visita em 20 01 2006 12 20 188 The Apache Software Foundation Apache tomcat http tomcat apache org Ultima Visita em 20 01 2006 12 20 189 P Francis S Jamin V Paxson L Zhang D F Gryniewicz and Y Jim An architecture for a global internet host distance estimation service In Proce edings of IEEE INFOCOM 1999 190 FRESCO Foundation for research on service composition http www servicecomposition org 2005 191 J Frey T Tannenbaum M Livny I Foster and S Tuecke Condor g a com putation management agent for multi institutional grids In High Perfor mance Distributed Computing 2001 Proceedings 10th IEEE International Sym posium pages 55 63 San Francisco CA USA August 2001 IEEE Compu ter Society Press 192 Doreen L Galli Distributed Operating Systems Prentice Hall 2000 193 E Gamma R Helm R Johnson and J Vlissides Design Patterns Addison Wesley Pub Co 1995 194 Elizabeth Garbett Andrew Scheferman and Albert Tse Virtual disk it s not just for mainframes anymore http www storagetek com Ultima Visita em 20 09 2005 12 12 VERSAO 0 6 PAGINA 406 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 195 Cl udio FR GEYER Une contribution a l etude du parallelisme ou en pro log sur des machines sans m moire commune Technical report Grenoble Universit Joseph Fourier 1991 196 G
222. artbeat O High Availability Linux Projet Projeto Alta Disponibilidade Linux tem por objetivo desenvolver solu es para GNU Linux que promovam confiabilidade disponibilidade e resist ncia serviceability atrav s do esfor o de uma comuni dade de desenvolvimento Heartbeat fruto deste projeto um software que gerencia falhas de recursos en tre dois computadores procurando eliminar pontos nicos de falhas aumentando a disponibilidade do sistema formado por estes computadores O principio de funcionamento o de heartbeat o conceito n o se resume ao software onde um componente de um sistema de alta disponibilidade respons vel por monitorar 3s tio do projeto http www linux ha org VERSAO 0 6 P GINA 190 GUIA CLUSTER 8 4 ZOPE CLUSTER os servicos do sistema trocando mensagens entre os servidores para verificar se ainda est o ativos Normalmente o Heartbeat trabalha com os conceitos de servidor prim rio e se cund rio ou seja um servidor que de fato atende a demandas prim rio e outro que fica em espera para assumir servi os caso algo de errado aconte a ao prim rio Neste ambiente um intervalo de tempo para troca de mensagens entre os servidores especificado caso n o haja troca de mensagens o Heartbeat entende que o prim rio est fora do ar assumindo os servi os por este disponibilizados Para verifica o do estado de cada n o Heartbeat pode usar uma ou mais cone x es f
223. as 12 00 00 96 14 dias 14 24 00 1 dias 4 48 00 97 10 dias 22 48 00 O dias 21 36 00 98 7 dias 7 12 00 O dias 14 24 00 99 3 dias 15 36 00 O dias 7 12 00 99 9 O dias 8 45 35 99 O dias 0 43 11 99 99 99 O dias 0 52 33 60 O dias 0 04 19 20 99 999 O dias 0 05 15 36 O dias 0 00 25 92 Tabela 6 2 N veis de Alta Disponibilidade mecanismos e t cnicas que tem por objetivo detectar contornar e mascarar falhas que venham a ocorrer ocasionando perda de acessibilidade senso comum na literatura caracterizar a disponibilidade pela probabilidade de um sistema estar acess vel em determinado per odo de tempo A Tabela 6 4 ilustra um dos termos de compara o geralmente utilizado na ava lia o de solu es HA n veis de disponibilidade segundo tempos de indisponi bilidade downtime Exclu dos desta tabela os tempos de downtime estimados geralmente para manuten o ou reconfigura o dos sistemas que s o alheios s solu es e muito vari veis Quanto maior a disponibilidade desejada ao sistema maior a redund ncia e custo das solu es tudo depende do tipo de servi o que se pretende disponibilizar e de outras vari veis intr nsecas ao sistema H casos em que o custo do sistema indis pon vel muito maior que o custo de desenvolvimento de um ambiente de alta disponibilidade para o mesmo Informa es mais detalhadas sobre este assunto podem ser obtidas na sess o 6 2 deste documento em DANTAS 136 e softwa res
224. as a es exigem autentica o e g submeter uma tarefa para execu o em um site remoto solicitar o armazenamento ou acesso a um de terminado arquivo Al m disso como o objetivo do Globus permitir a cria o de organiza es virtuais atrav s da agrega o de recursos e servi os distribu dos por v rios dom nios administrativos diferentes certamente quest es relaciona das a delega o de credencial est o envolvidas no processo de autentica o GSI Globus Security Infrastructure o servi o Globus que ataca estes pro blemas GSI viabiliza o login nico no Grid GSI utiliza criptografia de chave p blica certificados X 509 e comunica o SSL Secure Sockets Layer para esta belecer a identidade Globus do usu rio Por exemplo C US O University of California San Diego OU Grid Computing Lab CN Walfredo Cirne era uma identidade em Gusto o primeiro Grid montado com Glo bus Depois do usu rio ter se identificado junto ao GSI todos os demais servi os Globus saber o de forma segura que o usu rio de fato quem diz ser Uma vez que um servi o sabe a identidade Globus do usu rio resta estabelecer quais opera es tal usu rio pode realizar Isto feito mapeando a identidade Globus para um usu rio local Por exemplo o servi o GRAM veja VERSAO 0 6 P GINA 327 GUIA CLUSTER 13 4 1 GLOBUS Se o 13 4 1 instalado em thingl ucsd edu mapeava C US O University of California San Diego
225. as arquiteturas de sistemas de alto desempenho no mundo os dados s o da organiza o top500 0rg 362 Assim como as arquiteturas de cluster vem crescendo a utiliza o de software li vre GNU Linux tamb m vem crescendo de forma agreciva A figura 3 2 mostra a evolu o de sua utiliza o nos ultimos anos VERSAO 0 6 P GINA 36 GUIA CLUSTER CAPITULO 3 INTRODU O Arquiteturas E Constellations MPP Y Cluster SMP Tipos de Arquitetura S 4 0 Le T T T T 1 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 Ano Figura 3 1 Evolu o da utiliza o de Arquiteturas de alto desempenho Fonte Top500 org Sistemas Operacionais UNIX BSD BASED v LINUX 4 WINDOWS MAC OS S O 2 a 0 3 0 24 0 1 a a i ae 0 Esp r r r _ 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 Ano Figura 3 2 Evolu o da utiliza o de S O na Top500 Fonte Top500 org O mercado corporativo tem percebido as vantagens e possibilidades de neg cios relacionadas a utiliza o de tecnologias baseadas em Cluster e Grid sendo obser vado um crescimento da ado o destas tecnologias no mercado corporativo Este fato pode ser analisado pelo investimento para desenvolvimento destas tecno logias realizado pelas maiores empresas de tecnologia do mu
226. as de Planejamento Estrat gico RELAT RIO CONSOLIDADO Comit Executivo do Go verno Eletr nico Maio de 2004 p g 8 VERSAO 0 6 P GINA 10 GUIA CLUSTER 2 2 2 PADROES DE INTEROPERABILIDADE DE GOVERNO ELETRONICO Nesse novo contexto a atua o do Governo Eletr nico pretende melhorar a pres ta o de servi os aos cidad os com aumento da transpar ncia e diminui o da burocracia contribuindo para a democratiza o do processo decis rio a maior efetividade das a es governamentais e a promo o da inclus o digital Para dar suporte a toda demanda computacional que criada por esses princ pios que se prop e a utiliza o de Cluster e Grids no governo como forma de criar um ambiente computacional robusto de alto grau de confian a e de baixo custo 2 2 2 Padr es de Interoperabilidade de Governo Eletr nico Com a inten o de estruturar mecanismos capazes de promover a efici ncia da Administra o P blica no contexto da Sociedade da Informa o articulada s a es estabelecidas para implanta o do Governo Eletr nico o Governo brasi leiro elaborou um conjunto de premissas pol ticas e especifica es t cnicas re gulamentadoras para utiliza o da Tecnologia da Informa o e da Comunica o denominada Arquitetura e PING Padr es de Interoperabilidade de Governo Eletr nico A Arquitetura e PING define um conjunto m nimo de premissas pol ticas e especifica e
227. as na poca de ponta o Estado Bra sileiro acabou por se tornar de certa forma um vido consumidor tecnol gico Um grande parque computacional heterog neo foi estruturado baseado no pa radigma da computa o de grande porte num momento em que as tecnologias computacionais eram desenvolvidas por empresas multinacionais e posterior mente internalizadas no governo sem um est mulo de pesquisa s universidades brasileiras bem como ao mercado das empresas nacionais Neste paradigma computacional a grande capacidade de processamento de tran sa es simult neas e alta disponibilidade est o diretamente relacionadas ao hard ware especializado produzido por poucas empresas no mundo Este modelo am plamente adotado consolidou a base do processo de automatiza o e estrutura o de sistemas e implementa o de servi os que hoje atinge todos os segmentos do Setor P blico A falta de padr es abertos transversais e o hardware especializado acabam por tornar o processo de negocia o do governo para a aquisi o de novos equipa mentos e servi os uma atividade limitada e desproporcional Com poucas em presas capazes de produzir e ou prestar os servi os para o atendimento das de mandas e algumas vezes a aus ncia de concorr ncia de empresas na oferta de bens e servi os ao governo desenvolveram se diversas rela es de depend ncia tecnol gica com os fornecedores Isto ocorre em fun o das caracter sticas deste parad
228. as opera es necess rias que as de mais m quinas virtuais n o podem executar A m quina virtual Dom0 ent o respons vel pelo gerenciamento de toda a estrutura de gerenciamento de virtua liza o fazendo uso de aplica es que tem acesso ao hypervisor nesta m quina virtual que se parametriza a virtualiza o do hardware e a fatia entregue para cada m quina virtual que n o tenha acesso direto ao hardware e ao hypervisor No site de not cias da Sun http www sun com emrkt innercircle newsletter brazil 0706vass htmi feita algumas pondera es sobre tecno logias de virtualiza o e Vmware Embora atraente a abordagem de m quina virtual do VMware pode ser relativamente cara em termos de desempenho Geralmente o hypervisor consome entre 5 e 15 da pot ncia total da CPU enquanto cada sistema operacional aumenta a carga No final as empresas podem consumir uma grande quantidade de recursos da CPU simplesmente para comportar a infra estrutura de m quina virtual e Xen Recentemente o software de c digo aberto Xen surgiu como alternativa VERSAO 0 6 P GINA 350 GUIA CLUSTER 14 2 2 SITEMA OPERACIONAL NATIVO VERSUS VIRTUALIZACAO COM XEN ao VMware Como o VMware o Xen suporta a execu o de v rios sistemas operacionais no mesmo hardware O Xen uma forma de virtualiza o de n vel mais baixo com a qual os administradores podem virtualizar v rias partes de um sistema incluindo a mem ria e a CPU
229. as pos sibilidades de utiliza o de tecnologias de clusters dentro do ambiente analisar a situa o atual indicar os pontos cr ticos do projeto Esse processo de consultoria VERSAO 0 6 P GINA 59 GUIA CLUSTER 4 3 O PROJETO DE CLUSTER tem de prever uma intera o dos conhecedores do problema com os especi alistas em tecnologias de cluster para que em conjunto possam obter a melhor solu o para os Sistemas que ir o rodar no ambiente clusterizado 4 3 O Projeto de Cluster Quando se prepara para projetar ou planejar um sistema que vai rodar em cluster para ambientes empresariais ou ambientes de produ o que n o s o flex veis como os ambientes acad micos aconselh vel se preparar para poder responder e respaldar v rias tecnologias metodologias e informa es A op o por uma ou outra tecnologia pode ser o marco divisor entre o sucesso ou n o do projeto Assim alguns cuidados tem de ser tomados na hora de reconhecer o ambiente no qual se est optando V rias dicas s o dadas no artigo Ten Tips for Building Your First High Performance Cluster ou em tradu o livre Dez macetes para construir seu pri meiro cluster de Alto desempenho escrito por Joseph D Sloan e publicado em 12 29 2004 na http www linuxdevcenter com pub a linux 2004 12 29 Inxclstrs 10 html que tem foco apenas em sistemas de alto desempenho Aumentado a complexidade e procurando expandir a id ia pensando em estru
230. as vers es antigas s o incompat veis entre si essa nova vers o tamb m ser As diferen as e caracter sticas de cada uma dessas vers es levando em conta funcionamento desempenho e seguran a est o detalhadas na se o a seguir Caracter sticas do NFSv2 e NFSv3 Os servidores NFSv2 e NFSv3 n o guardam o estado das transa es realizadas Isso faz com que n o percam nenhuma informa o enviada em caso de falha na transmiss o ou nos servi os agilizando sua recupera o Os clientes tamb m n o precisam se preocupar com essa falha pois basta pedir os dados novamente para o servidor at que ele responda Por outro lado servidores que n o guardam o estado das transa es realizadas n o conseguem gerenciar locks e nem realizar transa es at micas Existem so lu es disponibilizadas parte para resolver alguns desses problemas como um servidor de locks chamado de Network Lock Manager 227 para auxiliar as pol ticas de acesso a arquivos de forma concorrente Tamb m pelo fato do NFS n o manter estado ele n o pode controlar o acesso concorrente aos seus arquivos e nem garantir a sua consist ncia No NFSv3 o mecanismo de cache do servidor foi alterado para possuir tamanho vari vel antes era constante e sua pol tica de escrita foi alterada do write on close ap s se fechar o arquivo este gravado em disco para o delayed write o arquivo gravado em disco ap s ficar algum tempo no cliente sem ser al
231. at O Tomcat 188 um servidor de aplica es Java Java Servlet e JavaServer Pages JSP O objetivo de um servidor de aplica es disponibilizar uma plataforma abstraindo do desenvolvedor de software algumas das complexidades de um sis tema computacional O servidor de aplica es responde a quest es comuns to das as aplica es como seguran a alta disponibilidade balanceamento de carga e toler ncia falhas Ele distribu do como software livre e desenvolvido dentro do projeto Apache Jakarta que oficialmente endossado pela Sun como a Implementa o de Refe r ncia RI para as tecnologias Java Servlet e JavaServer Pages JSP O Tomcat suficiente robusto e eficiente o para ser utilizado em ambientes de produ o Tecnicamente o Tomcat um container Web cobrindo parte da especifica o J2EE e servindo de container para tecnologias como Servlet e JSP e tecnologias de apoio como JNDI Resources e JDBC DataSources O Tomcat tem a capacidade de atuar tamb m como servidor web HTTP ou pode funcionar integrado a um servidor Web dedicado como o Apache httpd ou o Microsoft IIS A partir da vers o 5 Tomcat passou a dispor de escalabilidade horizontal ca pacidade de atender ao aumento de requisi es de usu rios atrav s do aumento do n mero de servidores f sicos e alta disponibilidade capacidade de suportar VERSAO 0 6 P GINA 184 GUIA CLUSTER 8 2 CLUSTER TOMCAT falhas de hardware ou s
232. at de VERSAO 0 6 P GINA 240 GUIA CLUSTER 10 2 5 KERRIGHED redistribuir a carga do trabalho job de forma adaptativa Na pr tica o problema de aloca o de recursos muito mais complexo pois exis tem v rios tipos diferentes de recursos tais como CPU mem ria E S IPC Co munica o Inter Processos etc onde cada recurso utilizado de uma maneira diferente e na maior parte das vezes seu uso imprevis vel Outras dificuldades surgem do fato que diferentes usu rios n o coordenam suas atividades Entre tanto mesmo que um usu rio saiba otimizar a aloca o de recursos aos processos as atividades de outros usu rios costumam interferir em sua otimiza o Para o usu rio os sistemas SMP garantem efici ncia uso balanceado de recursos entre os processos em execu o independentemente dos requisitos de recurso SMP s s o f ceis de usar pois eles empregam administra o adaptativa de recur sos o que completamente transparente ao usu rio Os atuais CC s n o possuem tais capacidades Eles se baseiam na aloca o est tica controlada pelo usu rio o que inconveniente e pode levar a significativas perdas de performance devido a cargas mal distribu das O openMosix um conjunto de algoritmos que juntos suportam compartilha mento adaptativo de recursos em um CC escal vel pela migra o din mica de processos Ele pode ser visto como uma ferramenta que torna plataformas CC mais pr ximas de ambi
233. at demandas de abrang ncia nacional com tratamento de grande quantidade de informa es e envolvimento de um elevado contingente de usu rios Ado o Preferencial de Padr es Abertos a e PING define que sempre que poss vel ser o adotados padr es abertos nas especifica es t cnicas Pa dr es propriet rios s o aceitos de forma transit ria mantendo se as pers VERSAO 0 6 P GINA 12 GUIA CLUSTER 2 2 2 PADROES DE INTEROPERABILIDADE DE GOVERNO ELETRONICO pectivas de substitui o assim que houver condi es de migra o Sem pre ju zo dessas metas ser o respeitadas as situa es em que haja necessidade de considera o de requisitos de seguran a e integridade de informa es Quando dispon veis solu es em Software Livre s o consideradas prefe renciais Em sua segunda parte Especifica o T cnica dos Componentes da e PING v rios pontos s o levantados de interesse para novos projetos de sistemas de infor m tica e informa o Principalmente no que se pode caracterizar como compu ta o distribu da com a utiliza o de Web Services e de Arquitetura Orientada a Servi os SOA Com a utiliza o de Web Services para a interliga o integra o e interoperabili dade de sistemas Da sess o 6 1 Interconex o Pol ticas T cnicas e 6 1 7 Sempre que poss vel deve ser utilizada tecnologia baseada na web em aplica es que utilizaram Emula o de Terminal anterior
234. b de mesmo n vel podem ser aninhados como por exemplo um sistema com RAIDb 1 1 para espelhamento de v rios bancos de dados Para evitar que o controlador se torne um ponto nico de falha dois ou mais controladores po dem ser usados para atender s requisi es O middleware de comunica o de grupo JGroups usado para sincronizar as modifica es nos bancos de maneira distribu da Os bancos de dados n o necessitam ser compartilhados entre os con troladores mas se caso um controlador caia os bancos associados a ele tamb m ficar o indispon veis No caso de backends compartilhados um controlador en viar as requisi es aos backends informando ao outro controlador assim que as requisi es estiverem completadas A figura9 8 mostra um exemplo de uma configura o RAIDb 1 0 O ltimo exemplo figura 9 9 mostra uma composi o RAIDb 0 1 O n vel mais alto um controlador RAIDb 0 e a toler ncia a falhas conseguida gra as a cada parti o usando controlador RAIDb 1 VERSAO 0 6 P GINA 221 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA SQL requests tablew tablex amp y table z table w tabley tablex amp z table w table x table y table z Figura 9 8 Exemplo de RAIDb 1 0 SQL requests table w table w tablex amp y tablex amp y tablox amp y table z table z Figura 9 9 Exemplo de RAIDb 0 1 Balanceamento de carga O balanceador de carga define a maneira que as requisi es ser o distribu das entre
235. balho do governo brasileiro Algumas dessas solu es s o o vCluster 147 e o Ourgrid 62 desenvolvidos respectivamente pela Pontif cia Universidade Cat lica do Rio Grande do Sul e pela Universidade Federal de Campina Grande 2 4 Dois Paradigmas Computacionais O modelo atualmente adotado pelas empresas de inform tica governamentais e por muitas grandes empresas para resolver o paradigma exposto na sess o anterior caracterizado principalmente pelos sistemas heterog neos de grande porte com a utiliza o de mainframes e supercomputadores A evolu o das solu es de Cluster e Grid vem criando uma nova alternativa 8Berkeley Open Infrastructure for Network Computing http boinc berkeley edu http distributted net VERSAO 0 6 PAGINA 28 GUIA CLUSTER 2 4 1 COMPUTA O DE GRANDE PORTE para os ambientes computacionais de grande porte A utiliza o destes ambien tes para computa o de alta performance vem crescendo rapidamente e j quase predominante para as grandes m quinas utilizadas nos dias de hoje Segundo a lista Top500 em sua publica o de n mero 27 06 2006 sistemas de Cluster j s o respons veis por 72 80 dos sistemas integrantes da lista com 364 sistemas 2 4 1 Computa o de Grande Porte A computa o de grande porte definida como sistema de alta capacidade de computa o tamb m conhecida como Alta plataforma esta caracterizada pela utiliza o de Ma
236. bibliotecas como a ROMIO MPI IO 358 podem ser usadas pelas aplica es ou por outras bibliotecas para acesso de alta velocidade ao PVFS Os componentes do PVFS O servidor de meta dados MGR na figura 7 7 um programa que gerencia to dos os dados que constituem informa es sobre o arquivo exceto seu conte do como seu nome sua localiza o na hierarquia de diret rios seu dono seus atri butos e como seus dados est o distribu dos entre os v rios n s de dados do sis tema Esse programa realiza todas as opera es sobre os meta dados dos arqui VERSAO 0 6 P GINA 162 GUIA CLUSTER 7 4 1 PARALLEL VIRTUAL FILESYSTEM VERSION 1 PVFS vos atomicamente evitando assim ter que implementar esquemas complexos de concorr ncia locks consist ncia etc para m ltiplos acessos simult neos Servidor de Meta dados ESB 10 nda om je ams zm rnNn Figura 7 7 Vis o Geral do PVFS O servidor de dados ION na figura 7 7 gerencia o armazenamento do conte do dos arquivos bem como a recupera o dos mesmos nos discos locais conectados nos n s Esse servidor grava os dados dos arquivos do PVFS em um sistema de arquivos local atrav s de chama das a fun es tradicionais como read write e mmap para acess los Isso significa que pode se usar qualquer tipo de sistema de arquivos local como Ext2 Ext3 ou Reiser 371 por exemplo Adicionalmente poss vel usar suporte a RAID para que cada
237. biente Existem basicamente duas alternativas do ponto de vista do servidor que hos peda uma determinada aplica o para se conseguir um maior n vel de disponi bilidade Top 500 http www top500 org VERSAO 0 6 PAGINA 51 GUIA CLUSTER 3 3 1 CEN RIOS DE APLICA O 1 Implementa o de mecanismos de redund ncia e toler ncia falhas no hardware Alguns exemplos s o Fontes Redundantes Espelhamento de discos Utiliza o de Tecnologias HotSwap para troca de componentes do servidor entre outras Esta abordagem normalmente respons vel por au mentar os custos associados aquisi o dos equipamentos de inform tica 2 Implementa o de mecanismos de toler ncia falhas via software Esta abordagem consiste em utilizar um sistema de alta disponibilidade em soft ware capaz de gerenciar um conjunto de servidores de forma que a falha em algum dos servidores n o afete a execu o da aplica o que controlada pelo sistema de alta disponibilidade Devido as quest es relacionadas a alta disponibilidade serem tratadas em software em geral podem ser adquiri dos hardwares commodity normalmente com custo menor que os hardwa res utilizados na alternativa 1 Exemplos destes sistemas s o HeartBeat Mon Carp entre outros O sistema de alta disponibilidade com maior maturidade e mais utilizado no sis tema operacional linux o Heartbeat Este sistema pode ser utilizado para con trolar a parada e
238. bui o e modifica o seguem abaixo TERMOS E CONDI ES PARA C PIA DISTRIBUI O E MODIFI CA O 1 Esta Licen a se aplica a qualquer programa ou outra obra que contenha um aviso inserido pelo respectivo titular dos direitos autorais informando que a referida obra pode ser distribu da em conformidade com os termos desta Licen a P blica Geral O termo Programa utilizado abaixo refere se a qualquer programa ou obra e o termo obras baseadas no Programa significa tanto o Programa como qualquer obra derivada nos termos da le gisla o de direitos autorais isto uma obra contendo o Programa ou uma parte dele tanto de forma id ntica como com modifica es e ou traduzida para outra linguagem Doravante o termo modifica o inclui tamb m sem reservas a tradu o Cada licenciado doravante ser denominado Al voce Outras atividades que n o a c pia distribui o e modifica o n o s o co bertas por esta Licen a elas est o fora de seu escopo O ato de executar o Programa n o tem restri es e o resultado gerado a partir do Programa encontra se coberto somente se seu conte do constituir uma obra baseada no Programa independente de ter sido produzida pela execu o do Pro grama Na verdade isto depender daquilo que o Programa faz 2 Voc poder fazer c pias id nticas do c digo fonte do Programa ao receb lo e distribui las em qualquer m dia ou meio desde que
239. cada m quina de seu Grid A id ia que m quinas do Grid sejam manipuladas atrav s das abstra es criadas por MyGrid descritas a seguir Um aspecto importante de MyGrid dar ao usu rio a possibilidade de usar quais quer recursos que ele tenha acesso Este n o um objetivo trivial porque ele im plica que temos que assumir muito pouco a respeito de uma m quina do Grid de forma a n o impedir algum usu rio de usar uma m quina que n o suporta nos sas hip teses Em particular n o podemos assumir que tal recurso tenha software MyGrid instalado MyGrid define Grid Machine Interface como sendo o conjunto m nimo de servi os que precisam estar dispon veis para que uma dada m quina possa ser adicionada ao Grid do usu rio Tais servi os s o Como ilustrado pela Figura 13 22 h v rias formas de implementar os servi os oferecidos atrav s da Grid Machine Interface Uma forma fornecer ao sistema scripts que implementam os servi os listados na Tabela 13 2 Neste caso MyGrid VERSAO 0 6 P GINA 336 GUIA CLUSTER 13 4 2 MYGRID Servicos Execu o remota Transfer ncia de Arquivo M quina Base gt Grid Machine Transfer ncia de Arquivo Grid Machine M quina Base Interrup o de uma Execu o m ltipla Tabela 13 2 Grid Machine Interface D a lt 5 i a Machine Figura 13 22 Arquitetura do MyGrid utiliza o m dulo Grid Script para acessar a m quina em qu
240. camada de middleware ou uma camada adicional patch ao kernel 104 O middleware composto de uma camada de infraestrutura de disponibilidade que fica acima da camada do sistema operacional e por uma camada de infra estrutura de imagem nica que fica logo acima da primeira a camada de SSI quem faz a interface com as aplica es dos usu rios Todos os pacotes trabalham em conjunto dando melhor suporte a essas camadas providenciando tamb m uma eficiente implementa o para DSM checkpoint e migra o de processos 10 2 1 As Principais Caracter sticas de um Cluster SSI A seguir est o descritas as principais caracter sticas que um cluster deve possuir para ser considerado um Sistema de Imagem nica segundo Buyya 104 e Ponto nico de acesso garantia de transpar ncia ao usu rio da m quina ao qual o mesmo est se logando em meio a todos os n s do cluster Desse modo diferentes n s atendem diferentes usu rios dividindo a carga apre sentada pelas requisi es de cada usu rio de forma transparente ao mesmo VERSAO 0 6 P GINA 234 GUIA CLUSTER 10 2 1 AS PRINCIPAIS CARACTERISTICAS DE UM CLUSTER SSI e Interface nica de usu rio os usu rios devem acessar o cluster atrav s de uma nica interface gr fica de usu rio tal como uma p gina web onde se possam usufruir os servi os associados ao cluster Essa interface deve pos suir as mesmas caracter sticas para todos os usu rios e Espa o de proce
241. caso as negocia es s o entre pares Consumidor Provedor Sendo assim os consumidores tomam a decis o contratar ou n o baseado em seus objetivos locais e Tender Contract Net Uma esp cie de licita o Um convite de oferta parte do consumidor para v rios provedores que respondem com seus pre os e condi es de servi o O consumidor decide qual contratar fazendo a an lise do custo do servi o e das condi es de atendimento e Auction Neste modelo os provedores enviam convites de oferta aos con sumidores Os consumidores pode modificar sua oferta em incrementos VERSAO 0 6 P GINA 293 GUIA CLUSTER 13 2 6 DISPONIBILIZA O DE SERVI OS positivos A negocia o finaliza quando os consumidores param de efe tuar ofertas e Bid based Proportional Resource Share Neste modelo a quantidade de recursos servi os alocada aos consumidores de forma proporcional ao valor de suas ofertas e Community Coallition Bartering Model A id ia b sica deste modelo a cri a o de um ambiente cooperativo de compartilhamento de recursos Ou seja provedores que contribuem ter o garantida a possibilidade de consu mir quando necessitarem A seguir apresentaremos estrat gias usadas para incentivar a participa o de en tidades no Grid A id ia promover a agrega o de recursos de v rios dom nios administrativos com o intuito de formar um Grid que beneficie os clientes de cada dom nio GRACE GRid Arch
242. censes GPL 2 0 legalcode pt VERSAO 0 6 P GINA 356 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL visa garantir sua liberdade de compartilhar e modificar softwares livres para asse gurar que o software seja livre para todos os seus usu rios Esta Licen a P blica Geral aplic vel maioria dos softwares da Free Software Foundation Funda o do Software livre e a qualquer outro programa cujos autores se comprometerem a us la Em vez dela alguns outros softwares da Free Software Foundation s o cobertos pela Licen a P blica Geral de Biblioteca do GNU Voc tamb m poder aplic la aos seus programas Quando falamos de Software Livre estamos nos referindo liberdade n o ao pre o Nossas Licen as P blicas Gerais visam garantir que voc tenha a liberdade de distribuir c pias de Software Livre e cobrar por isso se desejar que receba c digo fonte ou possa obt lo se desejar que possa modific lo ou usar partes dele em novos programas livres finalmente que voc tenha ci ncia de que pode fazer tudo isso Para proteger seus direitos necessitamos fazer restri es que pro bem que al gu m negue esses direitos a voc ou que solicite que voc renuncie a eles Essas restri es se traduzem em determinadas responsabilidades que voc dever as sumir se for distribuir c pias do software ou modific lo Por exemplo se voc distribuir c pias de algum desses programas tanto gratui tamente como med
243. cer par metros para an lise e auditoria das informa es coletadas e Projeto Qualidade de Dados Sociais foi realizada uma chamada p blica em 2005 e posteriormente uma aquisi o de solu o baseada em tecnologia de Cluster para tratamento de qualidade de dados que busca identificar incon sist ncias e fraudes no acervo de bases de dados sociais do governo Foram utilizadas as bases SISOBI SIM GFIP CADUNICO e do Censo Previden ci rio O acervo de dados tratado neste projeto da ordem de 300 milh es de registros com possibilidade de expans o para at 1 bilh o de registros VERSAO 0 6 P GINA 383 GUIA CLUSTER F 1 HISTORICO DO LABCLUSTER e Projeto de Integra o Intelig ncia e Informa o de Governo 1 Gov hos pedagem do sistema desenvolvido para integrar e oferecer aos gestores do governo federal uma vis o voltada para o custeio da administra o p blica Foi desenvolvida uma arquitetura referencial de integra o de sistemas go vernamentais baseada em padr es abertos e Web Services e Guia de administra o de ambientes em Cluster e Grid este documento possui um conjunto de justificativas para a ado o de tecnologias basea das em computa o distribu da pelo governo brasileiro e uma abordagem t cnica e gerencial das tecnologias de Cluster de Processamento de Alto De sempenho Cluster de Aplica o Cluster e replica o de Banco de Dados Cluster de Armazenamento Grid de saco de tare
244. cia a administra o p blica obrigada a adquirir um hardware com maior capacidade de processamento para atender a demanda de pico de processamento do sistema Durante quase toda a sua vida til o equipamento adquirido possuir capacidade de processamento ociosa de vido s caracter sticas de demandas flutuantes de processamento desses sistemas governamentais Em resumo a administra o alocar na maior parte do tempo recursos financei ros em um equipamento subutilizado quando este recurso poderia ser utilizado em reas com demandas mais urgentes Para equacionar quest es como essas a administra o p blica est em busca de alternativas computacionais baseadas em Cluster e Grid que auxiliem na re solu o desse desafio de computa o sob demanda minimizando a capacidade de processamento ociosa existente dentro da administra o p blica bem como a aloca o de recursos financeiros desnecess rios 2 3 2 Aproveitamento de Ciclos Ociosos Estima se que a administra o p blica direta possua um parque computacional em torno de 300 mil esta es de trabalho que adotam um padr o de uso co mum Este padr o consiste numa maior utiliza o destes equipamentos durante os hor rios de expediente comercial de trabalho Entretanto at mesmo durante os hor rios de maior utiliza o destes equipamentos existem grandes per odos de ociosidade do uso de processamento dos mesmos Este imenso recurso com putacion
245. cking without blac klist A diferen a entre as duas o uso de uma lista com os volunt rios maliciosos Essa lista indica os volunt rios que n o devem ser mais considerados Para uma maior discuss o sobre as diferen as e implica es de cada abordagem sugerimos ao leitor o trabalho de Sarmenta et al 322 Devido ao fato de nem sempre ser poss vel manter uma lista de volunt rios ma liciosos de forma eficiente Por exemplo usar o IP para identificar unicamente os volunt rios maliciosos pode n o ser uma boa id ia pois bastante comum o fato dos hosts obterem IP din micos todas as vezes que se conectam Sendo assim para resolver essa limita o surge uma nova abordagem baseada na defini o de credibilidade 322 A id ia marcar v rios objetos do sistema com um valor que descreve sua credibilidade Ent o poss vel que volunt rios resultados e gru pos de resultados tenham valores de credibilidade dependendo de v rios fatores Por exemplo novos volunt rios que entram no sistema t m menos credibilidade que antigos volunt rios onde seus resultados passaram com sucesso por v rios spot checking Naturalmente a credibilidade dos resultados do volunt rio ter bastante rela o com sua pr pria credibilidade que pode evoluir ao passo que sua computa o vai sendo verificada Note que uma combina o de majority vo ting e spot checking uma alternativa poss vel para determina o da credibilidade dos volunt
246. cluem a possibilidade de fornecimento de qualquer ser vi o computacional sob demanda o qual pode ser composto dinamicamente por outros servi os e agregar recursos localizados em v rias institui es distintas e geograficamente dispersas Al m disso os recursos podem ser alocados em uma quantidade enorme e g centenas de milhares de computadores conectados via Internet e por um custo muito menor do que alternativas tradicionais baseadas em supercomputadores paralelos Um aspecto importante que deve ser considerado o fato de mesmo havendo a converg ncia entre tecnologias para alto desempenho e da ind stria existe uma leve diferen a entre Grids que fornecem e que n o fornecem um servi o de execu o VERSAO 0 6 P GINA 279 GUIA CLUSTER 13 1 INTRODU O remota Esse servi o fundamental para a comunidade de alto desempenho uma vez que permite a execu o de aplica es paralelas no Grid Mas conceb vel imaginar Grids mais comerciais onde o foco o acesso e composi o de servi os sob demanda que funcionem perfeitamente bem sem disponibilizar o servi o de execu o remota O servi o de execu o remota crucial porque ele introduz importantes desafios para infraestrutura do Grid Os Grids que fornecem execu o remota tendem a ser mais complexos pois ao permitir uma maior flexibilidade aos clientes do servi o que podem converter o servi o de execu o remota em qualquer servi o deve se
247. colher quais opera es ser o executadas dentro de transa es Para montar uma transa o existem os comandos in cio e fim O comando de in cio avisa ao sistema que todas as opera es a partir da quele ponto estar o dentro da transa o e o comando de finaliza o indica que VERSAO 0 6 P GINA 143 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS n o vir mais nenhuma opera o para aquela transa o Assim caso alguma dessas opera es falhe o sistema ou desfaz ou aborta todas as altera es que as opera es antes daquela realizaram Isso chamado de roll back ou abort Caso todas as opera es sejam executadas sem problemas ou erros ao chegar no fim da transa o realizado um commit ou seja todas as altera es que foram executadas s o efetivadas e persistidas de tal forma que outros processo possam perceb las Com isso as transa es implementam a sem ntica do tudo ou nada ou seja ou todas as opera es s o executadas com sucesso ou nenhuma ser executada Isso faz das transa es um importante mecanismo de toler ncia a falhas pois elas evitam que pequenas falhas prejudiquem a integridade de todo o sistema Embora as transa es sejam implementadas de forma praticamente obrigat ria em sistemas de bancos de dados elas n o costumam ser implementadas em siste mas de arquivos Os sistemas LOCUS e o QuickSilver 246 s o algumas exce es regra pois implement
248. controle que deco difica sequencialmente as instru es que operam sobre um nico conjunto de dados e Segii ncia de Instru es M ltiplas Seqti ncias de Dados SIMD Single Ins truction stream over a Multiple Data stream corresponde aos processadores matriciais Nestas arquiteturas diversos elementos processadores s o ati vados por somente uma unidade de controle Esta unidade est submetida a um nico programa cujas instru es repassam aos elementos processado res Os processadores executam concorrentemente uma mesma instru o sobre os dados que t m na sua mem ria local e M ltiplas Sequ ncias de Instru es uma Sequ ncia de Dados MISD Multiple Instruction stream over a Single Data stream n o existem compu tadores constru dos que se enquadrem nesta categoria e M ltiplas Seqii ncias de Instru es M ltiplas Seqti ncias de Dados MIMD Multiple Instruction stream over a Multiple Data stream nesta classe se enquadram os multiprocessadores Arquiteturas de Mem ria Distribu da Neste tipo de arquitetura cada n tem seu processador sua unidade de con trole e sua mem ria local MIMD Assim cada n pode executar de forma ass n VERSAO 0 6 P GINA 82 GUIA CLUSTER 6 1 1 A CLASSIFICA O DE FLYNN PARA ARQUITETURAS DE COMPUTADORES Rede de Interconex o Figura 6 2 Arquitetura gen rica de multiprocessador de mem ria crona um processo independente sobre seus pr prios
249. crona garante que dados sejam replicados sem que haja atraso e a caracter stica de ser multi master permite que dois ou mais n s de armaze namento possam receber requisi es de usu rios ao mesmo tempo O sistema composto por tr s tipos de m quinas servidor de balanceamento Load Balancer recebe consultas e as enca minha para os n s de armazenamento As consultas s o distribu das de acordo com a carga de cada n Pode haver mais de um balanceador de carga servidor de armazenamento Cluster DB m quina que recebe e arma zena as consultas em bancos de dados servidor de replica o Replicator cuida de manter os dados sincroniza dos entre os servidores Mais de um servidor pode ser usado neste caso outro servidor s assume se o servidor de replica o principal falhar O sistema cumpre as seguintes fun es VERSAO 0 6 P GINA 205 GUIA CLUSTER 9 3 2 PGCLUSTER Balanceamento de carga Pela combina o de servidores de armazena mento e servidor de replica o pode se criar um sistema onde o PGClus ter verificar qual m quina est com menor carga redirecionando uma poss vel consulta para ela Alta disponibilidade Com a adi o de um balanceador de carga PG Cluster configura um sistema de alta disponibilidade O balanceador de carga e o servidor de replica o separam um n que ocasionalmente falhe e continuam a servir com o restante do sistema Assim que a m quina que
250. cter stica opera sobre qual quer dispositivo do bloco podendo ser um disco inteiro por exemplo dev sda uma parti o qualquer por exemplo dev hdb1 um dispositivo de loopback por exemplo dev loop0 ou qualquer outro dispositivo de bloco compat vel para criar um nico dispositivo RAID Isso diverge da maioria das solu es de RAID via hardware onde cada grupo unif ca unidades de disco inteiras em um arranjo Comparando as duas solu es o RAID via hardware transparente para o sistema operacional e isto tende a simplificar o gerenciamento J o via software tem mais op es e escolhas de configura es fazendo sua manipula o mais complexa 7 2 3 Distributed Replicated Block Device DRBD Projeto DRBD S tio Oficialihttp www drbd org Licen a GPL Respons vel LinBit http www linbit com DRBD um acr nimo para o nome ingl s Distributed Replicated Block Device O DRBD consiste num m dulo para o kernel de Linux juntamente com alguns scripts e programas que oferecem um dispositivo de blocos projetado para dispo VERSAO 0 6 P GINA 123 GUIA CLUSTER 7 2 3 DISTRIBUTED REPLICATED BLOCK DEVICE DRBD nibilizar dispositivos de armazenamento distribuidos geralmente utilizado em clusters de alta disponibilidade Isto feito espelhando conjuntos de blocos via rede dedicada O DRBD funciona portanto como um sistema RAID baseado em rede Como Funciona DRED Primary DREDyPrimary
251. cut through As interfaces de host mapeiam redes selecionam rotas controlam o tr fico de pacotes e transformam endere os de rede em rotas Seu software otimizado permite que seja feita uma comunica o direta entre os processos do usu rio e a rede Uma diferen a em rela o s LAN s est nas alt ssimas taxas de transmiss o e nas baix ssimas taxas de erro al m de controle de fluxo em todos os links Um link Myrinet um par full duplex de canais Myrinet opostos Um canal My rinet unidirecional e ele o meio de comunica o que carrega caracteres de informa es O fluxo do remetente pode ser bloqueado temporariamente pelo receptor a qualquer hora durante ou entre pacotes usando controle de fluxo VERSAO 0 6 P GINA 110 GUIA CLUSTER 6 6 4 DISPOSITIVOS DE INTERCONEX O Num ambiente de comunica o confi vel pode se empregar roteamento cut through no qual n o existe a bufferiza o do pacote inteiro com checagem de erro no checksum No roteamento store and forward se o canal de sa da est ocupado ele fica enfileirado num circuito de roteamento ou n que supostamente tem mem ria suficiente para bufferizar o pacote J no roteamento cut through os circuitos de roteamento podem bloquear com controle de fluxo se o canal de sa da n o estiver dispon vel Desta forma o circuito de roteamento cut through n o requer buffe riza o pois cada link pode prover seu pr prio controle
252. da OGSA OGSI Globus 3 x No intuito de realizar a vis o da orienta o a servi os houve um converg ncia de tecnologias da rea de computa o de alto desempenho e de padr es bem VERSAO 0 6 P GINA 298 GUIA CLUSTER 13 2 7 PADRONIZA O consolidados pela ind stria isso ocorreu atrav s da uni o de tecnologias e con ceitos Grids com web services 250 A partir disto foi definida uma arquitetura de servi os b sicos para a constru o de uma infraestrutura de Grids Computacio nais baseados em Servi os Esta arquitetura foi denominada Open Grid Services Architecture OGSA 184 53 A defini o do OGSA contempla a id ia de interconex o de sistemas e a cria o de ambientes virtuais multi institucionais Al m disso os recursos que podem ser agregados ao Grid s o representados por servi os e estes servi os s o cha mados de Grid Services 184 Os grid services s o essencialmente web services que seguem conven es estabelecidas na especifica o da OGSA e suportam interfaces padronizadas para garantir algumas opera es adicionais como gerenciamento do ciclo de vida do servi o As interfaces padr es definidas pelo OGSA facilitam a virtualiza o de recursos e servi os Isso possibilita o uso de v rios tipos de recursos de forma transparente Outra vantagem da virtualiza o que interfaces padr es permitem um baixo acoplamento entre o cliente e o provedor do servi o Esse baixo acoplamento fac
253. da como uma estrutura b sica para a estrat gia de governo eletr nico e permite racionalizar investimentos em TIC por meio do compartilhamento reutili za o e interc mbio de recursos tecnol gicos A e PING apresenta em cada um dos seus segmentos pol ticas t cnicas norte adoras para estabelecimento das especifica es de seus componentes que s o fundamentadas em algumas pol ticas gerais Para este trabalho as principais pol ticas gerais levantadas pela e Ping que atingem e ou norteiam o desenvol vimento de sistemas de Cluster e Grid s o e PING vers o 1 9 2 p g 9 Alinhamento com a INTERNET todos os sistemas de informa o da admi nistra o p blica dever o estar alinhados com as principais especifica es usadas na Internet e com a World Wide Web Ado o do XML como padr o prim rio de interc mbio de dados Desenvolvimento e ado o de um Padr o de Metadados do Governo Ele tr nico e PMG baseado em padr es internacionalmente aceitos Escalabilidade as especifica es selecionadas dever o ter a capacidade de atender altera es de demanda no sistema tais como mudan as em volu mes de dados quantidade de transa es ou quantidade de usu rios Os padr es estabelecidos n o poder o ser fator restritivo devendo ser capazes de fundamentar o desenvolvimento de servi os que atendam desde neces sidades mais localizadas envolvendo pequenos volumes de transa es e de usu rios
254. da atrav s do RMI registry A Figura 13 2 ilustra o acesso a um servi o usando RMI Figura 13 2 Acessando um servi o usando RMI Ao contr rio de RMI CORBA oferece maior interoperabilidade entre clientes e provedores Isso poss vel pois servi os CORBA s o descritos atrav s de uma linguagem de descri o Interface Definition Language IDL que independente da linguagem em que o servi o e cliente s o implementados Esse aspecto torna CORBA mais flex vel que RMI pois permite que o cliente e o servi o sejam im plementados em linguagens diferentes Por exemplo podemos ter um cliente desenvolvido em C e um servi o escrito em Java Em CORBA um servi o acessado de forma semelhante a RMI A diferen a subs VERSAO 0 6 P GINA 283 GUIA CLUSTER 13 2 1 ACESSO A SERVI OS tancial est na exist ncia de uma entidade chamada Object Request Broker ORB A Figura 13 3 ilustra a opera o de acesso a um servi o na plataforma CORBA Note que o ORB respons vel por prover transpar ncia no acesso do cliente ao servi o Assim tanto a localiza o e implementa o do servi o quanto do cliente tornam se transparentes para ambos Essa transpar ncia na localiza o torna se vi vel pelo uso do protocolo IIOP Internet Inter Orb Protocol que prov o trans porte das invoca es do cliente ao servi o Protocol Client j Client objec b Stub sil ORB 1 ORB 2 Figura 1
255. da computa o de grande porte percebe se que as solu es adquiridas operam a maior parte do tempo com carga de processamento inferior sua capacidade devido ao alto custo de hardware envolvido associado difi culdade de dimensionamento do ambiente conforme representado pela rea em mais clara na Figura 2 1 e normalmente quando atingem a carga m xima sofrem dificuldades de expans o do hardware capacidade de processamento Portanto em ltima inst ncia a Administra o aloca recursos financeiros em uma solu o cuja capacidade de processamento n o ser plenamente exigida na fase inicial de aloca o de recursos computacionais 2 4 2 Computa o Distribu da Por utilizar componentes f sicos comuns em sua arquitetura um ambiente cluster apresenta facilidade de dimensionamento da capacidade de processamento O VERSAO 0 6 P GINA 31 GUIA CLUSTER 2 4 3 COMPARA O GRANDE PORTE E DISTRIBU DA ambiente pode ser concebido de acordo com a exig ncia inicial da carga de pro cessamento do ambiente medida que a carga aumenta novos componentes f sicos podem ser facilmente alocados no ambiente para suprir a necessidade de processamento Como nestes ambientes podem ser empregados hardwares mais abertos ou utilizados pelo mercado consegue se realizar um r pido dimensio namento com custo reduzido maximizando a capacidade de processamento do ambiente Carga Figura 2 2 Evolu o da carga de processam
256. da para permitir estender esse me canismo no futuro No NFSv4 a interpreta o das listas de controle de acesso ACLs foi padronizada tanto para o ambiente Posix quanto para o Windows Os nomes de usu rio e grupo s o armazenados em forma de texto e n o mais como valores Al m desses existe a possibilidade de se ter outros atributos conforme a necessidade Todos eles s o armazenados na codifica o UTF 8 Por fim todos os protocolos NFS existentes tais como stat NLM mount ACL e NFS convergem para uma nica especifica o proporcionando uma melhor compatibilidade com os firewalls de rede al m de introduzir no protocolo su porte a migra o e replica o de arquivos An lise Cr tica O NFSv4 tornou sua manuten o e uso muito mais simples por possuir agora controle de bloqueios encapsulado no mesmo protocolo e n o mais atrav s de sistemas de terceiros al m de permitir o controle da consist ncia dos arquivos VERSAO 0 6 P GINA 151 GUIA CLUSTER 7 3 5 ANDREW FILE SYSTEM AFS que est o nos caches dos seus clientes O controle da seguran a aos arquivos era muito simplificado e fr gil permitindo que clientes n o confi veis pudessem acessar arquivos de maneira desonesta Isso foi resolvido na vers o 4 do proto colo onde mecanismos avan ados de seguran a e autentica o foram incorpora dos Outro problema era o grande consumo de recursos da rede nas opera es entre cliente e servidor de
257. da pode se empregar qualquer dis positivo dispon vel no mercado n o precisando assim um hardware ou driver es pecifico E ainda sistemas Operacionais virtualizados s o muito mais port veis quando virtualizados pelo hardware eles s o virtualizados em n veis baixos e a ger ncia do hardware s o m dulos que funcionam sob o controle do hypervisor 14 2 4 Virtualiza o nativa no Xen Virutaliza o nativa tamb m conhecida como virtualiza o acelerada ou h brida uma combina o de virtualiza o nativa e virtualiza o de I O entrada e sa da Tipicamente este m todo iniciado com um VMM Virtual Machine Monitor com suporte a virtualiza o cheia como o Xen por exemplo e ent o baseando se na an lise de desempenho emprega as t cnicas de acelera o O uso do processador e tamb m drivers de rede s o os recursos mais comuns onde empregada a virtualiza o nativa Uma t cnica similar virtualiza o nativa usada em mainframes Na virtua liza o de hardwares x86 a primeira implementa o de virtualiza o nativa foi feita com o software Virtual Iron http www virtualiron com Uma vantagem da virtualiza o nativa que esta reduz a maioria das despe sas de manuten o da paravirtualiza o no que tange a quantidade de altera es necess rias no sistema operacional convidado e tamb m obt m tamb m consi der vel ganho de desempenho comparando com paravirtualiza o Uma
258. da recurso ou subcon junto de recursos quando estes compartilham do mesmo cadastro de usu rios Obviamente tal forma de acesso tem que oferecer garantias sobre autentica o dos usu rios caso contrario os administradores de sistema n o ser o simp ticos id ia de permitir que usu rios de outros dom nios tenham acesso aos recursos locais atrav s dos servi os presentes naquele dom nio administrativo As iniciativas atuais de Grids t m tratado esse problema atrav s do uso de esque mas baseados em chaves p blica e privada bem como certificados digitais Desta VERSAO 0 6 P GINA 288 GUIA CLUSTER 13 2 4 PRIVACIDADE DE DADOS forma cada dominio administrativo pode manter sua politica local de autentica o e autoriza o e exporta um servi o que cuida da autentica o e autoriza o do acesso de clientes externos aos seus servi os Como veremos em mais detalhes na Se o 13 4 1 e na Se o 13 4 3 algumas infra estruturas possuem uma camada que fornece uma infraestrutura de seguran a para que seja poss vel autenticar e autorizar o acesso e uso de servi os do Grid enquanto outras usam certificados digitais n o apenas para autenticar usu rios mas tamb m para prover comunica o segura entre os clientes e os servi os 13 2 4 Privacidade de Dados Al m das demandas por seguran a dos provedores de servi os os clientes des ses servi os tamb m imp em necessidades de seguran a Logo alguns
259. dade usual o emprego de DSM Distributed Shared Memory 276 304 atrav s da VERSAO 0 6 P GINA 83 GUIA CLUSTER 6 1 1 A CLASSIFICA O DE FLYNN PARA ARQUITETURAS DE COMPUTADORES qual o software aplicativo tem a vis o de uma mem ria comum a todos os n s processadores Compartilhamento de uso este tipo de arquitetura permite de forma bastante flex vel o particionamento e a aloca o de subgrupos de processadores tare fas usu rios Principais aspectos negativos Custo das comunica es em fun o das caracter sticas da rede de interconex o utilizada vide item 6 6 2 alguns algoritmos podem ter seu desempenho dimi nu do Assim o processo de planejamento codifica o e gera o de c digo com a contribui o expl cita ou n o do programador precisa considerar aspectos de localidade das comunica es e granulosidade das tarefas para otimizar a possi bilidade de seu particionamento e distribui o aos processadores Custo de sincroniza o apesar de poderem trabalhar frequentemente de forma ass ncrona determinados momentos da execu o paralela podem exigir um es tado conhecido comum para um grupo de processadores Para minimizar o pos s vel tempo de espera nos momentos de sincroniza o o desenvolvimento de software deve contemplar uma distribui o de carga o mais equ nime poss vel o que nem sempre vi vel e com isso potencializar a utiliza o dos processa dores e aume
260. de 200 Endere o IP 192 168 6 2 Roteador B Prioridade 100 Endere o IP 192 168 6 3 Ethernet Token Ring FDDI Cliente Cliente Cliente seers Rota Padrao Figura 6 10 Esquema de funcionamento de um sistema VRRP O servidor A envia pacotes multicast para outras instancias do VRRP que rodem na rede no caso apenas o roteador B Estes pacotes carregam informa o para duas finalidades principais For ar a elei o de outro master caso haja algum com maior prioridade Notificar inst ncias VRRP de backup que h um master ativo caso n o aja co munica o em intervalo definido haver nova escolha de master VERSAO 0 6 P GINA 118 Capitulo 7 Cluster de Armazenamento 7 1 Introdu o O aumento da capacidade de processamento e a maior utiliza o de sistemas in formatizados para automatizar e auxiliar a execu o dos mais variados processos e sistemas de informa o ocasionou um ac mulo de informa es e de dados que necessitam ser armazenados e consolidados Conjuntamente com este aumento na demanda de armazenamento dos dados a capacidade e as tecnologias de armazenamento evolu ram expressivamente nos ltimos anos chegando recentemente a alcan ar PetaBytes No ambiente corporativo s o utilizadas diversas m dias e tecnologias para ar mazenamento de dados de uma maneira geral podem ser classificadas em dois grandes grupos e Tecnologias de Armazenamento Online Encontram se
261. de aplica o Es calonadores de aplica o n o controlam os recursos que usam Eles obt m acesso a tais recursos submetendo solicita es para os escalonadores que controlam os recursos Ou seja em um Grid as decis es de escalonamento s o divididas em duas ca madas com parte da responsabilidade pelo escalonamento sendo transferida dos VERSAO 0 6 P GINA 309 GUIA CLUSTER 13 3 3 ESCALONAMENTO x Escalonador Escalonador de Aplica o de Aplica o Escalonador Escalonador 4 E de Recurso de Recurso de Recurso mio y Bk 2 Figura 13 11 Ilustra o de um cen rio composto de v rios escalonadores 4 4 escalonadores de recurso para o n vel de aplica o A Figura 13 11 ilustra um cen rio de escalonamento em um Grid Computacional As decis es tomadas pelo escalonador de aplica es quais recursos ser o uti lizados e quais tarefas cada um destes recursos realizar s o normalmente ba seadas em um modelo do desempenho da aplica o e em dados sobre o estado atual dos v rios recursos que formam o Grid 89 111 327 380 379 167 Por tanto escalonadores de aplica o t m que conhecer detalhes das aplica es que escalonam i e eles s o constru dos com uma aplica o ou classe de aplica es em mente Al m disso escalonadores de aplica o normalmente precisam sa ber quanto tempo cada recurso vai levar para processar uma dada tarefa Sem esta informa o dif cil
262. de com replica o de arquivos que ajuda no acesso concorrente dando maior velocidade para as aplica es dos clientes ajudando o tamb m a deixar os arquivos sempre dispon veis caso algum servi dor fique fora do ar Servi o de Diret rios Distribu do Esse servi o respons vel por manter a organiza o dos arquivos armazenados no sistema Ele fornece uma interface para que os usu rios possam arranjar seus arquivos de forma hier rquica que estruturada em diret rios e subdiret rios Na maioria dos casos um subdiret rio s tem um nico pai O servi o precisa manter uma lista de todos os diret rios ativos junto com seus respectivos arquivos Ele precisa ter a capacidade de identificar e remover arqui vos que n o estejam em diret rio algum como por exemplo quando um diret rio VERSAO 0 6 P GINA 137 GUIA CLUSTER 7 3 2 SERVI OS OFERECIDOS PELOS SADS removido No caso em que s o permitidos m ltiplos pais essa tarefa n o t o f cil pois os arquivos ou subdiret rios ainda podem estar sendo referenciados por outros diret rios ou recursos Para resolver esse problema colocado um contador de refer ncias para arquivos e diret rios que se chegar a zero significa que o arquivo ou diret rio n o possui nenhum outro recurso como hard links subdiret rios etc apontando para ele podendo ent o ser removido Note que geralmente os links simb licos n o influenciam nesse contador Exemplif
263. de comunica o ou mais especificamente de comuta o r pida de pacotes que suporta taxas de transfer ncia de dados com varia o de velocidades sub T1 menos de 1 544 Mbps at 10 Gbps Como outros ser vi os de comuta o de pacotes Frame Relay SMDS ATM atinge as suas altas velocidades em parte pela transmiss o de dados em c lulas de tamanho fixo e dispensando protocolos de corre o de erros 6 7 3 FDDI O padr o FDDI Fiber Distributed Data Interface foi estabelecido pelo ANSI American National Standards Institute em 1987 Este abrange o n vel f sico e de liga o de dados as primeiras duas camadas do modelo OSI A expans o de redes de mbito mais alargado designadamente redes do tipo MAN Metropolitan Area Network s o algumas das possibilidades do FDDI tal como pode servir de base interliga o de redes locais como nas redes de campus As redes FDDI adotam uma tecnologia de transmiss o id ntica s das redes To ken Ring mas utilizando comumente cabos de fibra ptica o que lhes concede capacidades de transmiss o muito elevadas na casa dos 100 Mbps ou mais e a oportunidade de se alargarem a dist ncias de at 100 Km Estas particularidades tornam esse padr o bastante indicado para a interliga o de redes atrav s de um backbone Nesse caso o backbone deste tipo de redes justamente o cabo de fibra ptica duplo com configura o em anel FDDI ao qual VERSAO 0 6 P GINA 114
264. de da Informa o e a Inova o Tecnol gica Para a inser o neste novo cen rio mundial da economia voltada informa o e tecnologia cada pa s desenvolveu estrat gias que levou em considera o o seu VERSAO 0 6 P GINA 5 GUIA CLUSTER 2 1 1 A SOCIEDADE DA INFORMA O E A INOVA O TECNOL GICA grau de desenvolvimento tecnol gico conjugado com as suas peculiaridades No Brasil o marco inicial desse processo foi a cria o do programa Sociedade da Informa o por meio do Decreto n 3 294 de 15 de dezembro de 1999 com o objetivo de viabilizar a nova gera o da Internet e suas aplica es em benef cio da Sociedade Brasileira estruturado em sete linhas de a o e Mercado trabalho e oportunidades e Universaliza o de servi os para a cidadania e Educa o na sociedade da informa o e Conte dos e identidade cultural e Governo ao alcance de todos e P amp D tecnologias chave e aplica es e Infra estrutura avan ada e novos servi os Esse programa busca contribuir de forma efetiva para e a constru o de uma sociedade mais justa em que sejam observados princ pios e metas relativos preserva o de nossa identidade cultural fundada na riqueza da diversidade e a sustentabilidade de um padr o de desenvolvimento que respeite as dife ren as e busque o equil brio regional e a efetiva participa o social sustent culo da democracia pol tica Com tal esfor
265. de dos processadores determinante para o desempenho das comuni ca es indispens vel para o programador ter conhecimento das caracter sticas da rede de interconex es utilizada na arquitetura Este comprometimento do c digo com as caracter sticas do equipamento trazem repercuss es nos custos de migra o de software entre diferentes arquiteturas Por sua vez o ambiente de execu o se responsabiliza pelo gerenciamento das comunica es e das sincroniza es entre as tarefas paralelas Exemplo de Explora o do Paralelismo Um modelo que trabalha neste n vel de abstra o o Linda CARRIERO 106 Neste conhecido modelo as comunica es ponto a ponto s o substitu das por um espa o compartilhado no qual os dados s o colocados pelos processadores VERSAO 0 6 P GINA 268 GUIA CLUSTER 11 3 4 MODELOS COM ASSINALAMENTO DECOMPOSI O E MAPEAMENTO DO PARALELISMO EXPL CITOS e a partir do qual s o recuperados associativamente Este espa o denominado espa o de tuplas As tr s opera es b sicas do modelo de comunica es utilizado pelo Linda s o uma que l o espa o de tuplas buscando aquelas que satisfazem os campos infor mados e a correspondente aridade uma segunda que faz a leitura por m remove a tupla que sastisfaz a condi o do espa o de tuplas e uma terceira que coloca uma tupla no espa o de tuplas As opera es de comunica o em Linda desconectam o emissor do receptor
266. de fluxo Para prover o controle de fluxo as redes MPP reconhecem cada unidade de fluxo de controle que tipicamente um byte InfiniBand InfiniBand uma arquitetura que define um barramento de computador serial de alta velocidade projetado tanto para conex es internas quanto externas Ele o resultado da combina o de duas tecnologias concorrentes Future I O desen volvida pela Compaq IBM e Hewlett Packard com a Next Generation I O ngio desenvolvido por Intel Microsoft Dell Hitachi Siemens e Sun Microsystems Em agosto de 1999 os sete l deres da ind stria Compag Dell Hewlett Packard IBM Intel Microsoft e Sun Microsystems formaram a IBTA InfiniBand Trade As sociation A primeira especifica o da arquitetura InfiniBand foi feita em junho de 2001 A arquitetura InfiniBand surgiu devido necessidade de se melhorar o desem penho dos dispositivos de E S e das comunica es que surgiu juntamente com o aumento da capacidade de processamento dos processadores InfiniBand uma arquitetura ponto a ponto que se destina a fornecer aos cen tros de dados uma conectividade para entradas sa das melhoradas e adaptadas a qualquer tipo de tr fego Uma conex o InfiniBand substituir os v rios cabos atuais e servir simultaneamente para a conectividade do cluster propriet ria da rede em vez do Gigabit Ethernet e do armazenamento em vez da atual Fibre Channel uma tecnologia comutada que utiliza tr s tipos d
267. do hipercubo N o n mero de processadores A largura da bisse o por sua vez somente 1 o que pode introduzir um severo gargalo quando processadores de uma metade da rvore precisarem se comunicar com os da outra metade A solu o para pequen ssima largura da bisse o da rvore utilizar uma vari ante denominada rvore larga Em uma rvore larga vide figura 6 9 a largura dos ramos canal cresce a medida em que se sobe das folhas em dire o raiz a rvore b rvore larga Figura 6 9 Topologia em rvore A largura da bisse o da rvore larga plena N e o seu di metro proporcional a VERSAO 0 6 P GINA 108 GUIA CLUSTER 6 6 4 DISPOSITIVOS DE INTERCONEX O 2 logN A arquitetura da CM 5 da Thinking Machines utiliza uma vers o modifi cada da rvore larga 6 6 4 Dispositivos de interconex o J est o dispon veis comercialmente dispositivos de interconex o que propiciam a cria o de ambientes similares a multicomputadores ou multiprocessadores utilizando computadores convencionais Existem atualmente duas grandes classes de dispositivos de interconex o para alto desempenho Uma primeira classe formada por dispositivos cuja solu o baseada em programa o por troca de mensagens entre processadores no n vel de placa de rede esta solu o permite a cria o de multicomputadores Exemplos de equipamentos desta classe s o Myrinet Gigabyte System Netwo
268. do mundo que gerada a cada 6 seis meses essa lista mantida por causa dos interesses tanto de pesquisadores como de vendedores de sistemas mas principalmente para os usu rios e futuros usu rios de sistemas de alta performance A lista classificada pela performance computacional do sistema realizada pelo benchmark LINPACK VERSAO 0 6 P GINA 29 GUIA CLUSTER 2 4 1 COMPUTA O DE GRANDE PORTE A distin o entre supercomputadores e mainframes n o clara e direta mas ge nericamente s o diferenciados pelas tarefas submetidas os supercomputadores s o utilizados na solu o de problemas em que o tempo de c lculo um limite processamento enquando os mainframes s o utilizados em tarefas que exigem alta disponibilidade e envolvem alta taxa de transfer ncia de dados internos ou externos ao sistema Wikipedia 356 A Figura 2 1 representa o problema de escalabilidade e dimensionamento decor rente da utiliza o da computa o de grande porte A rea mais escura em azul reflete uma poss vel evolu o da carga de processamento em um per odo de tempo Carga Figura 2 1 Evolu o da carga de processamento e a utiliza o da computa o de grande porte ZA palavra carga utilizada nesta se o para representar o uso de recurso computacional seja de processamento rede e armazenamento VERSAO 0 6 P GINA 30 GUIA CLUSTER 2 4 2 COMPUTA O DISTRIBU DA Inicialmente para r
269. do para lelismo com restri o de comunica es e sincroniza o Exemplo de Explora o do Paralelismo Um modelo que explora o paralelismo neste n vel o BSP Bulk Synchronous Pa rallelism model SKILLICORN 330 VALIANTE 369 As computa es em BSP s o divididas em fases alternando comunica es globais e computa es locais Cada fase inicia com a ativa o das opera es de comunica o O processamento nas tarefas paralelas ocorre utilizando somente refer ncias a dados locais En quanto isto de forma independente a rede de interconex es realiza as trocas de dados necess rias entre os processadores Ao final de cada fase chamadas de superstep todas as comunica es s o entendidas como prontas para garantir isto utilizada uma barreira de sincroniza o e todas as atribui es feitas mem ria global que dizem respeito tarefa paralela do processador s o reproduzidas lo calmente Do ponto de vista do programador as solicita es de dados mem ria global remota ser o feitas pelo BSP no superstep anterior quele no qual eles ser o utilizados Uma caracter stica que se destaca no BSP o fato do mesmo expressar as pro priedades da rede de interconex o utilizada na arquitetura paralela a partir de uns poucos par metros A m quina abstrata do BSP consiste de uma cole o de VERSAO 0 6 P GINA 266 GUIA CLUSTER 11 3 3 MODELOS COM ASSINALAMENTO E DECOMPOSI O DO PARALELISMO EXP
270. do servi o Por m isso vem mudando A seguir realizamos uma resenha de alguns SADs que t m foco em desempenho deixando um pouco de lado praticidade ou seguran a sendo muito usados por aplica es paralelas 7 4 1 Parallel Virtual Filesystem Version 1 PVFS Projeto Parallel Virtual Filesystem Version 1 S tio Oficial http www parl clemson edu pvfs Licen a GPL LGPL Respons vel eis Argonne National Laboratory e Clemson University Atualmente os aglomerados de PCs t m se tornado cada vez mais populares para aplica es paralelas Com isso a demanda por software para esse tipo de plata forma tem crescido muito Hoje em dia encontra se todo tipo de software para o ambiente de computa o paralela como sistemas operacionais confi veis siste mas de armazenamento de dados local e sistemas de envio de mensagens O Parallel Virtual File System 105 209 se encaixa na rea de sistemas de arqui vos paralelo pois um sistema de arquivos distribu do desenvolvido para prover alto desempenho e escalabilidade paralela para aglomerados de PCs linux Em geral o PVFS promete 4 caracter sticas e Um espa o de nomes consistente para todo o aglomerado e Acesso transparente para programas e aplica es j existentes sem a neces sidade de recompil los VERSAO 0 6 P GINA 161 GUIA CLUSTER 7 4 1 PARALLEL VIRTUAL FILESYSTEM VERSION 1 PVFS e Distribui o f sica de dados em m ltiplos discos e
271. dos arquivos que possuem r plicas inconsistentes s o os pr prios clientes Essa replica o aumenta a disponibilidade dos arquivos o que aumenta a segu ran a para os clientes encontrarem o que procuram e guardarem os dados que possuem Por exemplo se um computador port til perder todos seus dados a chance de recuper los com a replica o maior Al m disso o espa o em disco nos servidores tende a ser maior que nos clientes facilitando ainda mais o uso dessa caracter stica Controle de Consist ncia O CODA tenta prover ao m ximo as opera es desconectadas Para isso ele per mite que os clientes possam ler e escrever seus arquivos de forma indiscriminada a partir de qualquer servidor da rede que possua os dados que ele precise mesmo que a rede seja particionada devido queda de algum servidor ou conex o en tre eles Isso pode gerar perda de informa o e acesso a dados inconsistentes quando por exemplo dois usu rios alteram o mesmo arquivo em parti es dife rentes Opera es Off Line A parte mais interessante do CODA a possibilidade de acessar um sistema de arquivos distribu do estando completamente desconectado da rede Se um ar quivo est armazenado localmente na m quina o usu rio pode ler e escrever no arquivo sem a pr via permiss o do servidor Isso s poss vel gra as a um software chamado venus que o respons vel pelo sistema de arquivos do lado do cliente Ele possu
272. dware especializado storage externo ou com dis positivo de bloco como DRBD que pode ser usado para a replica o do banco Combinado com alguma ferramenta de monitoramento Heartbeat ou Keepali ved pode se conseguir redund ncia para o servidor de armazenamento com o uso de hardware n o especializado Nativamente n o h suporte a balancemento de cargo no Zope sendo necess rio o uso de ferramentas externas V rios m todos podem ser utilizados para distri buir as requisi es dos clientes entre os servidores ZOE como DNS round robin o m dulo mod proxy do servidor http Apache ou switch de camada 4 sendo o LVS o mais conhecido deles Uma solu o para o caso de servidores de p ginas est ticas usar DNS round robin para distribuir as requisi es recebidas por uma URL entre v rios IP s de uma rede interna sendo cada nova requisi o enviada para um servidor dife VERSAO 0 6 P GINA 192 GUIA CLUSTER 8 4 ZOPE CLUSTER rente da anterior Sendo id ntico o contetido de todos os servidores esse pro cesso transparente para o usu rio Contudo esta uma solu o atraente por sua simplicidade entretanto apresenta seus reveses Por exemplo arquivos gran des carregaram mais um servidor que esteja atendendo sua requisi o gerando eventualmente mais carga para alguns servidores que para outros Outro pro blema que o servidor DNS do cliente pode fazer cache do endere o IP acessado e usar este mesmo
273. e utilizado torna se necess rio realizar a troca do equipamento em opera o por um modelo de capacidade maior Geralmente os custos para a troca de modelo de equipa mento por um de maior capacidade s o elevados Depend ncia tecnol gica e de fornecedor devido utiliza o de hardware altamente especializado no modelo da computa o de grande porte os quais somente a empresa que comercializa o equipamento ou o software capaz de prestar suporte realizar manuten o ou a venda de novos compo nentes Isso leva ao controle do pre o do mercado e enfraquece as rela es de negocia o entre governo e empresas para a obten o da melhor solu o pelo menor custo poss vel influenciada pela menor competi o entre empresas no mercado VERSAO 0 6 P GINA 22 GUIA CLUSTER 2 3 AS NOVAS DEMANDAS COMPUTACIONAIS e Sistemas e hardwares heterog neos existe no governo um parque computa cional extremamente heterog neo Encontram se em uso hardwares e softwa res dos mais variados fornecedores muitas vezes incompativeis entre si devido ao emprego de padr es fechados ou arquiteturas propriet rias e Dificuldade de integra o e interoperabilidade entre os sistemas devido abund ncia de padr es propriet rios segmentados e divergentes conju gados com a falta de padr es abertos transversais A Administra o P blica obrigada a construir ou adquirir brokers que funcionam como pon tes entre tecnol
274. e Esta op o considera uma avalia o do comportamento do sistema com rela o ocorr ncia e ativa o de falhas Esta abordagem pr ativa pode subsi diar as modifica es para melhorias tanto estruturais como para melhor efici n cia efic cia dos sistemas 6 2 3 Atributos Os atributos de dependabilidade t m naturezas n o determin sticas das circuns t ncias dos atributos que s o Disponibilidade Confian a Seguran a Confiden ciabilidade Integridade Reparabilidade Esses atributos usam medidas probabi l sticas para gerar seus pesos relativos Esses pesos s o medidos dependendo da aplica o servi o considerado assim estes pesos variam sempre n o existindo um padr o 136 e Disponibilidade Disponibilidade instant nea o atributo definido como a probabilidade de um sistema apresentar um servi o correto num determinado instante de tempo t Na analise de disponibilidade estamos interessados no comporta mento de um sistema ao de determinados per odos de tempo ou seja esta mos preocupados em observar a altern ncia de per odos de funcionamento correto e per odos que o sistema est de reparo O fator importante saber VERSAO 0 6 P GINA 96 GUIA CLUSTER 6 3 ESCALONAMENTO a fra o de tempo na qual o sistema dever ter condi es de apresentar o servi o de forma correta e Confiabilidade a m trica que avalia o quanto um sistema pode apresentar um servi o correto contin
275. e fornecer uma plataforma muito mais barata para execu o de aplica es distribu das que os supercomputadores paralelos O segundo era possibilitar atrav s da aglomera o de recursos dispersos a execu o de aplica es paralelas em uma escala simplesmente impos s vel em um nico supercomputador Com a evolu o da tecnologia de grids percebeu se que a composi o autom tica de um conjunto de recursos para servir uma aplica o criava a oportunidade de oferecer servi os sob demanda Assim surgiu a id ia de um Grid onde seja poss vel prover sob demanda qualquer servi o computacional n o somente ser vi os para computa o de alto desempenho Como consegii ncia as tecnologias de Grids Computacionais se fundiram com Web Services e se posicionaram como uma tecnologia fundamental para computa o no s culo XXI O texto a seguir descreve a evolu o dos Grids Computacionais cobrindo as principais tecnologias existentes e apresentando os aspectos importantes para cria o de Grids de Servi os gen ricos bem como caracter sti cas espec ficas de Grids para alto desempenho VERSAO 0 6 P GINA 277 GUIA CLUSTER 13 1 INTRODU O 13 1 Introdu o Grids Computacionais s o atualmente uma das reas mais quentes da Com puta o O que come ou em universidades e institutos de pesquisa ganhou o mundo empresarial e hoje faz parte da estrat gia de corpora es como IBM HP Sun NEC Microsoft e Oracle Em
276. e 1985 at meados de 1989 O AFS 2 245 trouxe o conceito de callback que permite ao cliente abrir e fe char um arquivo v rias vezes sem precisar acessar o servidor Quando um cliente recebe um arquivo do servidor ele tamb m recebe um callback que uma promessa de que ele est com a vers o mais recente do arquivo que pode ser quebrado ou quando um cliente atualiza um arquivo ou quando o servidor recebe uma nova vers o desse arquivo de um outro cliente A c pia local pode ser utilizada quantas vezes se desejar contanto que o cliente possua um callback v lido O problema de escalabilidade foi amenizado ao se passar grande parte do trabalho dos servidores para os clientes todas as opera es de leitura e escrita s o realizadas na c pia local do arquivo Somente quando o arquivo alterado fechado ele ent o transferido de volta para o servidor Uma consequ ncia desta t cnica que o AFS utiliza sem ntica de sess o e n o a sem ntica UNIX de acesso concorrente a arquivos Assim um cliente s VERSAO 0 6 P GINA 153 GUIA CLUSTER 7 3 5 ANDREW FILE SYSTEM AFS perceber a altera o de um arquivo feita por um outro cliente quando ele abrir o arquivo depois que o outro j o tiver fechado Como v rios usu rios passaram a depender do sistema percebeu se a im port ncia da disponibilidade dos dados j que a queda de um servidor provocava interrup o dos trabalhos por v rios minutos Assim em 1
277. e Oficial pgeluster BSD 13 http pgcluster projects postgresql org index html slony l BSD 115 http gborg postgresql org project slonyl projdisplay php pgpool BSD 3 1 1 http pgpool projects postgresql org pgpool Il BSD 1 0 1 http pgpool projects postgresql org pgpool II en sequoia Apache Li 2 10 http sequoia continuent org HomePage cense 2 pargres GPL http pargres nacad ufrj br Alta Disponibilidade Balanceamento de Carga Heartbet GPL 2 0 7 http www linux ha org Carp BSD http www openbsd org faq pf pt carp html LVS GPL 1 2 1 http www linuxvirtualserver org Keepalive GPL 1 1 12 http www keepalived org Cluster de Aplica es Cluster ZPL 3 1 http zope delta ncsu edu portal delta ZOPE developers projects system_projects zope_ cluster Cluster Apache Li 5 0 http jakarta apache org Tomcat cense 2 cluster Apache Li 2 0 http httpd apache org Apache cense 2 Ferramentas de Gerenciamento de Cluster ganglia BSD 3 0 http ganglia sourceforge net Etherboot GPL v2 http etherboot sourceforge net Tabela D 1 Tabela de refer ncias de tecnologias VERSAO 0 6 PAGINA 373 VERSAO 0 6 PAGINA 374 GUIA CLUSTER CAP TULO E GLOSS RIO Ap ndice E Gloss rio API Application Program ming Interface APF Administra o P blica Federal Ass ncrona VERSAO 0 6 Bandwidth largura de O m todo espec fico recomendado por um sistema ope racional de com
278. e RAIDb 2ec que adicionam verifica o de erros aos n veis RAIDb 1 e RAIDb 2 respectivamente RAIDb 0 Com este n vel de RAIDb pode se particionar o banco de dados dis tribuindo suas tabelas entre os backends m quina que hospeda o banco Uma tabela em si n o pode ser particionada mas tabelas diferentes podem estar em diferentes n s Esta configura o requer no m nimo dois backends provendo escalabilidade de performance mas sem toler ncia a falhas A figura 9 5 mostra um exemplo de configura o RAIDb 0 table 1 table 2 amp 3 tabie table n 1 table n Figura 9 5 Exemplo de RAIDb 0 RAIDb 1 RAIDb 1 oferece espelhamento completo com replica o total dos bancos de dados nos backends Este modelo de configura o o apresenta me lhor toler ncia a falhas j que o sistema ainda estar dispon vel se apenas um n estiver ativo A desvantagem que n o h melhoria nos processos de escrita em banco UPDATE INSERT DELETE j que todos estes tipos de requisi es ser o VERSAO 0 6 P GINA 219 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA enviadas para todos os n s Para assegurar integridade RAIDb 1ec realiza veri fica o de erros ao RAIDb 1 objetivando detec o de erros bizarros Requerendo ao menos 3 n s esta configura o envia as requisi es de escrita para maioria dos n s que comp em o cluster e as resposta s o comparadas Se h consenso nas respostas elas s o enviadas aos clientes
279. e a 89 61 5 COMUMA caspa des dE ede EH ritare ENED dg RS 90 6 1 6 Processadores Massivamente Paralelos MPP 90 VERSAO 0 6 P GINA XVI GUIA CLUSTER SUMARIO 6 2 6 3 6 4 6 5 6 6 6 7 VERSAO 0 6 6 1 7 Sistemas Distribu dos lt 2 lt s2 dae caw iaw dens ees 91 GLS Clusters oo spa res Oe eae ww HS 92 EO eme e e ee oh Ses ee ee Hee te De 92 Dependabilidade ss asd oh OR od Ke eR ASR ER ETA oO ee OWS 93 6 2 1 AmMmeagas 6 i ao ke ed ek AE da ER wR Ee BE OS 94 6 22 MEDO sg eu dee baw e bed Sod Sad E DEE we OS 94 629 MOSS serra reer OOO OOO NR 96 PIO sx be oe HOR RS HERES HERES HESS 97 Alta Disponibilidade gt o s o ssa ee HORE EE ta 100 Balanceamento de Carta o o s co coea dae do aa ee Ome HS 101 Rede de Comunica es errar nha ERERH RED SS 102 6 6 1 A Import ncia da Rede de Comunica o 102 6 6 2 Redes de Interconex o Utilizadas em Arquiteturas Paralelas 103 66 3 Topologias da Rede de Interconexdo o o 105 6 6 4 Dispositivos de interconex o o oo 109 Protocolos de Comunica o srs 6 8 Hk he EOE HEE AA 113 67 1 FrameRelay rever PESE driks eH 113 6 7 2 Asynchronous Transfer Mode a 4 9 4644 ees 114 Cee Set bee ee eee eee Reo eee E a E 114 PAGINA XVII GUIA CLUSTER SUMARIO 6 7 4 6 73 6 7 6 6 7 7 6 7 8 6 7 9 Modelo OSE 6 Ce Aes Cee Dae Sew E ado ES PROMO eo eo oH HOH EOG HOH ESS ES Transmission Control Protocol User Datagr
280. e comuta o Scalable Coherent Interface SCI SCI um padr o recente de comunica o utilizado na interliga o de componen tes de um cluster A abordagem cria um sistema de compartilhamento de mem ria global atrav s de um sistema de coer ncia de cache baseado em diret rios distribu dos 6 7 Protocolos de Comunica o 6 7 1 Frame Relay O Frame Relay uma eficiente tecnologia de comunica o de dados usada para transmitir de maneira r pida e barata a informa o digital atrav s de uma rede de dados dividindo essas informa es em frames quadros ou packets pacotes a um ou muitos destinos de um ou muitos end points Em 2006 a Internet baseada em ATM e IP nativo come aram lentamente a impelir o desuso do frame relay VERSAO 0 6 P GINA 113 GUIA CLUSTER 6 7 2 ASYNCHRONOUS TRANSFER MODE 6 7 2 Asynchronous Transfer Mode ATM um protocolo de redes de computadores para comunica o de alto n vel que encapsula os dados em pacotes de tamanho fixo 53 bytes 48 bytes de dados e 5 de cabe alho em oposi o aos de tamanho vari vel comuns nas redes de comuta o de pacotes como os protocolos IP e Ethernet No ATM esses pacotes s o denominados c lulas O protocolo VPI Virtual Path Identifier que utili zado neste tipo de tecnologia de rede possui 8 bits na interface UNI e 12 bits na interface NNI A tecnologia ATM permite a transmiss o de dados voz e v deo O ATM uma tecnologia
281. e de falhas Isso portanto acarretar um n vel alto de desperd cio de recursos Apesar da estrat gia majority voting ter a vantagem de ser bastante simples de implementar ela n o tolera situa es onde o n mero de resultados inv lidos muito alto Desta forma outras abordagens s o propostas Uma forma de contor nar a limita o do majority voting usar a pol tica denominada spot checking 322 Nesse esquema os volunt rios s o verificados de forma aleat ria atrav s da soli cita o de execu o de um benchmark A inten o verificar se poss vel confiar nos resultados gerados por este volunt rio Caso o benchmark detecte alguma falha na computa o efetuada ou seja os resultados retornados pelo volunt rio n o conferem com o resultado esperado do teste os resultados anteriores retorna dos por este volunt rio s o descartados e colocados na lista de trabalho pendente VERSAO 0 6 P GINA 325 GUIA CLUSTER 13 4 ESTUDOS DE CASO Uma vez que spot checking baseada na verifica o aleat ria da confiabilidade dos volunt rios Assim ao detectar que um volunt rio n o confi vel todos os resultados anteriores deste volunt rio s o descartados e o trabalho reenvi ado a outros volunt rios Nesse estrat gia h uma menor repeti o de traba lho quando comparamos estrat gia majority voting Existem duas varia es da estrat gia spot checking i spot checking with blacklist ii spot che
282. e deixar isso transparente para o usu rio Cache Para melhorar o desempenho no acesso aos arquivos de um sistema procura se guardar informa es muito acessadas em mem ria para evitar a sobrecarga de se ter que obt las novamente do meio f sico onde est o armazenadas Isso ajuda muito na economia de tempo de processamento pois para acessar da dos remotos por exemplo o sistema est limitado velocidade da rede que mesmo r pida estar limitada velocidade do meio f sico de armazenamento do servidor remoto pois este ainda precisaria procurar os dados carreg los na mem ria e envi los para o cliente Mesmo no acesso a dados locais a velocidade de acesso mem ria muito maior que a velocidade de acesso ao meio de armazenamento por exemplo um disco r gido que precisaria mover o bra o de leitura at a trilha em que se encontram VERSAO 0 6 P GINA 133 GUIA CLUSTER 7 3 1 CONCEITOS BASICOS os dados e esperar at que a rota o do disco traga os a cabe a de leitura Em sistemas de arquivos distribu dos pode se ter caches tanto no cliente como no servidor evitando assim que o cliente acesse muito a rede para obter os dados do servidor enquanto que o servidor diminui o acesso ao meio f sico de armaze namento dos dados para envi los ao cliente O uso de cache uma boa solu o para o problema de desempenho no acesso aos arquivos por m existem problemas como o de sincroniza o do
283. e dispositivos comu tadores interfaces HCA Host Channel Adapter que s o os conectores usados VERSAO 0 6 P GINA 111 GUIA CLUSTER 6 6 4 DISPOSITIVOS DE INTERCONEX O na comunica o interprocessadores do lado dos servidores e nas interfaces TCA Target Channel Adapter que s o tipicamente usadas para conex o nos subsis temas de E S A tecnologia InfiniBand utiliza uma estrutura hier rquica com comunica o do tipo ponto a ponto Nessa abordagem todo n pode ser o iniciador de um canal para qualquer outro Ainda poss vel que v rios dispositivos de E S pe am dados simultaneamente ao processador As duas principais vantagens do InfiniBand s o a baixa lat ncia e alta largura de banda A baixa lat ncia beneficia principalmente as aplica es sens veis lat n cia com comunica o entre processos IPC e sistemas gerenciadores de bancos de dados DMBS A alta largura de banda beneficia principalmente as aplica es que necessitam grande largura de banda como armazenamento web compu ta o de alto desempenho e outras aplica es especializadas como edi o de v deo Devido a suas caracter sticas InfiniBand uma tecnologia adequada para aplica es de HPC High Performance Computing Enquanto InfiniBand prov muitas caracter sticas avan adas que servem para um grande leque de aplica es con tudo esta tecnologia ainda um padr o em evolu o e que deve sofre muitas melhorias Al
284. e estar se tornando coisa do passado No futuro se pretende ter um Sistema Operacional que n o dependa exclusivamente do hardware e de sua localiza o geogr fica O Xen nasceu do projeto NetOS Networks and Operating Systems criado pelo Computer Laboratory s Systems Research Group e pretende como o pr prio nome do projeto pai sugere criar uma camada de abstra o onde o Sistema Ope racional navegue nos recursos dos servidores por uma rede TCP IP VERSAO 0 6 P GINA 349 GUIA CLUSTER 14 2 1 COMPARA O Trazendo estes conceitos para o nosso presente imagine o seguinte cen rio po deremos estar acessando um bit de uma determinada aplica o em um dado mo mento do tempo rodando em um servidor f sico no Brasil e em outro momento este mesmo bit estar localizado em outro continente sem que ao menos o usu rio que acessa este bit perceba a mudan a geogr fica do Sistema Operacional Aliando se sistemas de balanceamento de carga alta disponibilidade consolida o de recursos computacionais e sistemas de arquivos em cluster esta tarefa pa rece estar se materializando Neste horizonte o que torna o Xen a aposta correta o fato dele j cumprir com grande parte das tarefas projetadas 14 2 1 Compara o Ao contr rio do VMWare o Xen executado diretamente sobre o hardware no ring 0 e possui uma m quina virtual chamada de Dom0 Essa m quina tem acesso privilegiado ao hypervisor permitindo a ela
285. e independ ncia tecnol gica do Estado Brasileiro Existe uma mudan a de paradigma entre as tecnologias de computa o distri bu da e de computa o de grande porte Na computa o distribu da o impor tante n o a capacidade de processamento de um nico equipamento mas sim a capacidade de processamento coletiva de um conjunto de equipamentos Nesta abordagem v rios equipamentos com pouca capacidade podem formar um ambiente com grande capacidade de processamento e caso ocorra a falha de um equipamento o outro assumir a sua fun o sem preju zo para a execu o do sistema Desta forma elimina se a necessidade de equipamentos com hardware espec fico tolerante a falhas e com redund ncia Com isto utilizando se hardware padr o x86 pc e a n o necessidade de redun d ncias e dispositivos especiais no hardware poss vel construir sistemas com hardware de baixo custo compat vel com padr es abertos e internacionais redu zindo a depend ncia de fornecedores Com a utiliza o de solu es baseadas em software livre poss vel ainda eliminar a depend ncia tecnol gica e estimular o desenvolvimento de solu es pelos centros de pesquisa universidades rg os de governo e empresas privadas devido as caracter sticas de licenciamento do soft ware livre que permitem utilizar o software para qualquer fim livre distribui o liberdade de alterar o software e redistribuir a vers o alterada 2 1 1 A Socieda
286. e para diminuir o tr fego dos dados e a carga dos servidores VERSAO 0 6 P GINA 154 GUIA CLUSTER 7 3 5 ANDREW FILE SYSTEM AFS 3 Explorar os tipos de acesso aos arquivos Por exemplo manter arquivos tempor rios na m quina local replicar em diversos servidores arquivos execut veis que s o muito usados e raramente alterados etc 4 Replicar servi os e informa es sempre que poss vel evitando limitar a es calabilidade de todo o sistema capacidade dessa m quina central 5 Confiar no menor n mero poss vel de entidades seguran a 6 Agrupar o trabalho sempre que poss vel Por exemplo realizar uma leitura de 50 KB muito mais eficiente que realizar 50 leituras de 1 KB Caracter sticas do AFS O espa o de nomes do AFS dividido em duas partes os locais que consistem dos arquivos cacheados tempor rios e daqueles necess rios para a inicializa o da m quina os remotos que s o aqueles que podem ser encontrados a partir de qualquer cliente conectado na mesma rede Ao contr rio do NFS no AFS toda informa o sobre os nomes dos arquivos e di ret rios armazenada nos servidores Deste modo a manuten o dos clientes trivial e a uniformidade do espa o de nomes uma consequ ncia natural da con figura o dos servidores Quando um cliente precisa acessar um arquivo remoto ele pergunta a todos os servidores por sua localiza o que ent o guardada em cache local para futura
287. e porte a utiliza o deste tipo de infra estrutura para melhorar utiliza o do espa o f sico e facilidade de manuten o para pequenos ambientes ser um gasto desnecess rio Na especifica o do hardware dos n s certamente n o precisar de coisas como placas de som aceleradoras 3D mouses teclados e monitores Uma id ia criativa montar em um carrinho um monitor teclado e mouse que possam circular VERSAO 0 6 P GINA 65 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO pelo ambiente para fazer a checagem de m quinas individuais quando proble mas surgirem Se estiver comprando equipamento minimizar o hardware pode baixar seu custo total de forma a permitir comprar mais m quinas Mas existe um limite esta minimiza o das especifica es de hardware cer tamente uma placa de v deo ser necess ria no caso de que se precise dar ma nuten o em alguma m quina assim como um CD Rom pode fazer falta para a instala o de softwares e do sistema operacional Portanto ter esses equipamen tos ou possibilidades de solu o para esses problemas de extrema import ncia para o ambiente n o pode ser obrigat ria a necessidade de se abrir m quinas para adicionar uma placa de v deo ou cd rom para poder resolver qualquer tipo de problema e o custo envolvido n o t o grande para se evitar a utiliza o destes equipamentos Isole seu cluster N o existe nenhuma raz o para todos os n s do clu
288. e resumo das cinco gera es de computa o distribu da VERSAO 0 6 P GINA 42 GUIA CLUSTER 3 3 POSSIBILIDADES DE APLICACOES PRATICAS DE CLUSTER E GRID 3 3 Possibilidades de aplica es pr ticas de Cluster e Grid Ado o de tecnologias em Cluster e Grid muitas vezes poder impactar nas re la es entre as pessoas usu rias ou desenvolvedores de tecnologias e os sis temas computacionais da mesma forma que qualquer outra mudan a tecnol gica Os gestores juntamente com os t cnicos dever o definir qual tecnologia ser adotada quando e sobre qual metodologia procedimento atrav s de uma an lise pr via dos poss veis benef cios obtidos com a mudan a tecnol gica e os riscos impactos envolvidos O Governo Brasileiro possui v rias aplica es e demandas computacionais dis tintas Entretanto existem necessidades ou caracter sticas que s o comuns a to das as aplica es e Alta Disponibilidade a indisponibilidade de alguma aplica o de governo acarretar desde uma interrup o na execu o das atividades internas at mesmo uma impossibilidade de servi os prestados aos cidad os Por este motivo uma demanda transversal e comum dos sistemas e aplica es de governo que eles possuam algum tipo de sistema de alta disponibilidade e toler ncia falhas Na computa o de grande porte tais sistemas s o im plementados em hardware altamente especializado e Seguran a a demanda de seguran a
289. e se rem utilizados em ambientes de Cluster Neste cap tulo ser o apresentados os mais conhecidos 7 2 1 Arranjo Redundante de Discos RAID O Arranjo redundante de discos Redundant Array of Independent Disks RAID um sistema que usa m ltiplos discos r gidos para compartilhar ou re plicar dados entre esses discos Dependendo da vers o escolhida o benef cio do RAID um ou mais vezes o incremento da integridade de dados de toler ncia falhas de desempenho ou de aumento de capacidade de armazenamento de dados comparado com um simples disco Em suas implementa es originais sua vantagem chave era a habilidade de com binar m ltiplos dispositivos de baixo custo usando uma tecnologia mais antiga em uma disposi o que oferecesse uma grande capacidade de armazenamento confiabilidade velocidade ou uma combina o destas Num n vel bem mais simples RAID combina m ltiplos discos r gidos em uma nica unidade l gica Assim em vez do sistema operacional ver diversos discos r gidos diferentes ele v somente um disco r gido O RAID usado tipicamente em servidores e geral mente mas n o necessariamente implementado com discos r gidos de tama nhos id nticos Com as diminui es dos pre os de discos r gidos e com a disponibilidade em VERSAO 0 6 P GINA 121 GUIA CLUSTER 7 2 2 RAID VIA HARDWARE E VIA SOFTWARE larga escala de RAID em chipsets de placas m e RAID vem se tornando uma op o p
290. e tarefa os requisitos da tarefa e os atribu tos da m quina o Matchmaker notifica ambos Agentes A partir da os Agentes interagem diretamente para realizar a execu o da tarefa A Figura 13 23 ilustra este protocolo Matchmaker a PA csource Resourc 7 Resource Request Match Offer Notification k j a ante Resource c q Claiming ustomer e Owner Agei E Agent j Protocol Agent Figura 13 23 Condor protocol 85 Outro aspecto atraente do Condor seu mecanismo de checkpointing Uma vez que o dono normalmente especifica que sua m quina seja desocupada pela tarefa Condor assim que ele retornar a us la garantir progresso das tarefas torna se um problema n o trivial Condor aborda esta quest o fazendo o checkpoint da tarefa i e salvando transparentemente o estado de sua execu o Isto permite que a tarefa seja reexecutada em outra m quina a partir do ponto em que parou Vale salientar que o mecanismo de checkpoint do Condor implementado atrav s da substitui o da biblioteca do sistema por uma biblioteca Condor VERSAO 0 6 P GINA 344 GUIA CLUSTER 13 5 TEND NCIAS EM GRIDS COMPUTACIONAIS Condor foi posteriormente estendido para execu o em Grids 165 191 inte ressante notar que Condor disp e de duas formas de funcionamento em Grids Flock of Condors 165 e Condor G 191 Flock of Condors um trabalho que antecede Condor G Um Flock of Condors um Grid formado por v rio
291. e um Laborat rio de Inova es Tecnol gicas em Cluster e Grid para tanto foi realizada a aquisi o de 32 servidores dual processados totalizando uma capacidade de 64 processadores Xeon de 2 4Ghz 80GB de mem ria ram e 7 36TB de armazenamento em disco r gido Este laborat rio foi denominado LabCluster por conta do projeto de inova es tecnol gicas em Cluster e Grid que busca construir alternativas economicamente vi veis tecnologicamente sustent veis e inovadoras ao uso de computadores de grande porte http tamandua speed dcc ufmg br Parallel Virtual Machine M quina paralela virtual VERSAO 0 6 P GINA 385 GUIA CLUSTER F 2 MISSAO DO LABCLUSTER F2 Miss o do LabCluster A Miss o do LabCluster prover infra estrutura tecnol gica e computacional ba seada em computa o distribu da e padr es abertos de hardware e software para os Projetos internos ou em parceria com a Secretaria de Log stica e Tecnologia da Informa o O LabCluster um ambiente de testes prospec o e an lise onde s o feitas pro vas de conceito projetos piloto e n o deve ser tratado como um ambiente de pro du o Para a disponibiliza o de aplica es em produ o dever ser utilizada a infra estrutura das empresas de TI do Governo Federal tais como DATAPREV e SERPRO F3 Descri o do Ambiente LabCluster Em conson ncia com as diretrizes de Governo Eletr nico de racionaliza o de recursos e utiliza
292. eceptores dos direitos concedidos por este instrumento Voc n o tem responsabilidade de promover o cumprimento por parte de terceiros desta licen a 8 Se como resultado de uma senten a judicial ou alega o de viola o de pa tente ou por qualquer outro motivo n o restrito s quest es de patentes forem impostas a voc condi es tanto atrav s de mandado judicial con trato ou qualquer outra forma que contradigam as condi es desta Licen a voc n o estar desobrigado quanto s condi es desta Licen a Se voc n o puder atuar como distribuidor de modo a satisfazer simultaneamente suas obriga es sob esta licen a e quaisquer outras obriga es pertinentes VERSAO 0 6 P GINA 361 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL 10 ent o como conseqti ncia voc n o poder distribuir o Programa de ne nhuma forma Por exemplo se uma licen a sob uma patente n o permite a redistribui o por parte de todos aqueles que tiverem recebido c pias di reta ou indiretamente de voc sem o pagamento de royalties ent o a nica forma de cumprir tanto com esta exig ncia quanto com esta licen a ser deixar de distribuir por completo o Programa Se qualquer parte desta Cl usula for considerada inv lida ou n o execu t vel sob qualquer circunst ncia espec fica o restante da cl usula dever continuar a ser aplicado e a cl usula como um todo dever ser aplicada em outras circunst
293. ecutado voc dever fazer com que ele ao come ar a ser executado para esse uso interativo em sua forma mais simples im prima ou exiba um aviso incluindo o aviso de direitos autorais ou copyright apropriado al m de uma notifica o de que n o h garan tia ou ent o informando que voc oferece garantia e informando que os usu rios poder o redistribuir o programa de acordo com essas condi es esclarecendo ao usu rio como visualizar uma c pia desta Licen a Exce o se o Programa em si for interativo mas n o impri mir normalmente avisos como esses n o obrigat rio que a sua obra baseada no Programa imprima um aviso Essas exig ncias se aplicam obra modificada como um todo Se par tes identific veis dessa obra n o forem derivadas do Programa e pu derem ser consideradas razoavelmente como obras independentes e separadas por si pr prias nesse caso esta Licen a e seus termos n o se aplicar o a essas partes quando voc distribui las como obras se paradas Todavia quando voc distribui las como parte de um todo que constitui uma obra baseada no Programa a distribui o deste todo ter de ser realizada em conformidade com esta Licen a cujas permis s es para outros licenciados se estender o obra por completo e con sequentemente a toda e qualquer parte independentemente de quem a escreveu Portanto esta cl usula n o tem a inten o de afirmar direitos ou con testar os seus direitos
294. ede 12 01 x 2 4Ghz Pentium 256MB 01 x IDE 40GB 01 x IV 100Mbps Servidor Dell PowerEdge 1850 Quant CPU Mem ria HD Rede 08 02 x 3 6Ghz 02 GB 01 x SCSI 73GB 02 x Gigabit Tabela E1 Tabela de Hardware F5 Pol tica de Utiliza o do Ambiente LabCluster A Pol tica de Utiliza o do Ambiente LabCluster um documento criado dentro da SLTI para conduzir e propiciar uma melhor rela o de trabalho dos interessa dos com o laborat rio Ele possui os seguintes objetivos e Definir qual a miss o do LabCluster e Descrever os procedimentos de uso do ambiente LabCluster Cluster VERSAO 0 6 Definir as pol ticas e normas de utiliza o do LabCluster Especificar a Infra estrutura f sica e l gica de hardware e software do Lab P GINA 387 GUIA CLUSTER F 5 POL TICA DE UTILIZA O DO AMBIENTE LABCLUSTER e Definir as pol ticas e normas do ambiente de produ o do LabCluster Este documento pode ser obtido em http guialivre governoeletronico gov br guiaonline downloads guias politica pdf VERSAO 0 6 P GINA 388 Ap ndice G Outros Documentos Produzidos Em paralelo ao trabalho neste Guia varios outros documentos foram trabalhados pela equipe da SLII e podem ser obtidos no sitio do Guia de Cluster http guialivre governoeletronico gov br guiacluster Os documentos se situam em v rios t picos e necessidades sendo divididos da seguinte forma e Documentos intern
295. eira parte um daemon chamado pvmd3 que executado em todos os computadores que v o formar a m quina virtual paralela MORETTI 278 Esse programa roda em background em cada um dos n s formando a maquina virtual sendo respons vel pela troca de men sagens entre eles al m da coordena o das tarefas em execu o A segunda parte uma biblioteca de rotinas de interface na qual se encontra um conjunto completo de primitivas necess rias para a intera o entre as tarefas de uma aplica o As rotinas respons veis pela comunica o entre os computadores interligados ger ncia de processos coordena o das tarefas al m da verifica o e manuten o de estado da m quina virtual est o contidas nessa biblioteca Os programas paralelos que utilizam o PVM fazem uso das rotinas disponibili zadas na biblioteca de interface do PVM Para programa o essas bibliotecas s o distribu das em linguagens como Java Python Perl al m das linguagens tradi cionais como C C e Fortran Ao utilizar uma aplica o PVM o usu rio executa o pymd3 em um dos com putadores do cluster normalmente o n mestre que chama os demais processos pvmd3 escravos em cada computador que vai compor a m quina virtual atrav s de remote shell rsh coordenando assim as comunica es entre os processadores e o sistema Logo em cada n necess rio ter o pvmd3 instalado sendo que existem vers es dispon veis para v rios sistemas oper
296. ela de pagina o ou da in cio a uma opera o do acesso direto da mem ria o Sistema Operacional hospede faz chamadas na API que oferecida pelo hypervisor Isto por sua vez permite que o hypervisor mantenha o controle de todas as mu dan as feitas pelo Sistema Operacional e decida como modificar as interrup es do hardware O hypervisor mapeado no endere o de cada Sistema Operacional hospede minimizando o tempo do interrup o entre todo o hardware e o hyper visor Finalmente trabalhando cooperativamente com os Sistemas Operacionais hospedes o hypervisor ganha a introspec o adicional do Sistema Operacional e pode fazer com que ele fique ciente do fato que foi virtualizado Isto pode ser uma grande vantagem para o sistema hospedeiro por exemplo o hypervisor pode informar ao hospede em real time qual foi sua ltima atividade permitindo um re escalonamento bem mais eficiente dos sistemas hospedados VERSAO 0 6 P GINA 352 GUIA CLUSTER 14 2 4 VIRTUALIZACAO NATIVA NO XEN A paravirtualiza o disponibiliza benef cios significantes em termos de drivers de dispositivos e interfaces Essencialmente drivers de dispositivos podem ser virtualizados utilizando o modelo de paravirtualiza o e assim garantindo re cursos de baixo n vel separados por dom nios como mem ria CPU e outros re cursos Al m disso o pr prio hypervisor protegido de eventuais erros e pro blemas com os drivers dos dispositivos e ain
297. elo Director para selecionar o Servidor Real que vai tratar uma nova conex o estabelecida por um cliente VIP Virtual IP endere o IP usado pelo Director para fornecer os servi os aos clientes RIP Real IP designa os endere os IP usados pelos Servidores Reais DIP Director s IP endere o IP usado pelo Director para se comunicar com os Servidores Reais 8 1 2 Tipos de LVS Cluster Os sistemas montados com o uso de LVS s o normalmente descritos pelo tipo de m todo de redirecionamento das requisi es para os n s do cluster H tr s m todos dispon veis LVS NAT Network address translation LVS DR Direct Routing LVS TUN IP tunneling VERSAO 0 6 PAGINA 175 GUIA CLUSTER 8 1 2 TIPOS DE LVS CLUSTER Mais de um m todo pode ser usado em um tnico Director tendo por base as caracter sticas dos n s do cluster O m todo mais simples de se implementar o LVS NAT Network Address Translation LVS NAT Em uma configura o LVS NAT o Director usa a habilidade do kernel Linux de mudar o endere o IP e porta dos pacotes que passam por ele Neste m todo o Director recebe uma requisi o de um cliente e a repassa para um Servidor Real que a processa enviando o resultado de volta para o Director que ent o faz as mudan as necess rias para converter o IP dos pacotes no endere o de servidor virtual dando resposta ao cliente e passando a impress o que est tratando ape nas com
298. em ser conflitantes se n o forem bem aplicadas Por exemplo para garantir a confiabilidade necess rio implementar redund n cia dos dados por m a complexidade que isso gera pode aumentar demais a carga do servidor comprometendo a disponibilidade pois as respostas aos clien tes seriam mais lentas Outro mecanismo que auxilia a confiabilidade a transa o Ela evita que o con te do de algum arquivo fique em um estado inconsistente caso haja uma queda do servidor ou cliente durante a execu o de alguma opera o sobre o mesmo Maiores detalhes sobre transa es s o descritas na pr xima sess o Opera es At micas Uma opera o em um arquivo dita at mica quando as etapas da mesma n o podem ser percebidas por outros processos exteriores a esta opera o 349 As sim antes dessa opera o o arquivo apresenta um estado e ap s outro sem que apresente nenhum outro estado intermedi rio durante a opera o Caso alguma etapa falhe durante a opera o o arquivo volta ao estado inicial Dessa forma ou todas as etapas s o realizadas com sucesso ou nenhuma ser realizada Opera es de leitura escrita cria o ou remo o de um arquivo s o implemen tadas de forma at mica pela maioria dos sistemas de arquivos Transa es s o mecanismos que permitem realizar uma sequ ncia de opera es de forma at mica Tais mecanismos disponibilizam determinados comandos para os usu rios para que possam es
299. ema LVS uma cole o de mo difica es para kernel Linux que combinadas com as capacidades de roteamento e filtragem de pacotes de uma m quina Linux transformam se em um roteador com caracter sticas especiais capaz de balancear sess es TCP e UDP entre v rias m quinas Este roteador especial chamado Linux Director ou ainda load balan cer ou simplesmente Director distribui a carga de requisi es de servi os entre as m quinas que os prov em Com isso o sistema constitu do pela m quina Linux com o c digo IPVS e as outras m quinas que hospedam os servi os chamado Linux Virtual Server LVS vide figura 8 1 O sistema LVS n o necessita de nenhuma modifica o nos Servidores Reais que podem estar interconectados na mesma LAN ou geograficamente dispersos em uma WAN ou nos clientes este por sua vez enviam suas requisi es apenas para uma m quina Director n o importando quantos Servidores Reais estejam provendo os servi os que podem ser os comuns HTTP e HTTPS servidores de email bancos de dados CVS SSH em geral todas as aplica es TCP IP usu VERSAO 0 6 P GINA 173 GUIA CLUSTER 8 1 1 NOMENCLATURA E ABREVIACOES ciento Ee eee rere are Linux irector Figura 8 1 Esquema geral de um Linux Virtual Server fruem desse sistema O LVS prov de maneira transparente e simples um ambiente altamente esca l vel de alta disponibilidade Seu ponto nico de falha ponto cr tico o Direc to
300. emplo TCP Offload Engine TOE ajudam a reduzir este overhead De fato com a performance dispon vel nos servidores modernos uma interface de rede padr o com um driver eficiente pode superar a performance de uma placa TOE porque menos interrup es e menos transfer n cias de mem ria DMA s o necess rias As solu es iniciais de iSCSI s o baseadas em uma camada de software O Mercado iSCSI est crescendo rapidamente e deve melhorar em performance e usabilidade quanto mais organiza es implementa rem redes gigabit e 10 gigabit e fabricantes integrarem suporte ao protocolo iSCSI nos seus sistemas operacionais produtos SAN e subsistemas de armazenamento iSCSI se torna cada vez mais interessante pois as redes ethernet est o come ando a suportar velocidades maiores que o Fiber Channel Dispositivos de Armazenamento No contexto do armazenamento em computadores o iSCSI permite que um iSCSI initiator conecte a dispositivos iSCSI target remotos tais como discos e fita em uma rede do IP para I O ao nivel de bloco block level I O Do ponto da vista dos drivers de sistema operacional e de aplica es de software os dispositivos apa recem como dispositivos locais SCSI Ambientes mais complexos que consistem de m ltiplos Hosts e ou dispositivos s o chamados de rea de Armazenamento em Rede Storage Area Networks SAN Os dispositivos de iSCSI n o devem ser confundidos com os dispositivos Network Attached Storage NAS que incluem s
301. encontr los v rios possuem uma interface comum independente da implementa o para ajudar o desenvolvedor das aplica es que ir o usar tais SADs Servi o de Nomes Distribu do O servi o de nomes se preocupa em indicar a localiza o de um determinado arquivo dado o seu nome ou caminho Se a localiza o do arquivo estiver arma zenada no nome dele como por exemplo jaca tmp teste ent o esse servi o de nomes n o prov transpar ncia de localiza o Para prover essa transpar n cia o nome ou caminho de um arquivo n o deve ter ind cios de sua localiza o f sica VERSAO 0 6 P GINA 135 GUIA CLUSTER 7 3 2 SERVI OS OFERECIDOS PELOS SADS Caso esse arquivo mude de lugar ou tenha v rias c pias o seu nome ou cami nho n o precisar ser alterado para ser encontrado Para isso 0 servi o precisa oferecer ou resolu o por nomes ou resolu o por localiza o ou ambos Resolu o por nomes mapeia nomes de arquivos leg veis por humanos para nomes de arquivos compreens veis por computadores que normalmente s o n meros facilmente manipul veis pelas m quinas Por exemplo o endere o www example com mapeado para o IP 192 0 34 166 Atrav s desse conjunto de n meros poss vel encontrar uma m quina na rede Internet utilizando se de tabelas de rotas de endere os mascarados que indicam como chegar a posi o desejada Resolu o por localiza o mapeia nomes globais para uma de
302. endName EMPTY gt lt ATTLIST BackendName name CDATA REQUIRED gt Se MacroHandling omitido um padr o inserido CreateTable define a pol tica a ser adotada para cria o de tabelas novas Esta pol tica baseia se na lista de n s BackendName dada que dever ser um sub conjunto do conjunto completo de backends Se a lista for omitida todos ser o usados Os atributos possuem os seguintes significados numberOfNodes representa o n mero de backends que ser o usados da lista BackendName para aplica o da pol tica devendo ser 1 para RAIDb 0 e nunca maior que o n mero de n s declarados em BackendName policy funciona da seguinte forma random backends de numberOfNodes ser o aleatoriamente tomados de BackendName e as tabelas neles criadas roundRobin backends de numberOfNodes ser o tomados de BackendName atrav s de algoritmo de round robin e as tabelas neles ser o criadas all as tabelas ser o criadas em todos os n s de BackendName numberOfNodes ser ignorada Um exemplo de um controlador RAIDb 0 com tr s n s onde novas tabelas s o criadas aleatoriamente nos primeiros dois n s A DatabaseBackend name nodel A DatabaseBackend name node2 A DatabaseBackend name node3 VERSAO 0 6 P GINA 225 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA lt LoadBalancer gt lt RAIDb O gt lt CreateTable policy random numberOfNodes
303. ente ou alguma outra caracter stica Algumas dessas caracter sticas 192 246 s o descritas nessa sess o Disponibilidade Depender de um servi o da rede que saiu do ar por quest es de falta de ener gia el trica manuten o ou falha do hardware algo inconveniente ainda mais quando ocorre perda dos dados Dessa forma existem v rios estudos para evitar que os servi os deixem de ser oferecidos seja qual for o motivo Se um servidor cair ficar fora do ar ou da rede o sistema de arquivos n o pode perder informa es e nem ficar inacess vel total ou parcialmente Al m disso o usu rio n o precisa saber como isso foi implementado Ele simplesmente requi sita um arquivo e o sistema de arquivos deve entreg lo mesmo que algum dos servidores esteja fora do ar O arquivo n o pode ficar indispon vel e isso deve ser totalmente transparente ao usu rio Isso se chama transpar ncia a falhas muito comum sistemas ficarem indispon veis n o por falha do pr prio servi dor mas por falha na rede de comunica es Caso um cliente deseje acessar um arquivo que est em um servidor inacess vel naquele momento o sistema opera cional do cliente costuma travar o processo que o pediu at que o servidor volte a ficar acess vel Uma das solu es para se resolver esse problema a replica o dos dados ou seja o mesmo arquivo ou parte dele deve estar em diferentes servidores As sim caso algum servidor fiq
304. entes SMP Ao ter a capacidade de alocar recursos global mente e distribuir o workload dinamicamente e de forma eficiente acaba por simplificar o uso de CC s ao tirar do usu rio a responsabilidade de administrar os recursos do cluster Isso particularmente evidente em ambientes multi usu rios e time sharing al m de CC s n o uniformes 10 2 5 Kerrighed Kerrighed uma base operacional para sistemas de imagem nica Single System Image Operating System SSI OS destinado para cluster constru dos a partir de PCs padr es de mercado Um sistema operacional SSI d a ilus o de uma m quina de SMP aos programas que s o executados em cima dele Kerrighed uma extens o kernel do Linux N o obstante um cluster rodando Kerrighed n o uma m quina de SMP f sica real VERSAO 0 6 P GINA 241 GUIA CLUSTER 10 2 5 KERRIGHED As metas do Kerrighed s o alto desempenho de aplica es alta disponibilidade do cluster administra o de recursos eficiente alta customizabilidade do sistema operacional e facilidade de uso Kerrighed implementado como uma extens o a sistema operacional GNU Li nux uma cole o de m dulos e um pequeno patch para o kernel Linux As principais caracter sticas do Kerrighed s o e Escalonador customiz vel para o cluster Processos e threads s o automaticamente escalonados atrav s dos n s do cluster para balancear o uso de CPU atrav s do escalonador padr o do Kerri
305. ento do Software Os aspectos pertinentes ao controle da execu o paralela s o bastante comple xos Na medida do poss vel o modelo deve retirar do programador a respon sabilidade sobre os mesmos Para tanto deve ficar ao encargo do compilador e do ambiente de execu o a inser o e a ger ncia dos mecanismos necess rios VERSAO 0 6 P GINA 253 GUIA CLUSTER 11 2 2 PROPRIEDADES DE UM MODELO DE PROGRAMAGAO PARA O PROCESSAMENTO PARALELO A Aplicativos Programa o A Ferramentas do Sistema Implementa o Figura 11 1 Modelo Para Computa o Paralela Assim o modelo deve prover e decomposi o do programa em tarefas paraleliz veis Para sua execu o paralela o programa deve ser dividido em partes pass veis de serem execu tadas concorrentemente pelos diversos processadores da arquitetura Isto implica em fracionar o c digo e a estrutura de dados em partes cujo n mero e tamanho s o fun o das caracter sticas da arquitetura e mapeamento das tarefas paralelas aos processadores Uma vez que o pro grama tenha sido dividido se faz necess ria a decis o de em qual proces sador ser alocada cada tarefa Um dos principais crit rios para decis o o volume de comunica es de tal forma que tarefas com volume de comu nica es elevado entre si tenham posi es o mais pr ximo poss vel na rede de interconex es No caso de arquiteturas heterog neas vide item 11 2 1 pode ser muito
306. ento e a utiliza o da solu o de processamento dis tribu do A Figura 2 2 apresenta o resultado da utiliza o do ambiente cluster Para efeito de ilustra o foram utilizados os mesmos par metros da Figura 2 1 relativa ado o da computa o de grande porte As linhas em vermelho representam a evolu o do dimensionamento da carga de processamento do ambiente cluster 2 4 3 Compara o Grande Porte e Distribu da Existem grandes similaridades entre as arquiteturas de computa o de grande porte e a computa o distribu da VERSAO 0 6 P GINA 32 GUIA CLUSTER 2 4 3 COMPARA O GRANDE PORTE E DISTRIBU DA Algumas dessas similaridades s o Alto Poder de Processamento Alta Disponibilidade Suporte a Milhares de Transa es e Usu rios simult neos Contingenciamento de recursos Grande Capacidade de Armazenamento Informa es detalhadas sobre como implementar estas funcionalidades em ar quiteturas distribu das podem ser encontradas nos cap tulos Cluster de proces samento cap tulo 10 Cluster de Aplica o cap tulo 8 Cluster de Banco de Da dos cap tulo 9 Cluster de Armazenamento cap tulo 7 Grid computing cap tulo 13 e Virtualiza o de Recursos cap tulo 14 neste documento A tabela 2 1 apresenta as principais diferen as entre as duas abordagens tecnol gicas tratadas na se o 2 4 VERSAO 0 6 P GINA 33 GUIA CLUSTER 2 4 3 COMPARACAO GRANDE PORTE
307. entre eles Sequoia disp e de um driver JDBC gen rico para ser usado pelos clientes Este driver repassa as requisi es para o controlador Sequoia que faz o balanceamento do cluster de banco de dados leituras s o balanceadas e escritas s o difundidas Sequoia pode usar qualquer SGBD Sistema de Gerenciamento de Bancos de Dados Relacionais Relational DataBase Management System provendo um driver JDBC isto valido para todos os bancos de dados em C digo Aberto de Comerci ais existentes Sequoia permite configurar um cluster que inclua uma mistura de bancos de diferentes fornecedores As principais caracter sticas disponibilizadas VERSAO 0 6 P GINA 216 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA Serviet container Tomcat Jetty Serviet container Tomcat Jetty Java dient program IDE lt No scalability No fault tolerance No failover Database MySQL PostgreSQL SAP DB Oracle DB2 InstantDB Database Database Database Database Database MySQL PostgreSQL SAP DB Oracle D B2 InstantD B Figura 9 4 Principio do Sequoia por Sequoia s o performance escal vel toler ncia a falhas e alta disponibilidade Caracter sticas adicionais s o monitoramento log cache de consultas SQL A arquitetura completamente aberta permitindo que qualquer um adicione cus tomiza es como agendadores de requisi es balanceadores de carga gerencia dores de conex o po
308. equ ncia de Instru es uma Sequ ncia de Dados Synchronous Optical NETwork Simple Program Multiple Data Synchronizing Resources Static Random Access Memory Transmition Control Protocol Internet Protocol P GINA 370 VERSAO 0 6 PAGINA 371 GUIA CLUSTER CAP TULO D TECNOLOGIAS Ap ndice D Tecnologias Tabela de refer ncias de tecnologias que s o abordadas neste Guia Tabela de refer ncia de tecnologias Software Licen a Vers o Site Oficial HPC Beowulf http www beowulf org Openssl GPL v2 1 9 2 http www openssi org Kerrighed GPL v2 1 0 2 http www kerrighed org OpenMosix GPL v2 openMosix http openmosix sourceforge net Mosix kernel 2 4 26 Storage iSCSI GPL 4 0 x eee http linux iscsi sourceforge net gndb GPL 6 1 http sourceware org cluster gnbd drdb GPL 0 7 http www drbd org endb GPL http www it uc3m es ptb nbd gfs GPL 6 1 http www redhat com software rha gfs ocfs2 GPL 1 2 3 http oss oracle com projects ocfs2 pvfs GPL 1 6 3 http www parl clemson edu pvfs lustre GPL 1 4 7 http www lustre org Cluster de Banco de Dados Banco de Dados Distribuido mysql clus GPL e pros 5 0 http www mysql com products database vith 0 6 prietaria cluster PAGINA 372 GUIA CLUSTER CAP TULO D TECNOLOGIAS Software Licen a Vers o Sit
309. er Yamin Augusto Ovelar Daniel Darlen Corr a Ribeiro Elizeu Santos Neto Lucius Trindade Curado e Silva Marco Sinhoreli Roberto Pires de Carvalho Walfredo Cirne VERSAO 0 6 P GINA VII GUIA CLUSTER Hist rico do Documento Data Vers o Autor Altera o 01 12 05 0 0 Elias Mussi Estrutura o do Sum rio 01 05 06 0 1 Trabalhos provindos da Vers o inicial de desenvolvi equipe interna da SLTI mento de conte do 10 02 06 0 1 5 Elias Mussi Proposta do Sistema de con sulta e contribui o on line para o Guia de Cluster 05 05 06 0 2 Contribui es do Prof Ade Sess es sobre Paralelismo e Sis nauer Yamin PPAD e de Lu tema de Imagem nica SSI cius Curado SSI Mais traba lhos por parte da equipe da SLTI 17 06 06 0 3 Elias Mussi Disponibiliza o do Sistema de Consulta e Colabora o do Guia de Cluster no ende re o http guialivre dovernceletronico gov br guiaonline guiacluster 14 08 06 0 3 5 Equipe SLTI Expans o do conte do do do cumento principalmente na parte III 14 08 06 0 4 Contribui o de Walfredo Cap tulo Grid Computing Cirne e Elizeu Santos Neto 01 09 06 0 4 5 Equipe SLTI Expans o de conte do princi palmente da Parte II 04 10 06 0 5 Contribui o de Marco Si Marco Cap tulo sobre Virtuali nhoreli mais trabalhos da za o SLTI expans o de con Equipe SLTI te do principalmente da Parte
310. eral 4 1 A sensibiliza o A escolha por desenvolver um sistema cr tico para ser utilizado em cluster uma decis o complicada e tem a sua sustentabilidade em muitos aspectos n o ape nas t cnicos mas tamb m estrat gicos e econ micos e devem estar contextuali zada em uma pol tica tecnol gica A decis o sobre o desenvolvimento e o uso de Clusters sofre tamb m influ ncias de car ter cultural e estas podem ser mais limitadoras do que o pr prio emprego da tecnologia Mudar sistemas alterar solu es e plataformas em geral s o tarefas complexas Ao considerarmos que toda mudan a capaz de modificar o comportamento e as rotinas das pessoas aumenta o grau de dificuldade das tarefas podemos afirmar que ao se falar em inova o a aten o dos Administradores n o pode se con centrar exclusivamente na parte t cnica A inova o exige tamb m esfor o de mudan a cultural o que nas organiza es se retrata diretamente no que se con cebe como Cultura Organizacional VERSAO 0 6 P GINA 58 GUIA CLUSTER 4 2 Os RECURSOS HUMANOS ENVOLVIDOS 4 2 Os Recursos Humanos Envolvidos 4 2 1 Aperfei oamento dos T cnicos Antes de capacitar a equipe t cnica e de desenvolvimento preciso reun los e explicar os motivos da mudan a de plataforma importante conquistar todos envolvidos no projeto e concientiz los sobre os motivos que levaram a institui o a escolher essa nova tecnologia e as melhorias que essa m
311. es abertos de hardware e software e interoperabilidade como um fator preponderante no desenvolvimento de sistemas e arquiteturas computacionais no governo e aproveitamento dos potenciais disponibilizados pela ampla estrutura de re des computacionais do governo federal O presente documento apresenta as possibilidades tecnologias e cen rios de uti liza o de cluster e grid no governo federal tendo como objetivo ampliar seu uso interno no governo de maneira a melhor atender as novas demandas computa cionais da sociedade da informa o que segundo a diretriz de moderniza o da m quina p blica encontram se cada vez mais internalizadas no governo brasi leiro Tamb m conhecido como hardware commodity hardware padrao de mercado fornecido por diversas empresas que concorrem entre si para oferecer as melhores condi es de suporte quali dade e pre o para o governo VERSAO 0 6 P GINA 18 GUIA CLUSTER 2 3 AS NOVAS DEMANDAS COMPUTACIONAIS 2 3 As Novas Demandas Computacionais As atividades econ micas que utilizam redes eletr nicas como plataforma tec nol gica t m sido denominadas neg cios eletr nicos e business Essa expres s o engloba os diversos tipos de transa es comerciais administrativas e cont beis que envolvem governo empresas e consumidores O com rcio eletr nico e commerce a principal atividade dessa nova categoria de neg cios Os atores institucionais envolvidos nos serv
312. escopo da solu o Ao contr rio a id ia gradativamente permitir que mais aplica es possam utilizar a solu o Por exemplo suporte a workflow suporte a data mining etc Atualmente na vers o 3 0 2 OurGrid j usado em produ o por v rios grupos de pesquisa no Brasil 117 As pr ximas vers es prometem incorporar melho rias no escalonamento de aplica es solu o de sandboxing bem como maior toler ncia para aplica es de longa dura o high throughput computing atrav s do uso de checkpoint O software OurGrid est dispon vel para download em http fwww ourgrid org 13 4 4 Condor De forma semelhante ao OurGrid Condor uma sistema que possui um escopo bem definido e menos gen rico que outras solu es para computa o de alto de sempenho em Grids Computacionais Condor objetiva fornecer grande quanti dade de poder computacional a m dio e longo prazo dias a semanas utilizando recursos ociosos na rede 258 Os autores do sistema salientam insistentemente que Condor objetiva alta vaz o high throughput e n o alto desempenho high per formance 85 165 191 258 Entenda se disto que Condor visa fornecer desempe nho sustent vel a m dio e longo prazos mesmo que o desempenho instant neo do sistema possa variar consideravelmente Condor foi inicialmente concebido para funcionar em NOW s Network of Works tations Uma NOW que executa Condor denomina se Condor Pool O elemento arquitetural ma
313. escritos em 192 349 Replica o de Arquivos Em um ambiente distribu do pode se tamb m distribuir a carga causada pelo acesso aos arquivos nos v rios servidores que comp e o sistema Pode se replicar os arquivos em mais de um servidor ou ent o replicar somente os arquivos mais acessados ou ainda replicar somente os peda os dos arquivos que costumam ter um alto n vel de acesso Note que o uso de cache em um sistema de arquivos pode ser encarado como uma replica o de arquivos embora seu objetivo seja principalmente desempenho Al m disso se um sistema de arquivos oferece essa funcionalidade a efici ncia e a confian a do servi o de arquivos generosamente aumentada Efici ncia em termos de tempo de resposta carga do servidor e tr fego de rede Confian a caso um determinado servidor caia ou fique indispon vel pois o servi o de arquivos ainda pode realizar suas obriga es por possuir c pias dos dados em outro ponto da rede Dessa forma replica o de arquivos prov toler ncia a falhas j que o usu rio pode n o perceber que o servidor que ele estava usando caiu e que outro entrou no lugar para prover o recurso que ele estava usando Da o sistema tamb m deve oferecer transpar ncia de replica o pois o usu rio n o precisa saber como o sistema cuida da replica o desse arquivo O maior problema nessa caracter stica do SAD que a implementa o pode ser muito complicada pois necess rio ma
314. esma m quina do programa chamador Arquitetura proposta para interoperabilidade de siste mas por meio de conjunto de interfaces de servi os fra camente acoplados loosely coupled onde os servi os n o necessitam de detalhes t cnicos da plataforma dos outros servi os para a troca de informa es ser reali zada descreve um modelo para o empacotamento de pergun tas e respostas XML O envio de mensagens SOAP uti lizado para permitir o interc mbio de uma variedade de informa es XML A norma de SOAP assume a tarefa de transmitir pedidos e respostas sobre servi os entre usu rios e fornecedores de servi os P GINA 380 GUIA CLUSTER CAP TULO E GLOSS RIO Software Livre UDDI Universal Descrip tion Discovery and Integra tion Descri o Descoberta e Integra o Universais W3C World Wide Web Con sortium Cons rcio da Rede Mundial Web Web Services WSDL Web Services Defi nition Language Linguagem para defini o de Servi os Web WWW ou Web World Wide Web VERSAO 0 6 programa de computador dispon vel atrav s de seu c digo fonte e com a permiss o para qualquer um us lo copi lo e distribu lo seja na sua forma original ou com modifica es seja gratuitamente ou com custo O software livre necessariamente n o propriet rio mas importante n o confundir software livre com software gr tis o reposit rio no qual os desenvolvedores registram os
315. esponder uma demanda de carga de processamento Ci necess rio que a Administra o adquira uma solu o com capacidade de pro cessamento superior exig ncia inicial Essa medida justifica se pelo j citado alto custo do equipamento envolvido uma vez que recursos financeiros ser o empregados na utiliza o de m quinas multiprocessadas interessante que es sas m quinas operem no maior tempo poss vel Dessa forma para satisfazer a demanda de processamento destacada em C4 adquire se uma solu o com ca pacidade 5 superior que ir garantir o funcionamento do ambiente at que a exig ncia de processamento atinja seu limite m ximo Na figura 2 1 a rea mais clara em laranja representa a capacidade ociosa de processamento do equipa mento utilizado em fun o do tempo Quando o limite de processamento do equipamento for alcan ado torna se ne cess rio a realiza o de um upgrade que geralmente caracteriza se pela substitui o do equipamento original por um novo ou pela incorpora o de novo hard ware ao equipamento original Qualquer uma das alternativas exigir elevado custo financeiro Assim passa se utiliza o de um equipamento com capaci dade de processamento C3 para novamente garantir a operacionaliza o do am biente por mais um per odo de tempo T1 at T2 inaugurando um ciclo cons tante de atualiza es determinado pela carga de processamento a ser suportada No caso da utiliza o
316. espons vel pela consolida o do armazenamento do Cluster ela deve simular funcionar como um storage externo E nesta camada que se encon tram os servidores de Armazenamento Nesta Camada s o utilizadas tecnologias de Distributed Mass Storage Sistemas de arquivos compartilhados Dispositivos de Blocos em rede entre outras A tabela D apresenta uma lista das tecnologias utilizadas VERSAO 0 6 P GINA 55 GUIA CLUSTER 3 4 5 DIAGRAMA DA ARQUITETURA PROPOSTA As principais caracter sticas s o Toler ncia falhas Alta Disponibilidade Inte gridade dos Dados Alta Performance e Arquivos Distribu dos 3 4 5 Diagrama da arquitetura proposta A figura abaixo apresenta um diagrama da arquitetura proposta na se o 3 4 3 z z e E 2 E 2 s oO 2 E E 2 E a 8 5 g 5 g amp E S E 5 E 5 E 3 E q O q g E 2 w 2 w amp gt s SoG og ass m oo a E g z 3 n n o o Ss Ss o oO Ss o 2 EA lt lt a E E z z n n ss Switch J L Switch Banco de dados Banco de dados AL S ZE S
317. est o Note que Grid Script possibilita que qualquer que seja a m quina que o usu rio tem acesso ele possa informar como este acesso se d atrav s da escrita de tr s scripts Alter nativamente h casos em que a forma de acessar uma determinada m quina do Grid j do conhecimento do MyGrid Por exemplo suponha que a m quina em quest o pode ser acessada via servi os Globus GSI GRAM e GridFTP Neste caso o usu rio n o precisa fornecer os scripts indicando apenas que o acesso m quina j conhecido de MyGrid Finalmente MyGrid tamb m prov um me canismo de acesso a m quinas do Grid chamado de User Agent O User Agent prov servi os simples interessante notar que pela terminologia adotada por Foster et al 184 Grid Machine Interface umavirtualiza o para os servi os de acesso a uma m quina do Grid Outro componente fundamental a arquitetura MyGrid o Scheduler O Scheduler recebe do usu rio a descri o das tarefas a executar escolhe qual processador usar para cada tarefa e finalmente submete e monitora a execu o da tarefa O VERSAO 0 6 P GINA 337 GUIA CLUSTER 13 4 2 MYGRID MyGrid possui atualmente duas heuristica de escalonamento Workqueue with Replication WQR 297 e Storage Affinity 319 Ambas conseguem obter uma boa performance mesmo sem utilizar informa es sobre o estado do Grid ou o tamanho de cada tarefa ver Se o 13 3 3 e Se o 13 3 3 O WOR foi definido par
318. esvantagem decorrente da dissocia o entre o proces VERSAO 0 6 P GINA 103 GUIA CLUSTER 6 6 2 REDES DE INTERCONEXAO UTILIZADAS EM ARQUITETURAS PARALELAS sador e a chave de interconex o o preju zo do nivel de integra o mais circuitos integrados mais conex es etc pu q Re tL Mem ria a Chave associada b Chave independente ao processador do processador Figura 6 5 Alternativas para conectar o processador a rede de interconex o Caracter sticas que Definem o Desempenho de uma Rede de Interconex o Al m da topologia da rede de interconex o as outras caracter sticas que se des tacam na defini o do seu desempenho s o e largura de banda do canal n mero de bytes por segundo que pode fluir entre dois n s com conex o direta Via de regra a largura de banda depen dente do n mero de pulsos por segundo da arquitetura clock e do n mero de bits poss veis de serem enviados por pulso e lat ncia de comuta o tempo inerente opera o da chave de comuta o Se dois processadores precisam trocar dados e n o existe um canal interligando os dois diretamente as chaves de comuta o intermedi rias precisam propagar a mensagem atrav s da rede de interconex o As la t ncias elevadas trazem preju zo ao desempenho da arquitetura paralela sobretudo quando a mensagem necessita passar por diversas chaves VERSAO 0 6 P GINA 104 GUIA CLUSTER 6 6 3 TOPOLOGIAS DA REDE DE INTERCO
319. ex html Ultima Visita em 20 09 2004 12 20 43 D Abramson J Giddy I Foster and L Kotler High performance para metric modeling with nimrod G Killer application for the global grid In IPDPS pages 520 528 2000 44 A Adya W J Bolosky M Castro G Cermak R Chaiken J R Douceur J Howell J R Lorch M Theimer and R P Wattenhofer FARSITE Fede rated available and reliable storage for an incompletely trusted environ ment In Proceedings of the 5th OSDI December 2002 45 C J AGHA G CALLSEN ActorSpace An Open Distributed Programming Paradigm ACM SIGPLAN Symposium on Principles and Practice of Paral lel Programming 1993 46 G Agha ACTORS A Model of Concurrent Computation in Distributed Sys tems Mit Press 1986 VERSAO 0 6 PAGINA 393 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 47 G Actors AGHA MIT Press Cambridge MA A Model of Concurrent Com putation in Distributed Systems 1986 48 Marcos Aguilera Ramaprabhu Janakiraman and Lihao Xu Using era sure codes efficiently for storage in a distributed system In Proceedings of the 2005 International Conference on Dependable Systems and Networks DSN 2005 Yokohama Japan June July 2005 49 Hassan AIT KACI The WAM A Real Tutorial Paris Digital Equipment Corporation Research Laboratory 1990 50 et al Al Geist PVM Parallel Virtual Machine A Users Guide and Tutorial for Network Parallel Computing Scientific and
320. expressamos a necessidade de n o in troduzir vulnerabilidades ao ambiente computacional do usu rio Ou seja n o queremos que falhas de seguran a em qualquer uma das m quinas que o usu rio possa utilizar sejam propagadas para sua m quina base i e o computador usado pelo usu rio MyGrid diferencia entre m quina base e m quina do Grid Em um MyGrid a m quina base aquela que controla a execu o da aplica o Ela tipicamente cont m os dados de entrada e coleta os resultados da computa o A m quina base normalmente usada pelo usu rio diretamente no seu dia a dia muitas ve zes sendo o pr prio computador desktop do usu rio Esperamos portanto que o usu rio tenha excelente acesso m quina base e que tenha customizado um ambiente de trabalho confort vel nela Todas as m quinas usadas via MyGrid para executar tarefas s o chamadas de m quinas de grid Ao contr rio da m quina base n o assumimos que o usu rio customizou cada m quina do Grid para criar lhe um ambiente de trabalho fami liar Al m disso todas as m quinas do Grid tipicamente n o compartilham um mesmo sistema de arquivo ou t m os mesmos softwares instalados A imagem do sistema pode variar de uma m quina do Grid para outra Portanto para man termos a simplicidade de uso do sistema precisamos evitar que o usu rio tenha que lidar diretamente com as m quinas do Grid Por exemplo queremos evitar que o usu rio tenha que instalar software em
321. fas Virtualiza o de re cursos computacionais e Testes an lises e prospec o tecnol gica foram realizados testes an lises e prospec es tecnol gicas das tecnologias de Processamento de Alto Desem penho MPI e PVM Sistema de Arquivos Compartilhados GFS OCFS2 OCFS Cluster de Banco de Dados Oracle RAC Sequoia PgCluster Par gres Cluster de Aplica o Linux Virtual Server HeartBeat CARP Virtu aliza o de Recursos VMware e Xen F1 Hist rico do LabCluster O Departamento de Integra o de Sistemas de Informa o DSI da Secretaria de Log stica e Tecnologia de Informa o possui como atribui o definir as regras e padr es de integra o do Governo Federal No Departamento s o desenvolvidos projetos relacionados com a integra o dos sistemas estruturadores do Governo Federal integra o das bases de cadastros sociais defini o de padr es abertos para interoperabilidade migra o para software livre e inova es tecnol gicas baseadas em tecnologias emergentes e abertas Tais iniciativas objetivam a transpar ncia nas rela es tecnol gicas internas na Administra o P blica Federal melhoria da qualidade do servi o de Governo 1E Ping Padr es de Interoperabilidade de Governo Eletr nico Guia de Refer ncia de Migra o para software livre do Governo Federal VERSAO 0 6 P GINA 384 GUIA CLUSTER F 1 HIST RICO DO LABCLUSTER Eletr nico aos cidad os raciona
322. formation Service NIS um servi o de informa es distribu do que usado para fornecer tais informa es a todos os n s da rede Percebe se facilmente a fragilidade disso dado que se um cliente n o for confi velele pode fornecer uids e gids falsos podendo assim acessar e alterar arquivos de outros usu rios Para resolver esse problema o NFS possui a possibilidade de autentica o m tua entre cliente e servidor baseada no m todo DES de criptogra fia onde as chaves s o fornecidas pelo NIS Por m a informa o trafegada n o criptografada o que possibilita que intrusos possam obter peda os de arquivos que trafeguem pela rede O Novo Protocolo NFSv4 Alguns anos ap s o lan amento da especifica o do protocolo NFSv3 foi criada uma nova vers o que rev v rios conceitos que n o estavam presentes nos pro tocolos anteriores que causam mudan as dr sticas 269 no que se conhecia at ent o sobre o NFS Essa nova vers o est dispon vel para o Linux a partir da vers o 2 6 do seu kernel Nela o servidor mant m o estado dos arquivos em conjunto com os clientes diferentemente das vers es anteriores Assim poss vel que um determinado cliente pergunte ao servidor o que outros clientes est o fazendo com determinado arquivo Isso pode indicar ao cliente se vale a pena ou n o realizar um cache dos dados de forma mais agressiva poss vel tamb m bloquear e compartilhar partes de arquivos atrav s do
323. ftware das funcionalidades de uma SAN Storage Area Network e um sistema que realize o balanceamento de co nex es TCP ip entre os servidores Funcionamento Quando um usu rio tenta realizar uma opera o de escrita no banco de dados ele direcionado atrav s do LVS para um dos servidores de dados onde processada a re quisi o como se o banco n o estivesse em cluster Ap s a escrita ter sido realizada em disco todos os outros servidores ser o capazes de reconhecer transparentemente as altera es realizadas Um problema nesse tipo de so lu o o cache do servidor de banco de dados que tem q ser reduzido para o m nimo poss vel Atomic Operations Atomic Transactions A rea de banco de dados bastante sens vel e as tecnologias est o come ando a se consolidar necess rio realizar muitos testes para se definir qual a melhor tecnologia a ser adotada para cada situa o 9 1 Banco de Dados Distribu dos Defini es 1 Segundo Date 138 VERSAO 0 6 P GINA 199 GUIA CLUSTER 9 2 REPLICACAO DE BANCO DE DADOS Um sistema de banco da dados distribu dos consiste em uma cole o de locais conectados por alguma rede de comunica o e que a Cada um dos locais um sistema de banco de dados completo com seus pr prios direitos mas b Os bancos de dados locais trabalham em conjunto para que os usu rios que acessam os dados de qualquer outro local da rede possa acessar os dados de forma trans
324. ftware in the Public Interest Inc Flash Shockwave Director Macromedia Inc VERSAO 0 6 PAGINA 366 GUIA CLUSTER CAP TULO B MARCAS REGISTRADAS Marcas Registradas Propriet rio Firebird Firebird Project FreeBSD Walnut Creek CDROM Inc HP UX Hewlett Packard Company Hylafax Server Silicon Graphics Inc IBM Lotus Lotus Notes SmartSuite MVS Word Pro AIX AS 400 VM CMS Display Write Lotus 123 AmiPro DB2 IBM Corporation Interbase Kylix Delphi Borland Software Corporation MaxDB MySQL MySQL AB Windows Windows 2000 Windows 3 x Windows 95 Windows 98 Windows ME Windows NT Windows XP Microsoft Microsoft Excel Microsoft Internet Ex plorer Microsoft Office Microsoft Visio Microsoft Word Microsoft Works Ou tlook Outlook Express Outlook Web Ac cess OWA ActiveX DirectX Active Di rectory FrontPage JScript Visual Ba sic Win32 Microsoft Access ODBC Mi crosoft Exchange VBScript SQL Server PowerPoint Paint Microsoft Corporation Netscape Netscape Communications Corp NetBSD NetBSD Foundation Novell Netware NDS Ximian Ximian Evolution Red Carpet Red Carpet Enter Novell Inc prise Adabas Software AG of North America Inc OSF 1 Hewlett Packard Development Com pany L P Opera Opera Software Oracle Oracle Corporation PostgreSQL PostgreSQL Inc Quark XPress Quark I
325. ga sua mem ria local como uma cache da DSM sendo cada bloco da mem ria a unidade b sica de cache 10 2 4 OpenMosix O openMosix um middleware para clustering open source que possui dois m dulos de grande valia ao servi o de clustering um patch para mem ria com partilhada distribu da migshm e um m dulo para checkpointing Mem ria compartilhada usada na maior parte das aplica es modernas tais como bancos de dados servidores WEB editores de texto planilhas e processa mento de imagens A opera o de compartilhamento de mem ria ajuda a facilitar a troca de dados entre os processos Por exemplo quando dois clientes fazem um select e um update em uma coluna de uma tabela MySQL o MySQL deve criar dois subprocessos e servir os coman dos SQL Os processos forked se anexam ao processo MySQL principal que VERSAO 0 6 P GINA 238 GUIA CLUSTER 10 2 4 OPENMOSIX mant m os dados em mem ria Usando esse esquema n o existe a necessidade de se criar um data mirror e plug lo de volta tabela real O benef cio que o servidor de banco de dados por reduzir a aloca o de me m ria Evidentemente um mecanismo de locking necess rio para evitar um deadlock ou uma condi o de corrida Uma thread uma vers o leve de um mecanismo fork Ao inv s de duplicar todo um segmento de mem ria de um processo pai para um processo filho o processo rec mcriado apenas precisa ini
326. ghed Por m Kerrighed oferece um toolkit para escrever escalona dores sob encomenda com facilidade que podem serem adicionados a quente nos m dulos do kernel e Mem ria Compartilhada Threads e segmentos de mem ria do sistema podem ser operados atrav s do cluster como em uma m quina SMP e Mecanismos de migra o de fluxo de alta performance Podem ser migrados processos que usam fluxos socket pipe fifo char de vice etc sem penalidade no desempenho de comunica o depois de migra o e Sistema de arquivo distribu do Um nico espa o de nome de arquivo visto no cluster Todos os discos do cluster s o fundidos em um nico disco virtual em um customiza o parecida como um RAID e Verifica o de processos Os processos podem ser verificados e reiniciados em qualquer um n do cluster e Interface de Thread Posix completa A interface de Thread Posix pode ser operada com threads espalhadas pelos n s do cluster e Interface de processos Unix vis vel em todo o cluster Toda a interface tradicional de comandos de gerenciamento de processos VERSAO 0 6 P GINA 242 GUIA CLUSTER 10 2 5 KERRIGHED Unix top ps kill etc s o operados pelo cluster Al m disso os identifica dores de processos pid s o nicos no cluster e Caracter sticas customiz veis da imagem nica de sistema As caracter sticas do SSI mem ria compartilhada escalonador global mi gra o de flux
327. gional de Alto Desem penho Pelotas RS Comiss o Regional de Alto Desempenho Regional do Rio Grande do Sul Sociedade brasileira de Computa o 2004 145 Escola Regional de Alto Desenpenho Quinta Escola Regional de Alto Desem penho Canoas RS Comiss o Regional de Alto Desempenho Regional do Rio Grande do Sul Sociedade brasileira de Computa o 2005 VERSAO 0 6 P GINA 402 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 146 Escola Regional de Alto Desenpenho Sexta Escola Regional de Alto Desempe nho Iju RS Comiss o Regional de Alto Desempenho Regional do Rio Grande do Sul Sociedade brasileira de Computa o 2006 147 C DE ROSE BLANCO F MAILLARD N SAIKOSKI K NOVAES R RI CHARD and O RICHARD The virtual cluster a dynamic environment for exploitation of idle network resources 14th symposium on Computer Architecture and High Performance Computing SBAC PAD 2002 USA IEEE Computer Society pages p 141 148 2002 148 Doug DEGROOT Restricted and parallelism Technical report INTER NATIONAL CONFERENCE ON FIFTH GENERATION COMPUTER SYS TEMS 1984 149 Jay L Devore Probability and Statistics for Engineering and The Sciences vo lume 1 John Wiley and Sons Inc 2000 150 Peter Dibble Michael Scott and Carla Ellis Bridge A high performance file system for parallel processors http www cs rochester edu u scott papers 1988_ICDCS_Bridge pdf Ultima Visita em 20 12 2005 12 12
328. gios inter medi rios Esta diferen a de abordagem talvez tenha contribu do para preval n cia do Globus como padr o de facto de infraestrutura para Computa o em Grid interessante notar que a decis o de estruturar Globus como um conjunto de servi os independentes deixa claro que Globus n o uma solu o pronta e com pleta plug and play para constru o de Grids Globus certamente fornece servi os teis para Computa o em Grids Mas desenvolvedores administradores e usu rios precisam despender certo esfor o para finalizar seu Grid Por exemplo administradores precisam decidir quais usu rios ter o acesso a quais recursos que comp em o Grid e em quais condi es este acesso se dar veja Se o 13 4 1 Em outro exemplo frequentemente necess rio desenvolver escalonadores de aplica o veja Se o 13 3 3 que tenham conhecimento sobre as aplica es que ser o executadas e algumas vezes tamb m sobre a estrutura do Grid a ser usado Computa o em Grid simplesmente muito complexa para possibilitar solu es plug and play Portanto o fato do Globus n o ser uma solu o pronta e completa n o nenhum dem rito Entretanto algumas pessoas t m a id ia de que Globus a solu o completa e perfeita Esta falsa concep o sim um problema pois gera falsas expectativas e obscurece discuss es t cnicas com alega es de marketing Vale ressaltar que a discuss o apresentada nas se es anterio
329. gpool tenta continuar o servi o com o servidor ainda ativo este modo chamado modo degenerado Inconvenientemente pgpool n o oferece VERSAO 0 6 P GINA 202 GUIA CLUSTER 9 3 1 PGPOOL nenhum m todo para voltar um servidor com problemas de novo no n sendo necess rio que os bancos sejam sincronizados novamente A melhor maneira desativar o servidor ativo sincronizar os arquivos do postgresql via rsync por exemplo reiniciar os bancos e o pgpool pgpool envia uma query para o master que envia para o slave antes do master completar a query Isto pode aumentar a performance mas acres centa o risco de deadlock Para balancear performance e risco pgpool pode operar de duas formas 1 modo restrict Neste modo pgpool espera a conclus o da query no n master para depois envia la para o secund rio Este o modo de opera o padr o e mais seguro do pgpool 2 palavra chave STRICT Visando performance o modo restrict pode ser desabilitado atrav s do ajuste da diretiva pgpool_restrict na confi gura o do pgpool Para inibir deadlocks deve se inserir a STRICT no in cio de cada query pass vel de produzir deadlock como por exem plo xSTRICT LOCK TABLE t1 Caso algum deadlock ocorra n o sendo detectado pelo pr prio Post greSQL pgpool abortar a sess o se um dos n s n o responderem por um certo intervalo de tempo configur vel Para prop sitos de
330. gumas das melhorias planejadas para InfiniBand incluem especifi ca es de maiores taxas de sinaliza o controle de congestionamento e qualidade de servi o QoS Gigabyte System Network GSN um padr o ANSI American National Standards Institute de tecnologia de rede que foi desenvolvida para redes de alta performance enquanto mant m compatibilidade com tecnologias de rede como HIPPI Ethernet e outros padr es de rede GSN tem uma alta capacidade de banda 800MB por segundo e baixa lat ncia Caracter sticas e Capacidade de Banda acima de 800MB por segundo em full duplex Velo VERSAO 0 6 P GINA 112 GUIA CLUSTER 6 7 PROTOCOLOS DE COMUNICA O cidade compar vel com Fibre Channel ATM OC12 Gigabit Ethernet and HIPPI e Lat ncia lat ncia de 4 microseconds lat ncia do MPI de 13 microseconds e Interoperabilidade IP sob GSN ST sob GSN BDS sob GSN e ARP sob GSN e Biblioteca para diversos S O Mais informa es podem ser obtidas no endere o http hsi web cern ch HSI gsn gsnhome htm Quadrics Network tamb m conhecida como QSNET consiste de dois blocos Um chamado de ELAN que representa uma interface de rede program vel e ou tro chamado de ELITE que caracterizado pelo switch de alto desempenho e baixa lat ncia Os dispositivos ELITE s o interligados em forma de topologia Flat Tree alcan ando a possibilidade de interliga o da ordem de milhares de dispositivos d
331. hardware especializado para balanceamento de carga tamb m co nhecido como roteador de camada 4 7 um dispositivo f sico que redireciona conex es para um conjunto de m quinas em uma rede interna A decis o para o balanceamento baseada na an lise de uma s rie de fatores como carga do pro cessador conex es ativas no servidor entre outros Isso minimiza a sobrecarga dos servidores al m disponibilizar os servi os hospedados nestas m quinas atra v s de um nico IP mapeando as conex es para os IP s internos dos servidores Entre as vantagens do uso deste tipo de solu o para balancemanto de carga em clusters Tomcat em rela o ao uso de DNS Round robin simples s o Balancemanento de carga mais otimizado j que fatores como carga de proces sador e n mero de conex es ativas s o levadas em considera o Conex es dos clientes n o ser o enviadas para m quinas que n o possam atende las As principais desvantagens s o o custo destes dispositivos a relativa complexi dade de setup e o fato de constituirem um ponto nico de falha mod jk O uso de Apache e seu m dulo mod jk2 podem ser usados para Distribuir conex es entre v rias inst ncias de Tomcat Detectar falha em inst ncias evitando o envio de requisi es a servidores Tom cat que n o estejam respondendo VERSAO 0 6 P GINA 187 GUIA CLUSTER 8 2 1 BALANCEAMENTO DE CARGA Caso uma inst ncia deixe de responder mod jk
332. ho do sistema durante a execu o das tarefas previamente escalonadas podem fazer com que seu desempenho global sofra significativos decr scimos Apesar desta aparente limita o o escalonamento est tico largamente utilizado em sistemas paralelos reais uma vez que sua simplicidade de implementa o lhe confere grande robustez e facilidade de manuten o Al m disso nestes sis temas a ocorr ncia de eventos que afetem significativamente o desempenho do escalonamento rara e os resultados s o frequentemente satisfat rios Em oposi o a esta t cnica est a dos escalonadores din micos O escalonamento din mico pode ser entendido como a aplica o de sucessivos escalonamentos es t ticos sobre estados intermedi rios de execu o da aplica o medida que ela executada Os momentos em que cada um desses escalonamentos realizado varia de escalonador para escalonador mas o aspecto mais importante dos esca lonadores din micos o que justifica o emprego do termo din mico e o fato de o escalonamento ser feito concorrentemente distribui o e execu o das tarefas das aplica es Ao produzir se um escalonamento com essas caracter sticas beneficia se da habi lidade em lidar com grande parte das decis es de escalonamento em tempo real o que eliminam muitos dos problemas do caso est tico Embora as decis es ainda se baseiem em estimativas de desempenho do sistema e consequentemente es timati
333. i os governamentais s o o pr prio Governo G Institui es Externas B de business e o Cidad o C que intera gem entre si de v rias maneiras H cinco tipos de rela es entre esses atores em aplica es governamentais e B2B business to business transa es entre empresas exemplos EDI portais verticais de neg cios e B2C C2B business to consumer consumer to business transa es entre empresas e consumidores exemplos lojas e shoppings vir tuais e B2G G2B business to government government to business transa es envolvendo empresas e governo exemplos EDI portais com pras Corresponde a a es do Governo que envolvem intera o com entida des externas O exemplo mais concreto deste tipo a condu o de compras contrata es licita es etc via meios eletr nicos e C2C consumer to consumer transa es entre consumidores finais exemplos sites de leil es classifica dos on line e G2C C2G government to consumer consumer to government transa es envolvendo governo e o cidad o consumidores finais dos servi os do Governo exemplos pagamento de impostos servi os de comuni ca o Corresponde a a es do Governo de presta o ou recebimento de informa es e servi os ao cidad o via meios eletr nicos O exemplo mais comum deste tipo a veicula o de informa es em um website de um rg o do governo aberto a todos os interessados VERSAO 0 6 P
334. i tr s estados de funcionamento e Cacheando Esse seu estado normal de funcionamento Aqui a comu nica o com os servidores poss vel sempre que necess rio mas o cliente Shttp www coda cs cmu edu doc html kernel venus protocol html VERSAO 0 6 PAGINA 158 GUIA CLUSTER 7 3 6 CONSTANT DATA AVAILABILITY CODA procura estar preparado para o caso de uma desconex o da rede seja vo lunt ria ou n o e Emula o Esse estado atingido quando o cliente perde a conex o com os servidores Nesse caso o venus tenta fazer o papel dos servidores dis ponibilizando as r plicas dos arquivos gravadas localmente como se ainda estivessem sendo acessados atrav s dos servidores e Reintegra o Assim que o computador conectado rede entra se no modo de reintegra o onde ele passa a fornecer aos servidores respons veis OS arquivos em seu cache que sofreram altera es Ap s o final dessa opera o volta se ao primeiro estado Desempenho Alguns testes 325 realizados em situa es normais de uso mostraram que o ta manho do cache local necess rio para uma semana desconectado e o tempo de reintegra o dos dados ap s esse mesmo per odo n o s o muito grandes Al m disso concluiu se que os problemas de acesso concorrente que poderiam causar conflitos na reintegra o s o raros dado que 99 das altera es dos ar quivos s o realizadas pelo mesmo usu rio que j o alterou anterior
335. ia compartilhada como distribu da Por m seu emprego mais facilmente potencializado nas arquiteturas s ncronas as quais conseguem explorar eficientemente o paralelismo a n vel de instru o O paralelismo de dados tem sido utilizado com timos desempenhos em diver sas arquiteturas A simplicidade do seu c digo facilita a codifica o e eventuais recodifica es quando de migra es entre arquiteturas diferentes Faculta uma previs o de desempenho e tamb m medida de custo Por m poss vel sua ex plora o com desempenho somente quando os dados tiverem as caracter sticas de independ ncia e regularidade mencionadas VERSAO 0 6 P GINA 265 GUIA CLUSTER 11 3 3 MODELOS COM ASSINALAMENTO E DECOMPOSI O DO PARALELISMO EXPL CITOS 11 3 3 Modelos com Assinalamento e Decomposi o do Parale lismo Expl citos Estes modelos delegam para o programador a decis o de como ser decomposto o trabalho paralelo em partes As implica es desta decis o no entanto ser o tratadas de forma transparente pelo modelo Uma vez divido o problema a atribui o das partes aos processadores e a forma como estas v o se comunicar e sincronizar n o precisam ser explicitadas no pro grama Existem poucas propostas neste n vel de abstra o somente duas e sua imple menta o ocorre na forma de bibliotecas utilizadas a partir das linguagens C e FORTRAN Como exemplo deste n vel de abstra o surge a explora o
336. ia e est o devidamente registradas na parte inicial deste documento VERSAO 0 6 P GINA XXXIII GUIA CLUSTER 1 4 AGRADECIMENTOS 1 4 Agradecimentos Agradecemos a todos as pessoas que participaram da constru o deste docu mento em especial aquelas que nos enviaram contribu oes A grande maioria dessas pessoas est o citadas na sess o Coordena o e Participa o da Sociedade no in cio deste documento A Coordena o Executiva agradece ao apoio do Secret rio de Log stica e Tecno logia da Informa o Rog rio Santanna dos Santos pela condi o de ser o grande incentivador para a inser o desta tecnologia na Administra o P blica Federal APF ao Diretor do Departamento de Integra o de Sistemas de Informa o Leandro C rte e ao ex diretor Jos Ant nio Borba Soares pelo apoio permanente Agradecimentos especiais pelos materiais cedidos para o Guia para os colabo radores Adenauer Yamin Daniel Darlen Corr a Ribeiro Elizeu Santos Neto Lucius Trindade Curado e Silva Marco Sinhoreli Roberto Pires de Carvalho e Walfredo Cirne VERSAO 0 6 P GINA XXXIV Parte I Diretrizes Gerais AGINA Capitulo 2 Governo Eletr nico e Novas Concep es Tecnol gicas 2 1 A Inform tica P blica Brasileira As primeiras empresas de inform tica p blica surgiram em 1964 inseridas num cen rio onde o pa s ainda buscava desenvolver a economia sustentada no setor agr rio Naquela poca o termo corrente
337. ial VERSAO 0 6 P GINA 49 GUIA CLUSTER 3 3 1 CEN RIOS DE APLICA O sendo preciso antes de mais nada realizar uma an lise da aplica o com o objetivo de encontrar pontos no sistema de maior demanda computacional e possibilidades de paraleliza o utilizando t cnicas de programa o pa ralela e explora o do paralelismo de forma a obter o melhor desempenho poss vel em um cluster de processamento de alto desempenho e Sistema de imagem nica SSI Neste tipo de cluster de processamento de alto desempenho o sistema de imagem nica simula uma nica m quina com todos os recursos computacionais das m quinas presentes no cluster Isto acontece geralmente de maneira transparente para as aplica es e de pendendo do sistema utilizado teoricamente se a aplica o capaz de uti lizar mais de um processador ela ser capaz de ser utilizada no cluster sem a necessidade de realizar altera es na aplica o Os sistemas de SSI mais utilizados s o Mosix Openmosix OpenSSI e Kehr righed Cada um destes sistemas realiza a migra o de processos de ma neira diferenciada n o sendo poss vel atualmente realizar a migra o de qualquer tipo de aplica o ou processo devido as limita es de cada sis tema Entretanto existem muitos casos onde a adapta o do sistema para execu o em um cluster de processamento baseado em bibliotecas de pro grama o paralela pode ser custoso ou invi vel e que poss vel execu
338. iante uma taxa voc ter de conceder aos receptores todos os direitos que voc possui Voc ter de garantir que tamb m eles recebam ou pos sam obter o c digo fonte E voc ter a obriga o de exibir a eles esses termos para que eles conhe am seus direitos Protegemos seus direitos atrav s de dois passos 1 estabelecendo direitos auto rais sobre o software e 2 concedendo a voc esta licen a que d permiss o legal para copiar distribuir e ou modificar o software Al m disso para a prote o de cada autor e a nossa queremos ter certeza de que todos entendam que n o h nenhuma garantia para este Software Livre Se o soft ware for modificado por algu m e passado adiante queremos que seus receptores saibam que o que receberam n o o original de forma que quaisquer problemas introduzidos por terceiros n o afetem as reputa es dos autores originais Finalmente qualquer programa livre constantemente amea ado por patentes de software Queremos evitar o risco de que redistribuidores de um programa li VERSAO 0 6 P GINA 357 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL vre obtenham individualmente licen as sob uma patente tornando o programa com efeito propriet rio Para impedir isso deixamos claro que qualquer patente deve ser licenciada para o uso livre por parte de qualquer pessoa ou ent o sim plesmente n o deve ser licenciada Os exatos termos e condi es para c pia distri
339. ica o virtualizada roda em um pequeno ambiente virtual que cont m as entradas de registro arquivos e outros componentes necess rios para execuss o Este ambiente virtual age como uma camada entre a aplica o e o sistema operacional e elimina conflitos entre a apli ca o e as aplica es do sistema operacional Softricity Thinstall Appstream Ardence Trigence Neoware 14 2 XEN Xen virtual machine monitor Xen um Monitor de M quinas Virtuais VMM que prov uma camada de abs tra o entre o hardware e o sistema operacional virtualizado Todo o c digo do micro kernel e das aplica es da VMM do Xen est sob GPL Xen prov paravirtualiza o de Sistemas Operacionais com altera es no kernel para a arquitetura xen em hardwares x86 x86 64 e full virtualization em hardwa res x86 x86 64 com suporte a virtualiza o assistida sem necessidade de modifi ca es do sistema operacional hospede O Xen mantido pela Universidade de Cambridge e conta com apoio de em presas globais da rea de tecnologia da informa o tais como IBM HP Intel AMD entre outras Para maiores informa es acesse o site do projeto na Univer sidade de Cambridge http www cl cam ac uk Research SRG netos xen ou o site Xen Sources http www xensource com Alguns ports do Xen est o dispon veis para outros sistemas operacionais como NetBSD FreeBSD e Solaris A depend ncia do Sistema Operacional de um hardware exclusivo parec
340. ica e interoper vel S o disponibilizadas as seguintes informa es e servi os i Em Informa o poss vel ver por exemplo o resultado dos gastos p bli cos com Sa de Educa o e outros sob a tica dos Programas e A es de Governo ii Em Intelig ncia est o registrados de maneira padronizada os macroprocessos de gest o administrativa de Governo Um exemplo o fluxo de aquisi o de bens e de servi os iii Em Integra o ao implementar a Arquitetura Referencial de Interopera o s o organizados os servi os dos Sistemas Estruturadores de Governo O acesso s informa es utiliza meto dologia e arquitetura padronizadas que garantem a interopera o transpa rente e autom tica Neste projeto est o envolvidas tecnologias de webservices datawarehouse OLAP ETL e integra o de dados sistemas e Projeto de Qualidade de Informa es Sociais O software de gest o de qua lidade de dados permite limpar padronizar e cruzar os cadastros que utili zam dados como nome data de nascimento nome de pai e m e e n mero de documento de identifica o Tamb m possibilita identificar erros de di gita o e fazer compara es por similaridade Reconhece por exemplo a exist ncia de dois cadastros para uma nica pessoa que possui um regis tro com o nome completo e outro com apenas o ltimo sobrenome Ou no Integra o e Intelig ncia em Informa es de Governo HO PPA plano Plurianual estabelece
341. icando a figura 7 5 mostra uma estrutura de diret rios distribu da em dois servidores Se for requisitada a remo o da liga o A E um hard link ou da liga o B E ou da liga o C E um link simb lico somente a liga o pedida ser removida Por m somente as duas primeiras alteram o contador do diret rio F indicando quantas refer ncias apontam para ele Assim se forem removidas as liga es A EeB E esse contador chegar a zero e os n s E F e G ser o removi dos No caso o diret rio F est em um servidor diferente do diret rio raiz a ser removido mas o servi o de diret rios deve cuidar disto Servidor Figura 7 5 Estrutura de diret rios distribu da Algumas das opera es sobre diret rios oferecidas pelos servi os de diret rios s o cria o remo o altera o listagem altera o de permiss es Al m delas o servi o tamb m influ ncia no gerenciamento de arquivos como nas opera es de cria o remo o mudan a de nome busca duplica o entre outras VERSAO 0 6 P GINA 138 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS 7 3 3 Algumas Caracter sticas Desejadas em SADs Qual sistema de arquivos usar em um sistema distribu do Para resolver essa d vida primeiramente analisa se qual o tipo de aplica o que ser utilizada e a partir disso tenta se descobrir o que mais importante para ela como toler n cia a falhas acesso concorr
342. ico inser o ade quada do Pa s na chamada Sociedade da Informa o promo o da cida dania inclus o digital e racionaliza o de recursos O Guia Livre define como principais raz es para o uso de software Livre e Necessidade de ado o de padr es abertos para o Governo Eletr nico e Gov e N vel de seguran a proporcionado pelo Software Livre e Elimina o de mudan as compuls rias que os modelos propriet rios im p em periodicamente a seus usu rios em face da descontinuidade de su porte a vers es ou solu es e Independ ncia tecnol gica e Desenvolvimento de conhecimento local e Possibilidade de auditabilidade dos sistemas e Independ ncia de fornecedor nico S o apresentados os motivos pelos quais n o basta ter acesso ao c digo aberto mas preciso desenvolver comunidades capazes de contribuir para a evolu o dos c digos e algoritmos disponibilizados criando inova es gerando melhorias e aperfei oando os mesmos As motiva es n o podem ser apenas econ micas mas tamb m devem ser orientadas pelas possibilidades de cria o e de avan os nas reas de produ o do conhecimento e de novas tecnologias assim estimu lando o desenvolvimento de todo um conjunto de reas relacionadas ao software ao conhecimento e gest o do Estado Brasileiro VERSAO 0 6 P GINA 16 GUIA CLUSTER 2 2 3 AS DIRETRIZES DO GOVERNO ELETRONICO E O SOFTWARE LIVRE O software livre p
343. ideoconfer ncia e transmiss o de da dos que permitem a comunica o e a troca de experi ncias entre as Casas Legislativas e os legisladores e entre o Poder Legislativo e o p blico vi sando aumentar a participa o da popula o Em fun o das finalidades do Programa o cadastro no Portal Interlegis aberto a qualquer pessoa dando a oportunidade a essas pessoas adicionarem conte do ao site p gi nas imagens links not cias que ser o avaliados pelos administradores de conte do do Portal para depois serem divulgados O link Ajuda do Portal foi feito para facilitar a compreens o de como uma pessoa pode se cadastrar acessar e manusear os conte dos que o Portal disponibiliza para ela e o Sistema Integrado de Administra o de Recursos Humanos SIAPE Sistema respons vel pela gera o e processamento da folha de pagamen tos dos funcion rios da administra o p blica federal Atualmente este sistema funciona em um computador de grande porte que centraliza o pro cessamento de todas as folhas de pagamento da administra o p blica fe deral Teoricamente o processamento de uma folha de pagamento de dois funcion rios distintos n o possui interdepend ncia entre si e poderia ser realizado de forma distribu da utilizando se tecnologias de processamento paralelo ou Grid Computing do tipo bag of tasks Esta abordagem pode ria utilizar equipamentos dedicados distribu dos ou at mesmo aproveitar os recurs
344. iferir radi calmente de outro Por exemplo considere o TeraGrid 38 o SETI home 59 e o PAU 117 O TeraGrid um Grid que interliga 10 centros de supercomputa o norteameri canos atrav s de canais de alt ssima velocidade 40 GigaBits segundo Cada um dos centros possui milhares de processadores dedicados ao TeraGrid gerando um poder agregado de aproximadamente 20 TeraFlops O SETI home por outro lado utiliza a capacidade computacional ociosa de computadores que se juntam voluntariamente ao sistema atrav s da instala o do software cliente do projeto Em Mar o de 2005 SETI home contava com aproximadamente 5 3 milh es de processadores espalhados em 226 pa ses O PAU por sua vez tem uma escala intermedi ria pois congrega 10 dom nios administrativos espalhados pelo Brasil ver http pauastatus sd ufcg edu br e tem como infraestrutura o OurGrid que se baseia em uma rede peer to peer para o compartilhamento de recursos entre os sites i e Rede de Favores 61 Apenas considerando essas breves descri es not vel a diferen a entre os tr s Grids Outro aspecto interessante de se verificar que apesar do TeraGrid congregar um n mero semelhante de sites comparado ao PAU o TeraGrid tem muito mais recursos PAU O conceito de acoplamento do Grid i e qu o pr ximos est o seus componentes fundamental para compreendermos quais aplica es podem executar eficiente mente em um Grid Note que acoplamento
345. igma computacional onde as tecnologias de computa o de grande porte possuem um elevado custo total de propriedade sendo utilizadas majoritaria mente em grandes projetos e sistemas do governo A inform tica dentro do setor p blico brasileiro estruturou se de maneira frag mentada e isolada tendo criado diversas ilhas tecnol gicas e sistemas sem pa dr es transversais o que dificulta e algumas vezes inviabiliza a integra o sendo esta parcialmente realizada muitas vezes atrav s de pontes como por exemplo VERSAO 0 6 P GINA 3 GUIA CLUSTER 2 1 A INFORMATICA PUBLICA BRASILEIRA SERPRO e DATAPREV respons veis pela interliga o destas diversas ilhas tec nol gicas heterog neas Ademais as iniciativas de governo eletr nico a press o e a cobran a da sociedade brasileira pela transpar ncia e otimiza o do uso de recursos p blicos bem como o combate corrup o e fraude s o cada vez maiores aumentando a necessidade de integra o dos sistemas e o poder com putacional necess rio para realizar an lises complexas de imensas bases de dados existentes no governo As a es de moderniza o da m quina p blica desde o Plano Nacional de Des burocratiza o at a Reforma Administrativa 175 n o foram capazes de atin gir os ambientes de tecnologia da informa o e comunica o e os sistemas de informa o do governo Isto ocorreu pela dissocia o entre a reformula o dos processo
346. ilhar mem ria Desta forma a linguagem SR suporta programa o em ambientes distribu dos e ambientes com mem ria comparti lhada SR baseada no conceito de recurso resource O recurso um m dulo que pode conter diversos processos Um recurso dinamicamente criado pelo comando create portanto explicita mente e os seus processos comunicam se utilizando sem foros para sincroni za o A comunica o entre processos de recursos remotos pode ser feita atrav s de troca de mensagens ass ncronas chamada remota de procedimentos RPC e rendezvous Potencialidade de Explora o do Paralelismo De forma an loga a outros modelos de sua categoria a linguagem SR n o oferece recursos de abstra o para detec o decomposi o comunica o ou sincroni za o do paralelismo A SR tamb m como outros modelos an logos costuma oferecer mecanismos alternativos para o programador gerenciar o paralelismo por m mesmo assim invi vel conciliar em um programa independ ncia de arquitetura e m ximo desempenho Dependendo da arquitetura problemas de qualquer granulosidade podem ser computados com desempenho em SR Para uma arquitetura em particular SR oferece garantia de desempenho e medida de custo no entanto pelos detalhes que exige torna o desenvolvimento de software paralelo uma tarefa onerosa VERSAO 0 6 P GINA 272 Capitulo 12 Escalonadores de Tarefas Sistemas de job scheduler ou de agendamento esca
347. ilita a mudan a na implementa o dos servi os sem causar necessariamente mudan as na implementa o do cliente bem como o inverso Ap s a defini o do modelo da arquitetura e identifica o de servi os b sicos atrav s do padr o OGSA foi necess ria a especifica o do comportamento desses servi os Sendo assim o passo seguinte foi a especifica o dessa infraestrutura servi os b sicos no intuito de permitir a implementa o do modelo da arquite tura definida pela OGSA A nova especifica o foi denominada Open Grid Services Infrastructure OGSI 366 e tem o objetivo de definir as interfaces b sicas e os comportamentos de um Grid Service 53 OGSI a materializa o da arquitetura definida pelo padr o OGSA pois os servi os especificados servem como base para constru o dos Grids Em termos pr ticos a especifica o OGSI define e Um conjunto de extens es para a linguagem WSDL Web Service Descrip tion Language e Padr es de estrutura e opera o em WSDL para representa o pesquisa e atualiza o de dados sobre os servi os e As estruturas Grid Service Handle e Grid Service Reference usados para refe VERSAO 0 6 P GINA 299 GUIA CLUSTER 13 2 7 PADRONIZA O renciar um servi os e Formato para mensagens que indicam falhas sem modificar o modelo de mensagens de falha da linguagem WSDL e Conjunto de opera es que permitem a cria o e destrui o de Grid Ser vices Esse
348. importa SKILLICORN 331 5 1 4 A Rela o Custo Benef cio dos Processadores de ltima Gera o Mesmo que a recente tend ncia hist rica de crescimento da velocidade dos pro cessadores se mantenha a computa o paralela possibilita para muitas aplica es uma rela o custo benef cio melhor do que a conseguida ao utilizar equipa mentos com um s processador de ltima gera o Isto ocorre em grande parte devido aos custos de projeto e fabrica o de cada nova gera o de processadores A cada novo processador mais poderoso o pre o da gera o anterior cai con sideravelmente desde modo agrupar em um equipamento paralelo processa dores mais antigos prov um alternativa computacional de custo competitivo Tendo em vista que cada nova gera o introduz um acr scimo de desempenho com magnitude da ordem de d cimos mesmo modestos agrupamentos de pro cessadores n o t o atuais s o vi veis no que diz respeito ao desempenho global Este aspecto se potencializa ainda mais se a escolha tecnol gica do hardware para interliga o n o apresentar custo elevado Esta tend ncia em parte respons vel pela popularidade das esta es de traba lho em rede de alta velocidade 100 Mbps no m nimo como alternativa de equi VERSAO 0 6 P GINA 74 GUIA CLUSTER 5 1 5 APLICACOES EXTREMAMENTE COMPLEXAS pamento para processamento paralelo CULLER 128 E ainda mais refor ada com as quedas de pre os das in
349. inda um conjunto de conceitos que alguns autores dividem em tr s grupos os atributos os meios pelos quais ser alcan ada e as amea as Nas pr ximas sess es estes tr s grupos ser o me lhores vistos VERSAO 0 6 P GINA 93 GUIA CLUSTER 6 2 1 AMEACAS 6 2 1 Amea as Um defeito definido como um desvio da especifica o ou a transi o de estado do servi o de um sistema de correto para um servi o incorreto Deve ser evitado que o sistema apresente defeitos pois estes n o podem ser tolerados Define se falha ou falta como a causa f sica ou algor tmica do erro Falhas est o associadas ao universo f sico erros ao universo da informa o e defeitos ao uni verso do usu rio Assim um chip de mem ria que apresenta uma falha em um de seus bits falha no universo f sico pode provocar uma interpreta o errada da informa o armazenada em uma estrutura de dados erro no universo da in forma o e como resultado o sistema pode negar autoriza o de embarque para todos os passageiros de um v o defeito no universo do usu rio gt FALHA ERRO gt DEFEITO gt O entendimento da rela o de depend ncia entre falhas erros e defeitos a base para o conhecimento da patologia da falha Essa rela o como mostrado acima pode ser utilizada em outros componentes n o apenas f sicos e a sua utiliza o recursiva ajuda na an lise de sistemas em diferentes n veis de abstra o Inf
350. inframes e supercomputadores Mainframes s o sistemas de computa o dedicados normalmente ao processa mento de um volume grande de informa es e transa es Os mainframes s o capazes de oferecer servi os de processamento a milhares de usu rios atrav s de milhares de terminais conectados diretamente ou atrav s de uma rede S o computadores que geralmente ocupam um grande espa o f sico e necessitam de ambiente especial para seu funcionamento Os mainframes s o capazes de reali zar opera es em grande velocidade e sobre um volume muito grande de dados Os mainframes nasceram em 1946 e foram constantemente aperfei oados Em 7 de abril de 1964 a IBM apresentou o System 360 mainframe que na poca foi o maior projeto de uma empresa Desde ent o outras empresas como a HP e a Burroughs atual Unisys lan aram seus modelos de mainframe Supercomputador um computador com alt ssima velocidade de processamento e grande capacidade de mem ria empregado em pesquisas cient ficas e militares Este termo geralmente confundido com cluster um tipo de supercomputador criado a partir da coopera o de v rios computadores convencionais Os pri meiros supercomputadores foram criados na d cada de 1960 por Seymour Cray Seymour Cray fundou sua pr pria empresa a Cray Research em 1970 e dominou o mercado da supercomputa o durante 25 anos 1965 1990 20 Top500 362 uma lista dos 500 maiores sistemas computacionais
351. io Correia Sales Exemplo de arquitetura mimd clusters Technical report Projeto final de curso do INSTITUTO DE CIENCIAS MATEM TICAS E DE COMPUTA O USP 2005 160 M Eisler Nfs version 2 and version 3 security issues and the nfs proto col s use of rpcsec gss and kerberos v5 http rfc ref org RFC TEXTS 2623 chapter2 html Ultima Visita em 20 12 2005 12 12 161 Ted EL REWINI Hesham LEWIS Distributed and Parallel Computing Man ning Publications Co 1998 162 W R Elwasif J S Plank and R Wolski Data staging effects in wide area task farming applications In IEEE Internetional Sysmposium on Cluster Com puting and the Grid Brisbane Australia May 2001 IEEE Computer Society Press 163 enbd Ultima Visita em 20 04 2005 12 20 164 D H J Epema M Livny R van Dantzig X Evers and J Pruyne A worldwide flock of Condors load sharing among workstation clusters Journal on Future Generations of Computer Systems 12 1 1996 165 D HJ Epema M Livny R van Dantzig X Evers and J Pruyne A worldwide flock of Condors Load sharing among workstation clusters Future Generation Computer Systems 12 53 65 1996 166 Geist et al PVM Parallel Virtual Machine A User s Guide and Tutorial for Networked Parallel Computing MIT Press 1994 167 Huican Zhu et al Adaptive load sharing for clustered digital library ser vers In Proceedings of 7th IEEE International Symposium on High Performa
352. ionalmente h um escalonador que controla os recursos do sistema i e n o h como usar os recursos sem a autoriza o do escalonador Por exemplo o sistema operacional controla o computador no qual roda decidindo quando e aonde no caso de multiprocessadores cada processo executa Chamaremos estes escalonadores de escalonadores de recursos Uma caracter stica importante dos escalonadores de recurso que eles recebem solicita es de v rios usu rios e portanto tem que arbitrar entre estes v rios usu rios o uso dos recursos que controlam Devido grande escala ampla distribui o e exist ncia de m ltiplos dom nios administrativos n o poss vel construir um escalonador de recursos global para Grids Uma raz o para isto que sistemas distribu dos que dependem de uma vis o global coerente necess ria ao controle dos recursos apresentam problemas de escalabilidade Al m disso muito dif cil sen o imposs vel convencer os administradores dos recursos que comp em o Grid a abrir m o do controle de seus recursos Assim sendo para utilizar recursos controlados por v rios escalonadores de re curso distintos algu m tem que i escolher quais recursos ser o utilizados na execu o da aplica o ii estabelecer quais tarefas cada um destes recursos rea lizar e iii submeter solicita es aos escalonadores de recurso apropriados para que estas tarefas sejam executadas Esta o papel do escalonador
353. iras Certamente essa uma situa o simples de contornar por m ainda assim pode causar preju zos para o usu rio da aplica o cliente que requisitou a renderiza o da imagem Portanto necess rio munir o cliente de mecanismos e estrat gias de prote o contra este tipo de sabotagem V rias estrat gias de toler ncia sabotagem j foram propostas para ambientes de computa o volunt ria onde essa pr tica parece ter um maior impacto j que os volunt rios em geral n o s o confi veis 322 Um caso cl ssico foi o do Seti home onde o que motivava a sabotagem era apenas o aspecto fama 59 Volunt rios que mais fornecessem o servi o de execu o para estas infraestrutu ras figuravam em um ranking Assim atrav s de uma modifica o no servi o de execu o se tornava poss vel enganar o sistema retornando um resultado in v lido que era contabilizado como trabalho til e melhorava a posi o daquele volunt rio no ranking Assim uma estrat gia simples usar o que se chama de majority voting 322 que replica a execu o de uma unidade de trabalho entre v rios volunt rios do sistema e espera at que um n mero m de resultados finais coincidentes sejam retornados Por m esse esquema tem suas limita es Por exemplo suponha um ambiente com um n mero grande de volunt rios que retornam resultados inv lidos A replica o crescer bastante em fun o deste n mero para tolerar essa quantidad
354. is importante de um Condor Pool o Matchmaker O Matchmaker aloca tarefas a m quinas pertencentes ao Pool Tal aloca o baseada nas necessi dades de cada tarefa e nas restri es de uso de cada m quina As necessidades de uma tarefa s o especificadas pelo usu rio quando de sua submiss o Por exem plo uma tarefa pode precisar de uma m quina Sun Sparc rodando Solaris com pelo menos 256M B de mem ria J as restri es de uso de uma dada m quina estas s o especificadas por seu dono quando da inclus o da m quina no Pool Por VERSAO 0 6 P GINA 343 GUIA CLUSTER 13 4 4 CONDOR exemplo o dono pode preferir que sua m quina execute as aplica es de Jo o se guido das aplica es do grupo de sistemas operacionais e que nunca execute as aplica es de Pedro Ou seja as restri es permitem ao dono determinar como sua m quina ser usada no Condor Pool Tipicamente o dono estabelece tam b m que sua m quina s usada quando estiver ociosa e que quando ele voltar a utilizar a m quina qualquer aplica o Condor em execu o seja suspensa ime diatamente Um aspecto interessante do Condor que ambos usu rios e donos de m quinas s o representados no sistema por agentes de software O Customer Agent Agente do Usu rio envia as necessidades da tarefa para o Matchmaker De forma simi lar Resource Owner Agent envia as restri es de uso do recurso ao Matchmaker Ao efetuar o casamento de padr es entr
355. itecture for Computational Economy desej vel que uma solu o para o problema de incentivo participa o no Grid forne a flexibilidade no que se refere as pol ticas de compartilhamento de recur sos Ou seja necess ria a exist ncia de mecanismos que garantam o comparti lhamento de recursos de forma escal vel Al m disso dever ser poss vel para o cliente expressar seus requisitos bem como os provedores expressarem as condi es de fornecimento servi o Assim acompanhando a met fora usada inicialmente baseada na id ia do The Electric Grid que serviu para tra ar os objetivos dos Grids Computacionais a aplica o de modelos econ micos tamb m se baseia no fato que j existem abor dagens baseadas em leil o para o mercado de energia el trica 25 Portanto a introdu o de modelos de compartilhamento mais sofisticados base ados em economia promete uma infraestrutura mais flex vel e poderosa para o compartilhamento de recursos e constru o de Grids Um exemplo de investi mento nessa rea de pesquisa o GRACE GRid Architecture for Computational Economy 99 A arquitetura do GRACE foi pensada levando em considera o os requisitos que uma infraestrutura de economia computacional deve preencher VERSAO 0 6 P GINA 294 GUIA CLUSTER 13 2 6 DISPONIBILIZA O DE SERVI OS Logo inspirado pela id ia de mercados os princ pios de projeto da arquitetura sao 1 Um diret rio onde seja pos
356. iva do fato que em programas l gicos n o determin sticos existem v rias respostas v rios caminhos que satisfazem o objetivo Paralelismo E em termos da rvore de metas vide figura 11 3 o paralelismo E corresponde constru o paralela de uma ramifica o Neste caso quando o processo de busca reconhece que um n mero de passos deve ser efetuado para completar um ramo ele pode iniciar processos paralelos para avaliar estes passos Outra fonte de paralelismo impl cito na programa o em l gica o paralelismo de unifica o O paralelismo disponibilizado de baixa granulosidade e para ser explorado com efici ncia exige hardware especializado O paralelismo E por sua vez pode ser explorado entre literais independentes sem possibilidade de conflito na atribui o de valores a vari veis ou entre quaisquer literais s custas de um mecanismo mais complexo de detec o e ge r ncia do paralelismo Exemplo de Explora o do Paralelismo A grande maioria dos modelos que exploram paralelismo na programa o em l gica implementam a linguagem Prolog STERLING 344 e utilizam a WAM Warren Abstract Machine WARREN 378 AIT KACI 49 como estrat gia de compila o O OPERA BRIAT 96 GEYER 195 um exemplo de modelo que explora de forma impl cita o paralelismo OU Neste modelo o paralelismo explorado de forma multisequencial no qual cada processador ativo est em determinado mo mento tr
357. kups of mysql using replication http www onlamp com pub a onlamp 2005 06 16 MySQLian html Lvs mini howto http www austintek com LVS LVS HOWTO mini HOWTO Modifying slony clusters hnttp www onlamp com pub a onlamp 2005 03 17 slony changes html Mygrid site http www ourgrid org mygrid Mysql reference manual http dev mysql com doc refman 5 1 en index html PAGINA 391 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 14 OMG object management group http www omg org corba 15 Pargres http pargres nacad ufrj br 16 Pargres uma camada de processamento paralelo de consultas sobre o postgresql http pargres nacad ufrj br Documentos id_9830_ wsl2005_pargres pdf 17 Pgcluster http pgcluster projects postgresql org 18 Pgpool http pgpool projects postgresql org 19 Postgresql http www postgresql org 20 Replication in mysql http www linux mag com content view 1599 071707 21 RMI remote method invocation specification http java sun com products jdk rmi index jsp 22 Seti home site http setiathome ssl berkeley edu 23 Simgrid site http gcl ucsd edu simgrid 24 United devices site http www ud com 25 ISO New England Electricity trading over the internet begins in six new england states Business Wire http industry java sun com javanews stories story2 0 1072 15093 00 html1 May 1999 26 The evolution of UDDI UDDI org white pa
358. l ticas de caching Qual o custo Sob o ponto de vista de software Sequoia um software de c digo aberto li cenciado sob a Licen a Apache v2 significando que seu uso pessoal ou co mercial livre de qualquer taxa Se voc estiver usando um SGBD comercial Oracle DB2 haver os custos das licen as adicionais para n s extras nos quais voc instalar r plicas de seu banco Mas poss vel o uso de bancos de c digo aberto para hospedar r plicas de seu banco de dados principal M quinas extras s o necess rias para maior performance e maior toler ncia a falhas Sequoia foi desenhado para trabalhar com m quinas de baixo custo pois s o estas os alvos primeiros de solu es em c digo aberto de baixo custo mas ele funciona igualmente bem em grandes m quinas SMP Uma placa de rede comum VERSAO 0 6 P GINA 217 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA suficiente para uma boa performance Quais modifica es s o necess rias Voc n o necessita de qualquer mudan a em sua aplica o ou seu banco de dados E necess ria apenas a atualiza o da configura o do driver JDBC usado por sua aplica o usualmente apenas a atualiza o de um arquivo de configura o e os ajustes no arquivo de configura o do Sequoia RAIDb b sico A equipe de desenvolvimento do C JDBC antigo nome do projeto Sequoia criou e implementou o conceito de RAIDb RAIDb est para bancos de dados assim como RAID
359. l uma tarefa enviada para este processador Quando n o h mais tarefas para enviar i e a fila de tarefas est vazia uma das tarefas em execu o replicada Quando uma das replicas termina as demais r plicas s o abortadas pelo escalonador Para evitar o desperd cio de poder computacional estabelecido o m ximo de replicas que uma tarefa pode ter Nossos experimentos mostraram um resultado bastante animador eles indicam que grande parte do ganho de desempenho obtido pelo WOR se manifesta com um grau de replica o 2 Considere a Figura 13 14 que mostra o desempenho do WQR em compara o com o Workqueue o Sufferage 226 um bom escalonador baseado em informa es sobre o Grid e sobre as tarefas e com o Dynamic FPLTF Dynamic Fastest Processor to Largest Task First outro bom escalonador que utiliza informa es sobre o Grid e sobre as tarefas Este resultado apresenta o tempo m dio obtido pelos quatro algoritmos de escalonamento em fun o da heterogeneidade das ta refas quanto maior mais heterog neo Note que WQR foi executado tr s vezes com replica o m xima de 2 3 e 4 processadores Observe tamb m que Suf ferage e Dynamic FPLTF tiveram informa o perfeita sobre o desempenho dos recursos do Grid bem como das tarefas que formam a aplica o algo inating vel na pr tica Portanto um excelente resultado o fato de WOR obter desempenho compar vel com Sufferage e Dynamic FPLTF baseados em informa
360. l Balanceame tode cafga cs e ccsa ccs e soye ey E a 186 8 22 Compartilhamento de sess es o sra 2 s bee ees 189 8 2 Heartbeat rar RD PRE aaa aE aa RA GRA 190 DE MC es ca Se sh ea aE MONDE Wee a Ne a e a 191 9 Cluster de Banco de Dados 195 9 1 Banco de Dados Distribu dos oaaae 199 VERSAO 0 6 PAGINA XIX GUIA CLUSTER SUMARIO 9 2 Replica o de Banco de Dados 4 654 i608 Sey bee Sea we nas 200 DE Postrel sa ot a Oh OOOO ODEON ES EO 202 Yok PERC ces eed oh CRASH EE SHR SEK SRR OES 202 932 Fis ec saci Pad oe EEE RES o Be do A do ERA ES 205 Joa DM serpeire reias HSS KG ORS HE E 208 94 IW e ei Ka Ky Re EH WR aR HR ay Re AE E 209 94 1 Replica o em MySQL 2 256 bbe eee ee ene 209 Dae WiC is 6 eH EEE GEES HESS ES amp S 213 9 5 Middlewares independentes de Banco de Dados 214 9 5 1 Middleware Sequoia io 2424s heehee eG eee HESS 214 doa PRE i326 56 pri DADA HEE ORR 230 10 Alta Capacidade de Processamento HPC 232 10 1 Beowulf s isd CREA EMA ED DS DE HESS 232 10 2 Sistema de Imagem Umea 9S o ss 62 2524 ias hE ek 233 10 2 1 As Principais Caracter sticas de um Cluster SSI 234 10 2 2 Os principais benef cios de um sistema SSI 236 10 2 3 Mem ria Distribu da Compartilhada DSM 237 10 24 OpenMosix lt sasaaa PEA NGS RE RI TS 238 10 2 9 NEM ororen pen pec pe spea REDE ER a 241 VERSAO 0 6 P GINA XX GUIA CLUSTER SUMARIO 11 Ferramentas de Programa o Paralela 244 1
361. l open source http www jboss org Ultima Visita em 20 09 2004 12 20 VERSAO 0 6 PAGINA 407 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 209 Ibrahim F Haddad Pvfs A parallel virtual file system for linux clus ters http www linuxjournal com article 4354 Ultima Visita em 20 09 2005 12 12 210 Michael HANUS The integration of functions into logic programming from theory to practice Journal of Logic Programming 19 20 1 583 628 may july 1994 211 S Hastings T Kurc S Lamgella U Catalyurek T Pan and J Saltz Image processing for the grid A toolkit for building gird enabled image proces sing applications In 3rd IEEE ACM Internetional Symposium on Cluster Com puting and the Grid 2003 212 A Hefez Curso de Algebra volume 1 IMPA 1993 213 F HERMENEGILDO M ROSSI Prolog and its Performance Exploiting Inde pendente And Parallelism MIT Press 1990 214 hilip H Carns Robert B Ross Walter B Ligon III and Pete Wycko Bmi A network abstraction layer for parallel i o http www osc edu pw papers carns bmi ipdps05 pdf Ultima Visita em 20 12 2005 12 12 215 Karen Epper Hoffman Ending the grid lock http www technologyreview com March 2005 216 T Hogg and B A Huberman Controlling chaos in distributed systems IEEE Transactions on Systems Man and Cybernectics 21 1325 1332 1991 217 John H Howard Michael L Kazar Sherri G Menees David A Nichols M Satyanarayanan
362. laypen de uma dada tarefa o nome da m quina do Grid esco lhida para executar a tarefa e um identificador da tarefa 13 4 3 OurGrid Ao contr rio do Globus a solu o OurGrid tem um escopo diferente por m com plementar O objetivo prover uma solu o efetiva para a execu o de aplica es Bag of Tasks em Grids Computacionais Sendo assim as decis es de projeto es t o centradas no uso da solu o em ambientes de produ o Portanto a id ia b sica abdicar da generalidade em alguns casos no intuito de se obter uma so lu o apesar de simples eficiente e que possa ser facilmente usada em produ o A arquitetura do OurGrid brevemente comentada na Se o 13 2 6 e ilustrada na Figura 13 5 formada por tr s componentes MyGrid Broker ver Se o 13 4 2 OurGrid Peer e uma solu o de sandboxing baseada na m quina virtual Xen 81 Nas se es seguintes descreveremos como os componentes do OurGrid abordam alguns aspectos importantes da Computa o em Grid Autentica o Na arquitetura OurGrid existem basicamente dois n veis de autentica o Esses n veis dependem de como o usu rio obteve o recurso Primeiramente o usu rio pode ter acesso direto a alguns recursos i e Grid Machines GUMs em sua rede local neste caso o usu rio usa o esquema de autentica o tradicional em geral isso implica na utiliza o da infraestrutura de autentica o do sistema operacio nal do recurso ou seja nome
363. le menta o Em fun o disto se torna uma tarefa trabalhosa desenvolver software empregando tais modelos porque tanto a sua corre o quanto seu desempenho somente podem ser atingidos pela criteriosa aten o de um grande n mero de detalhes Os primeiros modelos para o paralelismo na sua grande maioria atuavam neste n vel normalmente voltados para um particular tipo de arquitetura e com sua execu o paralela gerenciada de forma totalmente expl cita Exemplo de Explora o do Paralelismo Um conhecido exemplo de explora o de paralelismo neste n vel a linguagem SR Synchronizing Resources ANDREWS em 63 e 64 e ANDREWS e OLSSON em 66 67 e 68 Nesta linguagem est o presentes as caracter sticas usuais do paradigma convencional imperativo tais como tipos vari veis atribui o des trutiva comandos de controle de repeti o comandos de sele o simples e m lti pla procedimentos etc Para explora o do paralelismo SR fornece mecanismos espec ficos para gerenciamento da concorr ncia comunica o e sincroniza o VERSAO 0 6 P GINA 271 GUIA CLUSTER 11 3 6 MODELOS NOS QUAIS O PARALELISMO E EXPLORADO DE FORMA TOTALMENTE EXPLICITA Em SR um programa pode ser formado por diversos espa os de endere amento m quinas virtuais os quais podem estar localizados em m ltiplos computado res m quinas f sicas Os processos residentes em um mesmo espa o de endere amento podem compart
364. lismo ocorria com a aplica o de forma independente e repetida de uma mesma opera o sobre dados diferentes Tal si tua o permitia o uso de processadores com registradores vetoriais com os quais o paralelismo era explorado associado a um custo reduzido de controle das re peti es Com o desenvolvimento das arquiteturas matriciais SIMD as mesmas se torna ram timas candidatas para processar em paralelo o c digo vetorizado Por sua vez o c digo para arquiteturas matriciais pode ser eficientemente executado em multiprocessadores Deste modo o paralelismo de dados inicialmente destinado a pipelines vetoriais pode atualmente ser explorado em diversas arquiteturas paralelas Assim genericamente o paralelismo de dados uma estrat gia na qual as ro tinas paralelas s o composi es de opera es que s o aplicadas a dados de um determinado tipo e que produzem resultados do mesmo tipo Fonte de paralelismo No caso mais usual o paralelismo de dados envolve estruturas de dados orga nizadas na forma de matrizes de dimens es variadas estruturas regulares e o paralelismo se viabiliza quando estes dados s o pass veis de manipula o inde pendente Esta manipula o independente comum na lgebra matricial Exemplo de Explora o do Paralelismo Como exemplos t picos de modelos que exploram paralelismo de dados surgem os diversos dialetos FORTRAN O HPF High Performance Fortran THAKUR 357 MEHROTRA
365. liza o do uso de recursos p blicos em tecnolo gia da informa o independ ncia tecnol gica e inser o do uso de tecnologias inovadoras no Governo Federal At 2004 a Secretaria n o dispunha de um laborat rio para a implementa o de projetos piloto provas de conceito e prospec o Tecnol gica Esta car ncia de laborat rio muitas vezes dificultava a realiza o dos projetos desenvolvidos pelo Departamento de Integra o de Sistemas de Informa o uma vez que o referido Departamento via se obrigado a depender de atores externos que nem sempre possuem a possibilidade de atender as demandas dentro do prazo exeqiiivel O primeiro laborat rio piloto foi implementado com esta es de trabalho do pr prio minist rio para atender a demanda de otimiza o de compras governamen tais atrav s do uso de tecnologia baseada em data minning para pesquisar os melhores e piores padr es de compra O software utilizado neste projeto foi o Tamandu um software de minera o de dados em Cluster desenvolvido pela UFMG com recursos de financiamento do Governo Federal atrav s da FINEP e disponibilizado como software livre Este laborat rio piloto era composto por um conjunto de 8 m quinas desktop interligadas em um switch 100Mbps dedicado de 12 portas e configuradas como um Cluster de processamento baseado em tecnologia PVM Os resultados deste projeto foram muito proveitosos e a Secretaria resolveu in vestir na cria o d
366. logias de informa o e comunica o em um pa s As sim uma decis o do governo em apoio a uma tecnologia ou servi o pode abrir algumas avenidas de atividades ao setor privado bem como conduzir outras a VERSAO 0 6 P GINA 8 GUIA CLUSTER 2 2 GOVERNO ELETRONICO BRASILEIRO becos sem sa da Terceiro porque o governo com o uso exemplar de tecnologias de informa o e comunica o em suas atividades pode acelerar grandemente o uso dessas tecnologias em toda a economia em fun o da maior efici ncia e transpar ncia de suas pr prias a es Livro Verde 135 2 2 Governo Eletr nico Brasileiro O Governo Eletr nico foi concebido como instrumento de transforma o da so ciedade brasileira estabelecendo diretrizes e par metros para a cria o de uma sociedade digital Com o passar do tempo a chamada Sociedade da Informa o apresentou no vos paradigmas que mereciam igualmente a aten o do Governo Eletr nico Assim em suas diretrizes foram explicitados O papel do Estado neste mundo em transforma o continua funda mental como agente estrat gico para o atendimento da demanda de maior participa o direta dos cidad os e ao mesmo tempo a tomada de decis es centrais estrat gicas e r pidas O crescimento das informa es em rede o aumento da transpar ncia e a consequente diminui o da burocracia estatal aumentar o o controle social sobre o Estado o que contribuir para
367. lonamento de tarefas para clusters e grids s o softwares desenvolvidos para controlar a execu o dos jobs ou tarefas no ambiente Esse tipo de software composto normalmente por um gerenciador de filas de processamento batch queue manager que pri oriza e controla a execu o de m ltiplas tarefas Job schedulers s o tamb m normalmente conhecidos como gerenciadores de distribui o de recursos ou ge renciadores de filas de execu o As caracter sticas b sicas esperadas de um job scheduler s o Interface para se definir o fluxo e ou a rvore de depend ncia de execu o dos trabalhos Submiss o autom tica das tarefas para execu o Interfaces para monitoramentos das execu es Controle das prioridades e das filas de tarefas para controlar a ordem de execu o das tarefas V rios sistemas como ERPs Bancos de dados sistemas de c pias de seguran a incluem ou podem usar algumas caracter sticas de sistemas de agendamento de tarefas VERSAO 0 6 P GINA 273 GUIA CLUSTER 12 1 OPENPBS Alguns exemplos de ferramentas utilizadas em ambientes de cluster para job scheduler ser o descritos a frente e openPBS 12 1 e TORQUE 12 2 e MAUI 12 3 12 1 OpenPBS O prop sito do sistema OpenPBS prover controles adicionais sobre a inicializa o ou o seqii nciamento de execu o de grupos de tarefas e permitir a distri bui o destes trabalhos entre v rios n s de um cl
368. luster e Grid N o existe tecnologia pior ou melhor do ponto de vista global cada tecnologia possui seu nicho de utiliza o e aplica o cabe ao gestor do sis tema ou aplica o realizar a devida an lise e verificar quais procedimentos de vem ser realizados Ao menos que a mudan a tecnol gica seja transparente para o usu rio do sistema como em todas as mudan as poder vir a ser necess rio realizar altera es nos sistemas treinamento e capacita o dos usu rios e desen volvedores desenvolvimento de novas aplica es baseadas no novo paradigma VERSAO 0 6 P GINA 41 GUIA CLUSTER 3 2 1 TABELA RESUMO DAS GERA ES DE COMPUTA O DISTRIBU DA Cinco Gera es de Computa o Distribu da Gera o Caracter sticas Primeira Computa o baseada em Host e Terminal Burro e Um servidor e Aplica es Monol ticas Segunda Acesso Remoto e Um cliente suportando somente fun es de emula o de terminal e Um Servidor Terceira Cliente Servidor e Um cliente suportando regras de pro cessamento bem como interfaces de usu rio e At dois servidores Quarta Multi camadas e Um cliente suportando regras bem como interfaces de usu rio e Mais de duas camadas de servidores Quinta Grid e Ambiente virtual onde todos os siste mas s o considerados um pool de re cursos e N camadas e Arquiteturas orientadas a servi o Tabela 3 1 Tabela d
369. luster podem ser uma solu o agrad vel para os administradores de sistemas mas preciso dominar e entender essas ferramentas com profundidade Ferramentas como o OSCAR Rocks e XCAT simplificam a instala o e o ge renciamento de clusters neste caso cluster de processamento de alto desempe nho Qualquer um destes pacotes provavelmente instalar e configurar boa parte das suas necessidades b sicas Assim como estes pacotes existem outros que facilitam a utiliza o de clusters como o RHCS que apontado para sistema de HA Supere o desejo pelo mais recente Tenha como meta a ser alcan ada um cluster em funcionamento que atenda de melhor forma as necessidades levantadas Sendo assim muito improv vel que n o se precise da vers o mais recente de distribui es Linux Equipamentos de cluster est o baseado nas distribui es de Linux mais comuns mas leva tempo para se adaptarem aos novos lan amentos Na maioria dos clusters os usu rios notar o diferen as apenas no n de entrada do sistema Para os n s de trabalho ex o tamanho do cluster n o importa qual distribui o de Linux est execu tando contanto que execute a tarefa para a qual foi projetado Plano para expans o e reposi o desde o princ pio O ciclo de vida de equipamentos de inform tica curto e isto fica muito evidente quando se come a a pensar na evolu o do cluster de como gerenciar toda a ne cessidade de expan
370. lva a informa o correta sendo a comunica o e a sincroniza o feita atra v s da pr pria mem ria VERSAO 0 6 P GINA 237 GUIA CLUSTER 10 2 4 OPENMOSIX Para se reduzir lat ncia de mem ria ou seja os tempos de acesso mem ria e retorno da resposta as caches privadas a cada processador s o utilizadas pois em sistemas DSM h uma grande sobrecarga com a localiza o dos dados e acesso a mem ria distribu da ficando esses caches com a fun o de buffers tempor rios para que n o se desperdice ciclos do processador Quando um programa feito existe uma ordem especifica de acesso a mem ria chamada consist ncia sequencial Num cluster essa consist ncia invi vel pois os n s teriam que esperar a sua vez de acessar a mem ria para assim continuar processando isso geraria perda de desempenho e tr fego excessivo na rede Para isso foram desenvolvidos modelos de consist ncia que levam em considera o que nem todos os n s processadores precisam naquele momento do conte do atualizado Esses modelos implementam m todos que tentam evitar ao m ximo as condi es de corrida ou seja acesso simult neo ao mesmo dado Cada n possui um mape ador de mem ria local onde ela particionada em blocos sendo a cache utilizada para reduzir a lat ncia de acesso mem ria remota e sendo a mem ria principal dos n s um cache da DSM formando assim uma hierarquia simples de mem ria ou seja cada n enxer
371. m ltiplos n s e Alto desempenho no acesso em modo usu rio Para que um sistema de arquivos paralelo possa ser usado de maneira f cil ele deve prover um espa o de nomes nico em todo o aglomerado e deve ser poss vel acess lo atrav s de utilit rios comuns Para prover acesso de alto desempenho para os clientes do aglomerado os dados armazenados no PVFS est o distribu dos entre os v rios n s que comp e o aglo merado assim como o BRIDGE faz por m usando algoritmos de distribui o diferentes Cada um desses n s chamado de I O node Dessa forma para se obter os dados de um determinado arquivo necess rio acessar v rias m quinas utilizando se assim de v rios caminhos pela rede para chegar aos respectivos discos em que est o armazenados Isso elimina o gargalo da transfer ncia de dados que se tem quando toda a informa o esd em uma s m quina distribuindo a carga e aumentando o potencial total da banda para m ltiplos clientes Usar mecanismos tradicionais de chamadas de sistema para acesso a arquivos pode ser conveniente mas pode causar uma sobrecarga muito grande para o sis tema como um todo especialmente o kernel Assim poss vel acessar os arqui vos do PVFS usando uma API Application Programming Interface disponibilizada como biblioteca que cont m opera es comuns al m de outras espec ficas do PVES que contactam diretamente os servidores evitando acessos ao kernel local Essas
372. m rias locais Essa arqui tetura caracterizada por ter at milhares de processadores N o h um com partilhamento forte sendo as comunica es entre processos feitas por troca de mensagens entre os processos que est o sendo executados nos processadores Um exemplo de uma configura o de multicomputadores a cria o de um clus ter com PCs convencionais usando uma rede local ethernet Diferente da configu ra o de multiprocessadores em que necess rio utiliza o de um comutador especial esse tipo de cluster utiliza pe as encontradas em qualquer loja de infor m tica 6 1 4 Multiprocessadores Sim tricos Symmetric Multiproces sors SMP Estes ambientes s o conhecidos como arquiteturas de compartilhamento total s o caracterizadas por at dezenas de processadores compartilhando os mesmos recursos computacionais e rodando um nico sistema operacional Os processa dores s o considerados sim tricos porque tem os mesmos custos para acesso a mem ria principal A utiliza o de SMP mais popular do que se imagina a utiliza o deste tipo de m quina j cotidiano em grande parte das organiza es de hoje e tamb m vem ganhando espa o em reas menores reflexo da alta redu o de custos destes equipamentos Um problema desta arquitetura sua escalabilidade pois com o aumento do n mero de processadores a taxa de colis o de acesso mem ria tamb m cresce sendo necess rio a utiliza
373. m MPP e computadores de v rios tipos co nectados via Internet Note que um destes computadores realiza instrumenta o no exemplo atrav s de um microsc pio enquanto outro computador disp e de grande capacidade para armazenamento de dados Internet H me oft tits Figura 13 10 Arquitetura de um Grid Computacional A Tabela 13 1 resume as caracter sticas das plataformas de execu o de aplica es paralelas discutidas aqui Mantenha em mente entretanto que a Tabela 13 1 VERSAO 0 6 P GINA 306 GUIA CLUSTER 13 3 1 PLATAFORMAS PARA PROCESSAMENTO PARALELO descreve caracter sticas t picas dos diferentes tipos de plataformas de execu o Certas plataformas podem apresentar caracter sticas arquiteturais adicionais que impactam na performance das aplica es paralelas que nela executam Por exem plo alguns MPPs oferecem suporte de hardware a mem ria compartilhada atra v s de uma tecnologia denominada DSM Distributed Shared Memory o que melhora o desempenho de aplica es baseadas em mem ria compartilhada Uma vez que Grids s o o nosso foco neste texto caso o leitor queira mais detalhes so bre plataformas de execu o de aplica es paralelas tradicionais SMPs MPPs e NOWs sugerimos a leitura do trabalho de De Rose e Navaux 312 Mesmo quando n o h distin es arquiteturais diferentes plataformas do mesmo tipo podem diferir consideravelmente Em particular um Grid pode d
374. m conjunto de servidores que podem atend lo Se todos os n s do conjunto estiverem sobrecarregados o Director apanha um servidor com menos conex es e o adiciona ao conjunto Caso este conjunto n o se modificar em um intervalo de tempo espec fico seis minutos intervalo padr o como definido do c digo do IPVS o servidor com maior carga ser exclu do 8 1 4 Casos de uso de LVS Muitas empresas utilizam o LVS para suprir a demanda por uma grande capa cidade de processamento de requisi es e para poder dividir balancear a carga de seus sistemas por outras localidades m quinas remotas melhorando assim o atendimento das demandas de acesso a seus sistemas e s tios WEB Alguns exemplos de s tios e empresas que utilizam a tecnologia s o lista dos abaixo Mais casos de uso podem ser encontrados em http www linuxvirtualserver org deployment html VERSAO 0 6 P GINA 183 GUIA CLUSTER 8 2 CLUSTER TOMCAT Sitio Forma de utiliza o Balanceamento de carga HTTP https linux com Balanceamento de carga HTTP HTTPS http sourceforge net FTP SSH CVS Balanceamento de carga HTTP http themes org 40 servidores Squid em 3 clusters LVS http wwwcache ja net Balanceamento de carga HTTP http www zope org Um Director rodando em modo VS DR com mais de 6 n s de servidores Windows 2000 www songn com Tabela 8 1 Exemplos de Sitios que utilizam LVS 8 2 Cluster Tomc
375. m o sistema S o tais abstra es que nos permitem expressar o queremos fazer Elas tamb m nos permitem nomear os dados persistentes que temos arma zenados no sistema Atrav s destas abstra es b sicas fornecidas pelo sistema operacional o usu rio tem uma imagem do sistema formada pelo conjunto de objetos que ele pode manipular e pelas regras de manipula o destes objetos Plataformas de execu o de aplica es paralelas que tem uma nica inst ncia do sistema operacional SMPs automaticamente fornecem a seus usu rios uma imagem nica do sistema J em plataformas que cont m v rias inst ncias do sistema operacional MPPs NOWs e Grids necess rio construir uma imagem consistente do sistema Uma imagem consistente do sistema cria a ilus o ainda que imperfeita que os objetos que o usu rio pode manipular s o acess veis da mesma forma de qualquer processador que comp e a plataforma MPPs e NOWs contam com boa conectividade e administra o centralizada Isso permite a configura o dos processadores que comp em a plataforma para com partilhar o mesmo cadastro de usu rios e os sistemas de arquivo mais importante o home por exemplo criando assim uma imagem razoavelmente consistente do sistema Grids por outro lado s o amplamente dispersos e muitas vezes sob controle de diversas entidades administrativas distintas N o fact vel por exemplo simplesmente montar o mesmo home em todos os processadores que
376. ma grande preocupa o em manter a compatibilidade com os padr es SQL92 SQL99 5QL2003 Postgresgl BR 19 As capacidades de Replica o e Clusteriza o s o feitas atrav s de mid dlewares externos pr prios para o PostgreSQL como o pgpool e o PGclus ter que s o detalhados a seguir 9 3 1 pgpool pgpool 18 um middleware para PostgreSQL distribu do sob licen a BSD que se situa entre os clientes e os servidores de banco de dados pro vendo alta disponibilidade replica o e balanceamento de carga Al m destas caracter sticas em comum com outros sistemas similares pgpool adicionalmente salva conex es com os servidores PostgreSQL por ele co ordenados pgpool atualmente trabalha apenas com dois servidores Post greSQL reutilizando as quando uma nova conex o com mesmas proprie dades nome de usu rio banco de dados protocolo chega reduzindo so brecarga de conex o e aumentando a taxa de transfer ncia de todo o sis tema Como sistema de replica o de dados pgpool permite backup em tempo real de bancos de dados enviando as mesmas declara es SQL para ambos os servidores podendo ser considerado um sistema de replica o s ncrona Apesar disto algumas instru es SQL s o dependentes do servidor no qual s o executadas como fun es aleat rias OID XID e timestamp n o sendo replicadas com o mesmo valor para ambos servidores Se algum problema torna um dos servidores PostgreSQL indispon vel o p
377. madamente 300 mil compu tadores A maior parte destes equipamentos possui um padr o de utili za o semelhante onde s o grandes os per odos de tempo de inatividade ou ociosidade destes equipamentos Esta imensa capacidade computacio nal poderia ser utilizada para a execu o de sistemas de governo ou para o processamento de projetos de pesquisa t cnica cient fica desenvolvidos nas universidades brasileiras e empresas p blicas brasileiras 3 2 As Gera es da computa o distribu da Durante os ltimos 20 anos a computa o distribu da passou por um processo intenso de mudan as e revolu es Este processo foi marcado por 5 gera es computacionais descritas a seguir e Primeira Gera o de Computa o distribu da A primeira gera o tamb m conhecida como host based computting ba seada na utiliza o de terminais burros que servem apenas como meio de visualiza o de aplica es softwares e dados que encontram se no com putador central Os recursos computacionais de processamento e armaze namento utilizados nesta gera o s o exclusivamente do computador que hospeda as aplica es e Segunda Gera o de Computa o distribu da Na segunda gera o passam a ser utilizados computadores clientes com uma capacidade um pouco maior capazes de suportar a emula o de ter minal entretanto as aplica es continuam sendo armazenadas e executadas em um servidor remoto e Terceira Gera o de Com
378. mary http www techfest com networking lan ethernet4 htm Ultima Visita em 20 09 2005 12 12 354 Altair Grid Technologies Openpbs technical overview http www openpbs org overview html Ultima Visita em 20 04 2006 12 20 355 Douglas Thain Jim Basney Se Chang Son and Miron Livny The kangaroo approach to data movement on the grid In Proceedings of the 10th IEEE Sym posium on High Performance Distributed Computing IEEE Computer Society Press May 2001 356 Douglas Thain Todd Tannenbaum and Miron Livny Condor and the grid In Fran Berman Geoffrey Fox and Tony Hey editors Grid Computing Ma king the Global Infrastructure a Reality John Wiley and Sons Inc December 2002 357 Alok THAKUR Rajeev CHOUDHARY Efficient algorithms for array re distribution EEE Transactionson Parallel and Distributed Systems 6 7 587 594 june 1996 358 Rajeev Thakur Romio A high performance portable mpi io imple mentation http www unix mcs anl gov romio Ultima Visita em 20 09 2005 12 12 359 S Thatte XLANG Web services for business process design 2001 360 Patrick Thibodeau Sun to allow grid use sales on e trading market http computerworld com managementtopics ebusiness story 0 10801 99463 00 html February 2005 VERSAO 0 6 PAGINA 420 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 361 B Tierney B Crowley D Gunter M Holding J Lee and M Thompson A monitoring sensor management system
379. mas de tratamento de coer ncia de cache Aplica es como banco de dados ERP e CRM s o aplica es candidatas a roda rem nessa plataforma 6 1 6 Processadores Massivamente Paralelos MPP M quinas com configura o massivamente paralelas Massive Parallel Proces sors MPP s o arquiteturas fracamente acopladas Computadores que seguem VERSAO 0 6 P GINA 90 GUIA CLUSTER 6 1 7 SISTEMAS DISTRIBUIDOS este paradigma s o usualmente classificados como multicomputadores e usual mente um n deste um multiprocessador Essa arquitetura caracterizada por milhares de n s computacionais interligados por uma rede de interconex o de alta velocidade Cada n pode ser composto por um ou mais processadores possuindo cache e mem rias locais Cada n possu tamb m seu pr prio sistema operacional onde as aplica es rodam localmente e se comunicam por sistemas de trocas de mensagens 11 1 A escalabilidade de um MPP maior do que arquiteturas de mem ria compar tilhada Os maiores computadores classificados na lista TOP500 362 usam este paradigma Uma parte importante na configura o MPP o sistema de interconex o que liga seus v rios n s Entre os principais fatores em considera o na constru o destes sistemas de interconex o s o segundo DANTAS 136 Topologia Algoritmo de roteamento Estrat gia de comuta o Controle do fluxo entre n s A escalabilidade de um MPP
380. mbard and Yves Denneulin Nfsp A distributed nfs ser ver for cluster of workstations http ka tools sourceforge net publications nfsp ipdps01 pdf Ultima Visita em 20 09 2005 12 12 262 B Lowekamp N Miller D Sutherland T Gross P Steenkiste and J Subh lok A resource query interface for network aware applications In Seventh IEEE Symposium on High Performance Distributed Computing July 1998 263 Peter Lyman Hal R Varian James Dunn Aleksey Strygin and Kirsten Swearingen How much information http www sims berkeley edu research projects how much info 2003 October 2003 264 S Machiraju M Seshadri and D Geels Introspective prefetching for mo bile users in oceanstore 2002 265 M Maheswaran S Ali H J Siegel D H and R F Freund Dynamic mapping of a class of independent tasks onto heterogeneous computing systems Journal of Parallel and Distributed Computing 59 2 107 131 1999 266 M Maheswaran S Ali H J Siegel D A Hensgen and R F Freund Dy namic matching and scheduling of a class of independent tasks onto hete rogeneous computing systems In 8th Heterogeneous Computing Workshop pages 30 45 San Juan Puerto Rico April 1999 VERSAO 0 6 P GINA 412 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 267 K Marzullo M Ogg A Ricciardi amd A Amoroso A Calkins and E Rothfus Nile Wide area computing for high energy physics In Pro ceedings 7th ACM European Operating S
381. mente O desempenho com 4 servidores replicados do CODA foi no m ximo 5 pior que o do AFS este sem replica o Por m o CODA se mostrou menos escal vel que o AFS nesses testes 325 An lise Cr tica O CODA apresenta inova es que auxiliam usu rios que necessitam de um sis tema de arquivos distribu do de alta disponibilidade Por exemplo ele permite que um usu rio defina os arquivos que devem estar acess veis a todo momento dando assim a facilidade de se conectar rede por alguns instantes atualizar seus arquivos e os da rede e voltar a se desconectar para ir trabalhar em casa como se estivesse conectado VERSAO 0 6 P GINA 159 GUIA CLUSTER 7 3 7 LUSTRE A replica o dos dados permite aumentar ainda mais essa disponibilidade e a seguran a dos dados j que n o s os servidores possuem os arquivos mas tam b m os clientes O problema que isso diminui as garantias de consist ncia dos arquivos em caso de acesso concorrente O CODA n o respeita a sem ntica de sess o ao contr rio do AFS dado que altera es realizadas por clientes desconectados s o aceitas pelo sistema mas n o s o informadas a outros usu rios Isso toler vel considerando o ganho extra de disponibilidade no sistema de arquivos 7 3 7 Lustre Projeto Lustre S tio Oficial http www lustre org Licen a GPL Respons vel eis Cluster File Systems Inc Lustre um sistema de arquivos distribu dos de c digo
382. mento dos Grids Computacio nais poucos usu rios executavam suas aplica es paralelas sobre essa infraes trutura Assim foi concebido projeto MyGrid com o intuito de alterar esta situa o Para tanto foram atacadas apenas aplica es Bag of Tasks ou seja aquelas aplica es cujas tarefas s o independentes podendo ser executadas em qualquer ordem Aplica es Bag of Tasks s o um alvo interessante porque i se adequam melhor a ampla distribui o heterogeneidade e dinamicidade do Grid e ii re solvem v rios problemas importantes tais como minera o de dados processa mento gen mico pesquisa massiva como quebra de chaves criptogr ficas var redura de par metros simula es Monte Carlo muito utilizado por exemplo pela ind stria farmac utica 215 computa o de fractais como Mandelbrot e manipula o de imagem como tomografia Estabelecido o escopo do MyGrid nosso objetivo construir um sistema simples completo e seguro Por simples queremos dizer que o esfor o para utiliza o do MyGrid deve ser m nimo Em particular queremos chegar o mais pr ximo pos s vel de uma solu o pronta plug and play Por completo denotamos a neces sidade de cobrir todo o ciclo de uso de um sistema computacional do desenvol vimento execu o passando por instala o e atualiza o e incluindo tamb m VERSAO 0 6 P GINA 335 GUIA CLUSTER 13 4 2 MYGRID a manipula o de arquivos Por seguro
383. mpenho VERSAO 0 6 13 2 1 Acesso a Servi os suissasdsasa nana sas 13 2 2 Descoberta de Servi os scans cases oa ms 13 2 3 Autentica o e Autoriza o 13 2 4 Privacidade de Dados 13 2 0 Composi de Servi o pers erson eaa 13 2 6 Disponibiliza o de Servi os 06 6 04 oy ew ans 13 2 7 Padroniza o s ass aerae rame da HESS 13 3 1 Plataformas para Processamento Paralelo Lida EXE Remota o acea eoe aranna a dar 4 13 3 3 Escalonamento aaoo a a a a 13 3 4 Imagem do Sistema a oaa ee DER essere ee Ce ee E a PAGINA XXII GUIA CLUSTER SUMARIO 13 4 Estudosde Caso gt o saa et hoe CHRD ER SER DRE RD wR 326 13 4 1 Globus ei sa ras wid wh Oh hohe Oh Heh we ee 326 Lae NY oe eo ee ee eee eee ee eee eee eS 4S 335 13 43 OurGrid scr OER EO REO RE ORE RA OR 339 T344 hod Oe hod CDE ha OR Ae eo ws 343 13 5 Tend ncias em Grids Computacionais 004 345 14 Virtualiza o de recursos 347 14 1 Principais tipos de virtualiza o 1 ee eee 347 14 1 1 Virtualiza o pot solos ses 4 ow eww pastasi 348 14 2 XEN Xen virtual machine monitor 349 1421 COMPRADO ope saiba pipa REE ODE DG dp ab a 350 14 2 2 Sitema Operacional nativo versus virtualiza o com Xen 351 14 2 3 Paravirtualiza o no Xen 26 cs ev ee a osso ao aces 352 14 2 4 Virtualiza o nativa no Xen xe em hoe aa a we 353 IV Ap ndices 355 A Licen a CC GNU GPL 356 B Marca
384. n possua toler ncia a falhas de disco de forma transparente e confi vel para todo o sistema servidores do PVFS n o possuem estado da mesma forma que o NFS o que sim plifica sua implementa o que n o considera casos como quando um cliente se desconecta da rede sem aviso pr vio Isso pode gerar problemas de consist ncia pois o servidor pode n o conter a vers o mais recente do arquivo caso o cliente possu sse um cache sujo ou algum arquivo pode ficar bloqueado para escrita A API nativa do PVFS possibilita acesso em modo usu rio aos servidores do PVES Esta biblioteca chamada de libpvfs cuida das opera es necess rias para mover dados entre os clientes e servidores mantendo as transparentes para o usu rio Para opera es que necessitam de meta dados a biblioteca se comunica com o servidor de meta dados conforme figura 7 8 a Para acesso aos dados dos arquivos o servidor de meta dados deixado de lado e os servidores de dados s o acessados diretamente conforme figura 7 8 b Essa a chave para se obter VERSAO 0 6 P GINA 163 GUIA CLUSTER 7 4 1 PARALLEL VIRTUAL FILESYSTEM VERSION 1 PVFS um alto desempenho agregado no acesso aos dados a b Figura 7 8 Clientes acessando o PVFS O suporte no kernel do linux para o PVFS prov as funcionalidades necess rias para se usar comando mount nos clientes Isso permite acesso aos arquivos do PVES sem necessidade de altera o das aplica
385. n a e conforto razo veis vide item 5 1 8 VERSAO 0 6 P GINA 255 GUIA CLUSTER 11 2 2 PROPRIEDADES DE UM MODELO DE PROGRAMAGAO PARA O PROCESSAMENTO PARALELO Independ ncia de Arquitetura O modelo deve ser independente de arquitetura de tal forma que os programas possam migrar entre as arquiteturas paralelas sem exigir altera es no c digo ou outras modifica es n o triviais Por outro lado as arquiteturas paralelas como aglutinam diversas tecnologias todas em constante evolu o tem sua vida til efetiva de poucos anos Isto torna pouco razo vel considerar a rescrita do software a cada necessidade de trocar o hardware Atender este aspecto de independ ncia de arquitetura de forma individual uma tarefa fact vel Existem diversos modelos cujo n vel de abstra o satisfazem este aspecto vide item 11 3 1 O complexo atender este requisito em conjunto com os outros que um bom modelo para o desenvolvimento de aplica es paralelas deve suprir Facilidade para Ser Entendido Um modelo para que se dissemine largamente deve ser f cil de ser entendido Se o processamento paralelo pretende ampliar sua fatia de mercado o modelo para sua programa o deve poder ser assimilado com facilidade pelos desenvolvedo res oferecendo para isto uma interface que oculte ao m ximo a complexidade inerente ao paralelismo e seja de uso simples Garantia de Desempenho Um modelo deve garantir o desempenho dos prog
386. na fun o de custo incrementado 1 Ele apresenta melhor qualidade em grandes sistemas heterog neos cujos pesos variam muito Never Queue NQ Este m todo apresenta uma melhoria em rela o ao SED pois caso um n n o possua conex es ativas ele receber uma nova requisi o de servi o apesar do resultado apresentado no c lculo do SED j que podem ocorrer situa es que uma m quina que n o possua nenhuma conex o ativa apresente um overhead maior que outra que possua VERSAO 0 6 P GINA 182 GUIA CLUSTER 8 1 4 CASOS DE USO DE LVS Locality Based Least Connection LBLC Directors tamb m podem direcionar o tr fego de sa da para o conjunto de ser vidores proxy transparentes Nesta configura o os n s do cluster s o proxy transparentes ou servidores de web cache que est o entre os clientes e a internet Quando o LBCL usado o Director tenta enviar todas as conex es de um ende re o IP particular para o mesmo servidor proxy transparente n do cluster Ou seja a primeira vez que uma requisi o chegar o Director ir escolher um Ser vidor Real para atend la usando um vers o um pouco modificada do m todo WLC e todas as requisi es subsequentes deste cliente continuar o a ser envia das para o servidor escolhido Locality Based Least Connection with Replication Scheduling LBLCR semelhante ao m todo anterior com uma melhoria o Director mant m um ma peamento de um cliente para u
387. nais alta disponibilidade suporte de milhares a milh es de usu rios simult neos alta capacidade de processamento capacidade de trabalhar com bancos de dados da ordem de milh es de re VERSAO 0 6 P GINA 21 GUIA CLUSTER 2 3 AS NOVAS DEMANDAS COMPUTACIONAIS gistros toler ncia a falhas de hardware e software facilidade de integra o e interoperabilidade ado o de padr es abertos de hardware e software armazenamento massivo da ordem de TeraBytes de dados A necessidade de amplia o da malha computacional atendendo as caracter s ticas expostas acima deve superar um conjunto de restri es ou problemas que est o relacionados com a utiliza o de computa o de grande porte para o efetivo atendimento das novas demandas sendo eles Limita o financeira dos investimentos p blicos e a crescente necessidade de racionaliza o do uso de recursos p blicos em TI que muitas vezes im possibilitam o desenvolvimento ou implementa o de um novo sistema di ante do custo total de propriedade envolvido na aquisi o de hardware e software para computa o de grande porte Dificuldade de aumentar ou diminuir a capacidade computacional de acordo com a demanda atual de cada institui o Normalmente servido res de computa o de grande porte possuem uma capacidade m xima de expans o limitada por s rie ou modelo do equipamento Quando uma ins titui o atinge a capacidade m xima do modelo qu
388. nc RealPlayer RealNetworks Inc Red Hat Red Hat Inc SuSE SuSE AG VERSAO 0 6 PAGINA 367 GUIA CLUSTER CAP TULO B MARCAS REGISTRADAS Marcas Registradas Sendmail Propriet rio SendMail Inc Sun Solaris Java JDBC StarOffice JDK Javascript Sun Microsystems Inc Sybase Sybase Inc Tarantella Tarantella Inc Tabela B 1 Tabela de Refer ncia de Marcas Registradas VERSAO 0 6 P GINA 368 Ap ndice C Lista de Abreviaturas GUIA CLUSTER CAP TULO C LISTA DE ABREVIATURAS ATM BSP CMOS DRAM DSM ECL FDDI FET HIPPI HPF Mbps MFLOPS MIMD MIPS MISD NFS NUMA OLTP PVM SIMD SISD SONET SPMD SR SRAM TCP IP VERSAO 0 6 Assynchronous Transfer Mode Bulk Synchronous Parallelism Complementary Metal Oxide Semiconductor Dynamic Random Access Memory Distributed Shared Memory Emmiter Coupled Logic Fiber Distributed Data Interface Fast Fourier Transformation High Performance Parallel Interface High Performance Fortran Milh es de bits por segundo Milh es de Instru es de Ponto Flutuante Por Segundo M ltiplas sequ ncias de Instru es M ltiplas sequ ncias de Dados Milh es de Instru es Por Segundo M ltiplas Sequ ncias de Instru es uma Sequ ncia de Dados Network File System NonUniform Memory Access On Line Transaction Processing Parallel Virtual Machine Uma Seqti ncia de Instru es M ltiplas Sequ ncias de Dados Uma S
389. nce Distributed Computing July 1998 168 W Andrews et al Predicts 2005 The impact of web services still grows In Gartner Research Note G00123895 November 2004 VERSAO 0 6 PAGINA 404 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 169 ExeCRabLE Prozessor history http www execrable de hardware history html Ultima Visita em 20 09 2005 12 12 170 M Faerman R Wolski A Su and Francine Berman Adaptive performance prediction for distributed data intensive applications In Proceedings of the ACM IEEE SC99 Conference on High Performance Networking and Computing Portland OH USA 1999 ACM Press 171 FarSite http research microsoft com sn Farsite 2005 172 D Feitelson and L Rudolph Metrics and benchmarking for parallel job scheduling In Dror Feitelson and Larry Rudolph editors Job Scheduling Strategies for Parallel Processing volume 1459 pages 1 24 Lecture Notes in Computer Science Springer Verlag 1998 173 D G Feitelson Metric and workload effects on computer systems evalua tion Computer 36 9 18 25 September 2003 174 Dror Feitelson Parallel workload archive 175 Ciro Campos Christo Fernandes A reforma administrativa no brasil oito anos de implementa o do plano diretor 1995 2002 Out 2002 176 A B H Ferreira Novo Dicion rio Aur rio da L ngua Portuguesa Editora Nova Fronteira 1986 177 KW Flynn MJ e Rudd Parallel architectures ACM Computing Surveys 28
390. ncializa para c digos num ricos nos quais a converg ncia a precis o e o erro acumulado s o fortemente in fluenciados pelo tamanho do problema A decis o por uma arquitetura paralela normalmente contempla problemas com dimens es bem maiores que aquelas poss veis de serem computadas em equipamentos com um s processador Apesar dos matem ticos garantirem que o resultado de uma soma de n meros n o depende da ordem de sua realiza o propriedade associativa da soma o hardware de ponto flutuante pode apenas se apro ximar desta abstra o Considera es similares a esta fazem da valida o do software paralelo uma atividade complexa e tratada com muita cautela pelos desenvolvedores de software at mesmo porque incorre es na ver s o paralela podem lan ar d vidas sobre a qualidade da vers o sequencial j dispon vel 5 1 9 Rela o entre a Teoria e a Tecnologia A teoria para o processamento paralelo foi desenvolvida ap s a tecnologia e ainda se encontra imatura em muitos aspectos Deste modo a teoria historicamente n o vem sugerindo caminhos ou at mesmo limites para explora o tecnol gica Como resultado ainda n o est o dispon veis na abrang ncia necess ria repre senta es abstratas da computa o paralela l gicas para avalia o da mesma ou at mesmo algoritmos paralelos que sejam comprovadamente eficientes nas diversas arquiteturas reais SKILLICORN 331 VERSAO 0 6 P GINA 79 Parte III
391. ncias Esta cl usula n o tem a finalidade de induzir voc a infringir quaisquer pa tentes ou direitos de propriedade nem de contestar a validade de quaisquer reivindica es deste tipo a nica finalidade desta cl usula proteger a inte gridade do sistema de distribui o do Software Livre o qual implementado mediante pr ticas de licen as p blicas Muitas pessoas t m feito generosas contribui es ampla gama de software distribu do atrav s desse sistema confiando na aplica o consistente deste sistema cabe ao autor doador de cidir se deseja distribuir software atrav s de qualquer outro sistema e um licenciado n o pode impor esta escolha Esta cl usula visa deixar absolutamente claro o que se acredita ser uma con sequ ncia do restante desta Licen a Se a distribui o e ou uso do Programa for restrito em determinados pa ses tanto por patentes ou por interfaces protegidas por direito autoral o titular original dos direitos autorais que colocar o Programa sob esta Li cen a poder acrescentar uma limita o geogr fica de distribui o expl cita excluindo esses pa ses de modo que a distribui o seja permitida somente nos pa ses ou entre os pa ses que n o foram exclu dos dessa forma Nesse caso esta Licen a passa a incorporar a limita o como se esta tivesse sido escrita no corpo desta Licen a A Free Software Foundation poder de tempos em tempos publicar no vas vers es e ou ver
392. nd software approach Morgan Kaufmann 1999 129 David et al CULLER LogP Toward a Realistic Model of Parallel Computation ACM SIGPLAN Symposium on Principles and Pratice of Parallel Program ming 1993 130 f Culler Parallel Computer Architecture A Hardware Software Approach Mor gan Kaufmann San Francisco CA 1998 131 F Curbera Y Goland J Klein F Leymann D Roller S Thatte and S We erawarana Business process execution language for web services version 1 0 Standards propsal by BEA Systems International Business Machines Corporation and Microsoft Corporation 2002 132 K Czajkowski D Ferguson I Foster J Frey S Graham T Maquire D Snelling and S Tuecke From open grid services infrastructure to ws resource framework Refactoring amp evolution Global Grid Forum Draft Recommendation May 2004 133 K Czajkowski I Foster N Karonis C Kesselman S Martin W Smith and S Tuecke A resource management architecture for metacomputing systems In IPPS SPDP 98 Workshop on Job Scheduling Strategies for Parallel Processing pages 62 82 1998 134 Gustavo da Gama Torres A empresa p blica de inform tica e informa o Modelo de gest o e papel Revista IP 2 1 Maio 2000 VERSAO 0 6 P GINA 401 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 135 Programa Sociedade da Informa o SocInfo Sociedade da informa o no brasil livro verde http ftp mct gov br Livro_Verde Defa
393. ndependente em rela o aos Sistemas Operacionais e s Lingua gens de Programa o O uso de Web Services contempla tanto transfer ncias de documentos entre Institui es quanto solicita es para execu o de servi os remotos E em conjunto s o recomendados as seguintes especifica es e Protocolo de troca de informa es SOAP v1 2 como definido pela W3C e Infra estrutura de registro Especifica o UDDI v3 0 2 Universal Descrip tion Discovery and Integration definida pela OASIS e Linguagem de defini o do servi o WSDL 1 1 Web Service Description Language como definido pelo W3C Um outro fator importante est levantado na sess o de Integra o para governo eletr nico onde se define as diretrizes t cnicas para o segmento dela a sess o 10 1 reas de Integra o para Governo Eletr nico Pol ticas T cnicas se tem A partir do entendimento de que a materializa o do uso de XML Schemas se d atrav s de servi os interoper veis e Recomenda se que a Arquitetura Orientada a Servi os SOA e as pol ticas t cnicas relacionadas ao Segmento Interconex o sejam observadas no projeto e implementa o de aplica es baseadas nos XML Schemas referidos e O segmento passa a referenciar a iniciativa Arquitetura Referencial de Interopera o dos Sistemas Informatizados de Governo AR que um modelo de Arquitetura Orientada a Servi os adaptado realidade dos Sistemas
394. ndo como Oracle Google IBM Intel AMD Sun entre outras Al m disso uma pesquisa realizada VERSAO 0 6 P GINA 37 GUIA CLUSTER CAPITULO 3 INTRODU O no ano de 2004 pelo instituto Forrest Research constatou que 37 das grandes empresas do mercado corporativo est o em alguma fase de ado o desenvolvi mento de projetos baseados em tecnologias de Grid Computing A organiza o Top500 tamb m mantem os dados sobre os segmentos corporati vos que utilizam as m quinas de maior capacidade computacional do mundo a figura 3 mostra a evolu o no tempo desses segmentos de utiliza o Segmenta o de Mercado 0 55 E An a 0 5 A a nn 7 rm 0 45 A 0 4 re E o 0 35 m Academic 20 Classified o 0 3 y Government S os m A Industry 5 Research 0 2 ee Vendor 0 15 ni EEE 0 05 ae ee Se 0 i E Ep y y y y 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 Ano Figura 3 3 Evolu o da utiliza o por segmenta o do mercado Fonte Top500 org A utiliza o de computa o distribu da no governo federal tem sido pequena devido principalmente a dificuldade de encontrar documenta o em portugu s sobre estas tecnologias com isso esta parte do documento ir abordar as princi pais tecnologias de Cluster e Grid e suas possibilidades de utiliza o no ambiente do Governo Federal com o objetivo de estimular a utiliza o destas tec
395. ndwidth html Ultima Visita em 20 09 2003 12 12 301 J A Pouwelse P Garbacki D H J Epema and H J Sips The bittorrent p2p file sharing system Measurements and analysis VERSAO 0 6 PAGINA 415 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 302 Dhiraj K Pradhan Fault Tolerant System Design Prentice Hall 1996 303 The Open MPI Project Open mpi Open source high performance compu ting http www open mpi org Ultima Visita em 20 04 2005 12 20 304 J et al PROTIC Distributed Shared Memory Concepts and Systems IEEE Computer Society Press 1998 305 PVM Pvm Parallel virtual machine http www csm ornl gov pvm Ultima Visita em 20 04 2005 12 20 306 Harish Ramachandran Design and implementation of the system inter face for pvfs2 ftp ftp parl clemson edu pub techreports 2002 PARL 2002 008 ps Ultima Visita em 20 09 2005 12 12 307 K Ranganathan and I Foster Decoupling computation and data schedu ling in distributed data intensive applications In High Performance Distri buted Computing 2002 Proceedings 11th IEEE International Symposium Edin burg Scotland July 2002 IEEE Computer Society Press 308 J L Reyes and J Fernandez Haeger Sequential co operative load transport in the seed harvesting ant messor barbarus Insectes Sociaux 46 119 125 1999 309 R Ribler J Vetter H Simitci and D Reed Autopilot Adaptive control of distributed applications In Proceedings of the
396. nef cios para a computa o distribu da Os dois principais s o i Abstra o da complexidade do servi o para o cliente ii Reutiliza o das funcionalidades implementadas por outros servi os Para o cliente quanto mais complexo for o servi o menos envolvido ele desejar estar No exemplo citado anteriormente sem o trabalho das ag ncias de turismo o preparo de uma viagem implicar em muito mais trabalho para o cliente A venda de pacotes tur sticos simplifica muito o trabalho dos que pretendem tirar f rias Da mesma forma no mundo da computa o quanto mais compostos fo rem os servi os mais simples e alto n vel deve ser programa o das aplica es clientes O segundo aspecto positivo da composi o de servi o a reutiliza o de c digo Um servi o j desenvolvido e dispon vel no sistema rede pode ser usado na com VERSAO 0 6 P GINA 290 GUIA CLUSTER 13 2 5 COMPOSI O DE SERVI O posi o de novos servi os Desta forma seu c digo n o tem que ser reimple mentado Um exemplo real s o os Web Services fornecidos pela Receita Federal que permitem consulta e valida o de CPF e CNPJ Estas funcionalidades est o presentes em diversas aplica es por todo o pa s Como servi os elas podem ser utilizadas por essas diversas aplica es evitando que sejam implementadas novamente Entretanto a composi o traz tamb m desafios Um deles como um servi o composto pode garantir qualid
397. no Grid seus pre os e condi es de uso Esse servi o fornecido pelo Grid Resource and Market Information Server o qual utiliza como base o servi o de descoberta de servi os do Globus i e MDS 181 Al m de obter informa o sobre servi os dispon veis e suas cota es necess rio que haja um padr o um protocolo bem conhecido pelo cliente e pelo provedor VERSAO 0 6 P GINA 295 GUIA CLUSTER 13 2 6 DISPONIBILIZA O DE SERVI OS de servi os para a negocia o Logo a arquitetura do GRACE possui um conjunto de protocolos e uma API que define regras e o formato para troca de comandos entre o cliente GRACE i e Trade Manager e o provedor do servi o Trade Server Vale mencionar que o Trade Manager uma parte importante do Resource Broker pois tem o papel de guiar a sele o dos recursos que a aplica o necessita para atingir seus objetivos Por outro lado o Trade Server o agente de negocia o do lado do provedor sua fun o maximizar a utiliza o do recursos e o lucro do provedor Portanto a negocia o entre os Trade Managers clientes e os Trade Servers pro vedores ocorrer de acordo com algum modelo econ mico Uma das imple menta es poss veis do GRACE utiliza como broker o Nimrod G 102 O mo delo econ mico implementado foi o Posted Price Market Model descrito anterior mente 99 Nesse caso os v rios Trade Servers do sistema devem divulgar seus pre os de forma a at
398. no sistema de arquivos uma delas Tal tarefa n o pode interferir no desempenho por causa da disponibilidade e nem no uso do sistema pelos usu rios devido transpar ncia Os Primeiros Sistemas de arquivos Distribu dos O primeiro SAD que se tem not cia segundo 246 usava a ARPANET rede cons tru da pelo Departamento de Defesa dos Estados Unidos em 1969 que entrou em funcionamento em 1973 Ele disponibilizava um reposit rio de dados para computadores que n o possu am capacidade de armazenamento adequada Era chamado de Datacomputer e usava um servi o parecido com o FTP atual Depois dele veio o Interim File Server IFS criado por pesquisadores do Xerox Palo Alto Research Center PARC Ele j organizava os arquivos privados e com partilhados em uma rvore de diret rios Um sistema subsequente foi o Woods VERSAO 0 6 P GINA 147 GUIA CLUSTER 7 3 4 NETWORK FILE SYSTEM NFS tock File Server WFS criado tamb m pelo PARC que permitia enviar aos clientes somente paginas dos arquivos ao inv s de enviar 0 arquivo completo possibili tando trabalhar assim com m quinas sem discos locais Em 1977 o PARC criou o Xerox Distributed File System destinado a oferecer uma base para a implementa o de sistemas gerenciadores de banco de dados Ele j implementava transa es at micas envolvendo v rios arquivos e servidores usando um protocolo de duas fases e o acesso a pequenos trechos de arquivos
399. nologias no governo Forrester 2004 http www forrester com go docid 34449 VERSAO 0 6 P GINA 38 GUIA CLUSTER 3 1 VANTAGENS TECNICAS DE UTILIZACAO DE CLUSTER E GRID 3 1 Vantagens t cnicas de utiliza o de cluster e grid A sess o 2 3 apresenta algumas demandas e desafios computacionais do Governo Brasileiro e a possibilidade de utiliza o de tecnologias baseadas em cluster e grid para auxiliar no atendimento destas demandas De forma que utiliza o de cluster e grid nos ambientes do governo possui as seguintes vantagens t cnicas e Utiliza o de hardware padr o de mercado em sistemas cr ticos atrav s da transfer ncia do gerenciamento das fun es de alta disponibilidade tole r ncia falhas e balanceamento de carga do hardware para o software Di minuindo a necessidade de hardware especializado aumentando a concor r ncia entre as empresas fornecedoras e propiciando ao governo a indepen d ncia tecnol gica de fornecedores de hardware e Em geral as tecnologias de Cluster e Grid possuem como base padr es abertos e interoperabilidade Facilitando a integra o de sistemas basea dos nestas tecnologias em oposi o a sistemas em computa o de grande porte que utilizam em sua grande parte tecnologias propriet rias e padr es fechados e Disponibilidade de solu es baseadas em software livre que permitem a implementa o de sistemas de cluster e grid sem a necessidade de nus de licen
400. nos Envolvidos 59 42 1 Aperfei oamento dos T cnicos a oa aa 59 422 CONAMA erge raer aeriene OE EES RS 59 43 boo de LO or 46s 663 4 oh hah sd a aa SA OE 60 4 3 1 O que deve ser observado lt 4 css ase ese ee was 61 5 Processamento Paralelo Sua Difus o e Uso 71 5 1 Aspectos para a Ado o do Processamento Paralelo 72 5 1 1 Barreiras ao Crescimento da Freq ncia de Opera o dos Proc ssadores cisissscsscasasvirasa aaa aa 72 VERSAO 0 6 P GINA XV GUIA CLUSTER SUMARIO 5 1 2 Largura de Banda no Acesso Memoria 73 5 1 3 Paralelismo Intr nseco do Mundo Real 74 5 1 4 A Rela o Custo Benef cio dos Processadores de Ultima CIRO sd nat dod Ro atte dy he Sod Re eh gd ae 74 5 15 Aplica es Extremamente Complexas 4 4452 444 75 5 1 6 Suporte Toler ncia a Falhas aana aaa aa 76 5 1 7 Cresdimento M du l ses ss esaea eaa ee 76 5 1 8 Disponibilidade de Software Aplicativo 78 5 1 9 Rela o entre a Teoria e a Tecnologia vcs cas sas ssa 79 III Aspectos T cnicos 80 6 Conceitos B sicos 81 6 1 Arquiteturas Computacionais 64 46 4 4 sede eee wea wes 81 6 1 1 A Classifica o de Flynn para Arquiteturas de Computadores 82 61 2 Multiprocessadores x orra mas EE E Ew OE 88 6 1 3 Multicomputadores 2 lt 2 424 845468 8 Ae ee RS 89 6 1 4 Multiprocessadores Sim tricos Symmetric Multiproces sors asno Me ye a ce ATO AEE ALLE ME e
401. ns Walter B Ligon III Robert B Ross and Rajeev Tha kur Pvfs A parallel virtual file system for linux clusters http www parl clemson edu pvfs el2000 extreme2000 ps Ultima Visita em 20 09 2005 12 12 106 David CARRIERO Nicholas GELERNTER Data paralelismo and linda Technical report International Workshop on Languages and Compilers for Parallel Computing 1992 107 N Carriero and D Gelernter How to write parallel programs a guide to the perplexed Communications of the ACM 21 1989 108 H Casanova Simgrid A toolkit for the simulation of application schedu ling In Proceedings of the First IEEE ACM International Symposium on Cluster Computing and the Grid Brisbane Australia May 2001 109 H Casanova and F Berman Grid Computing making the Global Infrastructure a Reality chapter Parameter Sweep on the Grid with APST John Wiley and Sons 2003 110 H Casanova J Hayes and Y Yang Algorithms and software to sche dule and deploy independent tasks in grid environments In Proceedings of Workshop on Distributed Computing Metacomputing and Resource Globaliza tion 2002 111 H Casanova A Legrand D Zagorodnov and F Berman Heuristics for scheduling parameter sweep applications in grid environments In Procee dings of the 9th Heterogeneous Computing Workshop pages 349 363 Cancun Mexico May 2000 IEEE Computer Society Press VERSAO 0 6 PAGINA 399 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS
402. ntar o desempenho global do processamento Uso ineficiente da mem ria tr s aspectos concorrem para a sobre ocupa o da mem ria em arquiteturas de mem ria distribu da O primeiro decorre da necessi dade de armazenamento tempor rio das mensagens recebidas at que o processo respons vel pela computa o possa fazer o devido tratamento Dependendo do tamanho e da frequ ncia destas mensagens um consider vel volume de mem ria ter de ser destinado para isto O segundo conseqti ncia da necessidade de c pia local do c digo execut vel O terceiro decorre em fun o da busca de de sempenho de se fazer a c pia local tamb m das estruturas de dados globais que o algoritmo possa necessitar VERSAO 0 6 P GINA 84 GUIA CLUSTER 6 1 1 A CLASSIFICA O DE FLYNN PARA ARQUITETURAS DE COMPUTADORES Rede de Interconexao Memoria Comum Figura 6 3 Arquitetura gen rica de multiprocessador de memoria compartilhada Arquiteturas de Mem ria Compartilhada Neste tipo de arquitetura todos os n s t m acesso uniforme a uma nica mem ria comum vide figura 6 3 S o tamb m denominadas de multiprocessadores sim tricos 128 280 Uma das raz es do sucesso comercial deste tipo de ar quitetura MIMD e decorrente da sua flexibilidade de uso Cada processador da arquitetura pode ser visto como uma m quina sequencial tradicional a exist n cia de outros processadores bem como da mem ria comum pode ser abstra da Uma
403. nter os dados sincronizados e coerentes ao mesmo tempo Existem solu es centralizadas e distribu das 192 para esse tipo de problema VERSAO 0 6 P GINA 146 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS A centralizada consiste de um nico servidor que cuida dos pedidos dos clientes atrav s de handles Com esses handles os clientes acessam diretamente os arqui vos atrav s dos servidores e secund rios Por m caso o servidor prim rio caia nenhum outro cliente conseguir abrir nenhum outro handle somente os que j estavam abertos continuam acessando os arquivos No caso da solu o distribu da existem dois tipos de implementa es a primeira utiliza comunica o em grupo que consiste em quando ocorrer uma altera o por algum dos servidores este manda um broadcast para os outros servidores di zendo que o arquivo foi alterado Estes por sua vez podem alterar esse arquivo imediatamente ou somente quando forem utiliz lo a segunda utiliza vota o e n meros de vers o Isso significa que quando um cliente pedir permiss o para al terar um arquivo os servidores votar o entre eles pra saber quem possui a vers o mais recente Esse servidor ser o servidor padr o daquele arquivo e seu n mero de vers o ser incrementado Todas essas id ias al m de serem complicadas de implementar geram alguns problemas Manter a sincroniza o entre os servidores para o caso de altera es
404. o e Transfer ncia striped conex es TCP entre v rias fontes e um destino ou vice versa Controle manual dos buffers TCP usado para afinamento de performance Instrumenta o embutida Uma vez que GridFTP uma extens o do FTP o problema de interoperabilidade fica resolvido pois FTP amplamente suportado pelos servidores de dados Ob viamente se as extens es GridFTP n o estiverem implementadas em um dado servidor os benef cios adicionais do protocolo n o estar o dispon vel Mas o cli ente GridFTP ainda ser capaz de obter os dados desejados Ou seja o sistema ser penalizado apenas no desempenho por m continuar funcionando Avalia o do Globus Um aspecto importante para grande aceita o do Globus que os servi os ofe recidos s o razoavelmente independentes possibilitando que se utilize apenas parte dos servi os Globus em uma dada solu o Essa possibilidade do uso par cial de Globus ajuda sobremaneira na adapta o de aplica es paralelas existen tes para o Grid Pode se come ar usando servi os mais b sicos e ir aos poucos incorporando funcionalidades mais avan adas O design oposto abordagem conjunto de servi os independentes do Globus exemplificado pelo Legion 204 Legion fornece um modelo orientado a objetos poderoso e flex vel Entretanto o VERSAO 0 6 P GINA 333 GUIA CLUSTER 13 4 1 GLOBUS usu rio tem que utilizar a solu o Legion de forma integral sem est
405. o fornecida atrav s do uso de RMI baseado em SSL Secure Socket Layer que garante comunica o criptografada Descoberta e Aloca o de Recursos Para executar uma aplica o usando a OurGrid o usu rio deve descrever sua aplica o e o conjunto de recursos que o usu rio tem acesso Note que esse con junto de recursos pode ser apenas a indica o de um OurGrid Peer que tem a fun o de obter recursos para o usu rio A descri o da aplica o basicamente um conjunto tarefas seus arquivos de entrada arquivos de sa da e seus requisitos e g sistema operacional necess rio m nimo de mem ria arquitetura do processador Em seguida o usu rio o submete sua aplica o para execu o no Grid atrav s do MyGrid Broker O com ponente interno do MyGrid Broker que recebe a submiss o o Scheduler Por sua vez o Scheduler requisita aos provedores de GUMs recursos para executar a apli ca o submetida pelo usu rio Esses provedores podem responder com recursos VERSAO 0 6 P GINA 340 GUIA CLUSTER 13 4 3 OURGRID locais ou recursos obtidos na rede de favores Para que o Scheduler receba uma resposta dos provedores necess rio que tenha sido encontrada uma GUM que preenche os requisitos determinados na descri o da aplica o Portanto ap s ter sido descoberto um recurso que possui atributos compat veis com os requisitos da aplica o o recurso alocado e repassado para o Scheduler que o solici
406. o em setembro de 2000 o Governo brasileiro produziu dentre outros documentos o chamado Livro Verde 135 que identificou o conjunto das a es estabelecidas para impulsionar a Sociedade da Informa o no Brasil contemplando amplia o do acesso Internet meios de conectividade forma o O objetivo do Programa Sociedade da Informa o integrar coordenar e fomentar a es para a utili za o de tecnologias de informa o e comunica o de forma a contribuir para que a economia do pa s tenha condi es de competir no mercado global e ao mesmo tempo contribuir para a inclus o social de todos os brasileiros na nova sociedade dispon vel em http www socinfo org br sobre programa htm VERSAO 0 6 P GINA 6 GUIA CLUSTER 2 1 1 A SOCIEDADE DA INFORMA O E A INOVA O TECNOL GICA de recursos humanos incentivo pesquisa e ao crescimento com rcio eletr nico e desenvolvimento de novas aplica es Guia Livre 151 A sociedade da informa o n o um modismo Representa uma profunda mu dan a na organiza o da sociedade e da economia havendo quem a considere um novo paradigma t cnico econ mico um fen meno global com elevado po tencial transformador das atividades sociais e econ micas uma vez que a estru tura e a din mica dessas atividades inevitavelmente ser o em alguma medida afetadas pela infra estrutura de informa es dispon vel tamb m acentuada sua dimens
407. o Nexus Transfer ncia de Dados A necessidade de acesso remoto e transfer ncia de dados uma constante na Computa o em Grid Na verdade v rias das aplica es aptas a executar no Grid necessitam de paralelismo exatamente porque processam enormes quantidades de dados Ciente deste fato Globus logo disponibilizou GASS Global Access to Secondary Storage 92 um servi o para acesso remoto a arquivos sob a tutela de um servidor GASS O cliente GASS uma biblioteca C que link editada aplica o usu ria do servi o Com o intuito de fornecer boa performance o ser vi o GASS implementa as otimiza es t picas de acesso remoto como caching e pre fetching VERSAO 0 6 P GINA 332 GUIA CLUSTER 13 4 1 GLOBUS Apesar de ser um bom servi o o GASS encontrou problemas de implanta o A dificuldade encontrada foi de interoperabilidade A maioria das fontes de dados onde se instalaria um servidor GASS j executa algum servi o de transfer ncia e ou acesso remoto a arquivos Os administradores de sistema se questionavam ent o porque n o se poderia usar os servi os existentes Essa realidade moti vou a introdu o do GridFTP 51 por parte da equipe Globus GridFTP estende o popular protocolo FTP para torn lo mais adequado para as necessidades da Computa o em Grid Mais precisamente GridFTP introduz suporte a Autentica o GSI e Kerberos Transfer ncia em paralelo v rias conex es TCP entre fonte e destin
408. o computacional paralelo Com a utiliza o do PVM consegue se uma forma eficiente e transparente de distribuir tarefas entre m quinas ligadas em rede con seguindo um bom desempenho na gerencia dos recursos computacionais atrav s da configura o de uma m quina paralela virtual Caracter sticas O PVM habilita uma cole o de computadores heterog neos a se comportar como um nico recurso computacional expans vel e concorrente o que contribuiu para torn lo um padr o de fato um mecanismo de distribui o livre que oferece bastante recursos para computa o paralela com uma utiliza o simples e de f cil compreens o Algumas caracter sticas do PVM s o possibilita a atribui o das subtarefas de uma aplica o de forma otimi zada aos n s que comp em o ambiente paralelo apresenta uma interface de programa o intuitiva e consistente oferece suporte para toler ncia falhas monitora o e profiling e altamente port vel Com isso atrav s da agrega o e compartilhamento de processadores e mem rias de computadores heterog neos problemas que exigem grande poder com putacional podem ser resolvidos sem a necessidade de comprar um supercom putador Assim utilizar o PVM uma forma de aumentar o desempenho com um custo efetivo menor VERSAO 0 6 P GINA 245 GUIA CLUSTER 11 1 2 MESSAGE PASSING INTERFACE MPI Funcionamento B sico O PVM composto de duas partes A prim
409. o e o grau BAKER 71 A largura da bisse o indica quantas mensagens simult neas podem ser troca das entre duas metades da rede de interconex o um indicador da largura de banda poss vel para as comunica es atrav s da rede O di metro indica qual o menor n mero de n s intermedi rios que precisam ser envolvidos para que dois processadores o mais distantes poss vel se comuniquem O grau indica o n mero m ximo de mensagens que podem ser manipuladas en viadas ou recebidas simultaneamente por cada um dos processadores VERSAO 0 6 P GINA 105 GUIA CLUSTER 6 6 3 TOPOLOGIAS DA REDE DE INTERCONEXAO Topologia em Barramento Nesta topologia todos os processadores est o conectados em um nico barra mento compartilhado Quando um processador necessita comunicar se com ou tro ele aguarda que o barramento esteja livre e propaga no mesmo a mensagem o destinat rio por sua vez identifica que a mensagem para si e a recebe vide figura 6 6 No caso de duas transmiss es simult neas o software detector de colis es inter rompe as transmiss es e os processadores voltam a tentar novamente ap s um per odo de tempo determinado aleatoriamente Assim sendo a sua largura da bisse o 1 Isto significa que esta topologia n o permite mais do que um par de processadores em comunica o simultanea mente Barramento Figura 6 6 Topologia em barramento Do ponto de vista do desempenho esta top
410. o na conex o Com uma thread que faz pequenas modifica es no banco de dados prefer vel usar log baseado em coluna Uma thread que realiza updates em v rias colunas com uma cl usula WHERE deve usar log baseado em declara o por ser mais eficiente para gravadas no log poucas declara es que muitas colunas Algumas declara es requerem muito tempo de execu o no master mas resultam em poucos colunas modificadas Deve ent o ser ben fico replic las usando se log baseado em coluna H algumas exce o para as quais n o se pode mudar o modo de replica o em tempo de execu o Fun es armazenadas e trigger Se NDB estiver habilitado Se a sess o aberta em modo de replica o em coluna e tabelas estiverem temporariamente abertas N o recomendado mudar o modo de replica o em tempo de execu o enquanto tabelas tempor rias existirem porque estas tabelas s o gravadas no log apenas com replica o baseada em declara o com replica o base ada em coluna elas n o ser o gravadas no log Com replica o mista tabe las tempor rias s o usualmente gravadas no log exce es para os casos de fun es definidas pelo usu rio UDF e a fun o UUID T cnicas avan adas de replica o MySQL cluster uma arquitetura complexa que prov alta disponibilidade e performance Sua principal vantagem que cada n atua como master diferente do sistema de replica o em que h
411. oblema discretizado em uma matriz bidimensional Em cada itera o cada elemento da matriz atualizado com a m dia dos seus quatro vizinhos Jacobi termina por converg ncia isto quando uma itera o altera muito pouco os elementos da matriz Quando Jacobi executado em um MPP Massive Parallel Processor a matriz bidi mensional tipicamente dividida em ambas as dimens es gerando submatrizes de igual tamanho Cada submatriz ent o alocada a um processador A cada itera o portanto necess rio comunica o entre processadores para troca das fronteiras das submatrizes A Figura 13 12 mostra a distribui o de dados entre 4 processadores de um MPP alocados para executar Jacobi Como em um MPP os processadores s o id nticos e dedicados esta simples estrat gia de aloca o de VERSAO 0 6 P GINA 312 GUIA CLUSTER 13 3 3 ESCALONAMENTO trabalho balanceia a carga entre os processadores garantindo bom desempenho Em um Grid entretanto processadores e canais de comunica o s o heterog neos Al m disso outras aplica es est o concorrendo pelos mesmos recursos processadores e canais de comunica o enquanto Jacobi executa Conseqiiente mente a estrat gia descrita acima provavelmente vai produzir um desbalan o de carga afetando o desempenho Mais ainda uma vez que as condi es de carga do Grid variam dinamicamente o que uma boa divis o de carga vai variar a cada execu o da aplica
412. odem ser respondidos em conjunto pelos Targets O sentido de transfer ncia do iSCSI definido com respeito ao Initiator Os limites de sa da ou a sa da de dados s o transferidos do Initiator para o Targets enquanto que o limite de entrada de dados ou os dados entrantes s o transfer ncias do Targets para o Initiator Implementa es do Initiator no Linux Linux Initiators e Core iSCSI Baseado em partes GPL do comercial PyX initiator http www kernel org pub linux utils storage iscsi e Intel iSCSI Intel Prova de conceito do iSCSI intiator e target da Intel para Linux http intel iscsi sf net e Open iSCSI Nova implementa o do initiator para Kernel 2 6 11 e superi ores http www open iscsi org e UNH iSCSI Initiator e target implementado pela University of New Hampshire VERSAO 0 6 PAGINA 131 GUIA CLUSTER 7 3 SISTEMAS DE ARQUIVOS DISTRIBU DOS Informa es mais detalhadas sobre iSCSI podem ser obtidas nas RFCs RFC 3720 http www ietf org rfc rfc3720 txt e RFC 3783 http www ietf org Preset CSI Ss ERE 7 3 Sistemas de Arquivos Distribu dos Os Sistemas de Arquivos Distribu dos SADs se destacam pelo acesso remoto aos dados de forma transparente para os usu rios Nas se es a seguir realizamos uma resenha sobre alguns deles come ando com aqueles que deram in cio a toda pesquisa na rea importante deixar claro que a maior parte dessa resenha foi baseada nos textos 245
413. oftware e manter o sistema a maior tempo poss vel ativo por meio de suporte nativo a clustering O uso da metodologia de cluster permite que varias instancias de Tomcat este jam dispon veis para o usu rio como um servidor nico permitindo que a carga das requisi es sejam distribu das entre essas v rias inst ncias balanceamento de carga sem o uso de recursos computacionais especializados fazendo que o sistema possa manipular uma quantidade muito maior de requisi es antes de uma poss vel sobrecarga O sistema constru do tamb m se vale de alta disponi bilidade caso um dos n s que comp em o sistema caia as requisi es de usu rios continuam a ser tratadas de maneira transparente Cliente Cliente Cliente NIZ Servidor Tomcat Servidor Tomcat Servidor Tomcat Se Servidor para compartilhamento de carga e sessoes Figura 8 5 Vis o geral de um cluster Tomcat O modelo b sico para clusteriza o em Tomcat envolve o uso de duas camadas adicionais8 5 uma camada respons vel pelo balancemento de carga e outra ca mada que cuidar do compartilhamento de informa es como sess es e outras vari veis de estado entre os servidores Tomcat VERSAO 0 6 P GINA 185 GUIA CLUSTER 8 2 1 BALANCEAMENTO DE CARGA 8 2 1 Balanceamento de carga H v rias op es que podem ser usadas na camada de balanceamento de carga em um cluster Tomcat todas elas visando distribuir as requisi es de clientes en
414. oftwares de servidor para o con trole de requisi es de acessos simult neos de v rios Hosts Permitir que m l tiplos Hosts tenham acesso simult neo a um simples dispositivo uma tarefa comumente dif cil para todos os dispositivos SCSI Sem uma comunica o entre os hosts cada um dos hosts n o possui conhecimento do estado e inten o dos outros hosts Esta condi o ocasiona corrup o de dados e race conditions Para realizar esta tarefa atrav s da utiliza o do iSCSI necess rio utilizar um sistema de arquivos compartilhado como por exemplo o GFS e o OCFS2 Snttp en wikipedia org wiki TCP Offload Engine VERSAO 0 6 P GINA 130 GUIA CLUSTER 7 2 5 INTERNET SCSI ISCSI iSCSI Conceitos e Vis o Funcional O protocolo iSCSI respons vel pela execu o de comandos scsi entre dois dis positivos em uma rede TCP IP Comandos SCSI s o executados atrav s de cha madas iSCSI e os status SCSI s o retornados como respostas Os termos Initiator e Targets referem se iSCSI initiator node e iSCSI target node respectivamente De acordo com protocolos similares o Initiator e Targets dividem suas comunica es em mensagens O termo iSCSI protocol data unit iSCSI PDU usado para designar essas mensagens Por raz es de performance iSCSI permite phase collapse Atrav s de um comando os seus dados associados podem ser enviados em conjunto do Initiator para o Targets e os dados e respostas p
415. ogias incompat veis envolvendo muitas vezes o pagamento de licen as para desenvolvimento das arquiteturas propriet rias utilizadas Estes fatores dificultam e muitas vezes retardam o processo de integra o nas arquiteturas computacionais baseadas em mainframe e computadores de grande porte Neste cen rio o Governo Brasileiro tem desenvolvido diversos projetos objeti vando maior transpar ncia nas a es governamentais otimiza o do uso de re cursos p blicos constru o de processos democr ticos entre governo empresas e cidad os Alguns exemplos s o e Sistema eleitoral com vota o e apura o atrav s da utiliza o de urnas ele tr nicas e Portal de Compras Governamentais e o Sistema Integrado de Adminis tra o de Servi os Gerais SIASG que s o um conjunto de ferramentas para operacionalizar internamente o funcionamento sist mico das ativida des inerentes ao Sistema de Servi os Gerais respons veis pelas compras governamentais 10http www comprasnet gov br HO Sistema Integrado de Administra o de Servi os Gerais SIASG um conjunto informa tizado de ferramentas para operacionalizar internamente o funcionamento sist mico das ativida des inerentes ao Sistema de Servi os Gerais SISG quais sejam gest o de materiais edifica es p blicas ve culos oficiais comunica es administrativas licita es e contratos do qual o Minis t rio do Planejamento Or amento e Gest o
416. ologia somente vi vel para um pe queno n mero de processadores e ou classes de problemas cujos algoritmos im plementem pouca comunica o Esta topologia bastante usual em pequenos agrupamentos clusters de esta es de trabalho interligadas por redes locais Topologia em Malha Os processadores nesta topologia tem um canal de comunica o direto com o seu vizinho a Uma varia o que utilizada consiste em interligar as extremidades da grade criando uma configura o denominada malha toroidal b a qual reduz o di metro da malha por um fator de 2 vide figura 6 7 A largura da bisse o de uma malha VN onde N o n mero de processadores VERSAO 0 6 P GINA 106 GUIA CLUSTER 6 6 3 TOPOLOGIAS DA REDE DE INTERCONEXAO A largura da bisse o dobra para a malha toroidal O di metro da topologia em malha 2 N 1 e o seu grau fixo e de valor 4 a Malha b Tor ide Figura 6 7 Topologia em malha O hardware para este tipo de tecnologia de simples constru o e expans o A malha se adapta bem a algoritmos utilizados em c lculos cient ficos onde se destaca a manipula o de matrizes Uma arquitetura que utiliza esta topologia o Intel Paragon Topologia em Hipercubo Toda rede de interconex o hiperc bica est alicer ada sobre uma estrutura multi dimensional baseada em endere os bin rios Os tamanhos do hipercubo s o definidos por pot ncias de 2 N 2 onde D a
417. om parceiros e fornecedores Neste processo importante o compartilhamento de recursos do governo a unicidade e troca de informa es entre aplica es e a responsabiliza o e credenciamento de gestores da informa o que permita uma integra o das redes de governo com independ ncia respeitando as peculiaridades setoriais dos rg os 2 2 1 Diretrizes do Governo Eletr nico Brasileiro Em decorr ncia do Decreto de 29 de outubro de 2003 a implementa o do Go verno Eletr nico passou a ser realizada segundo sete princ pios que foram assim concebidos como refer ncia geral para estruturar as estrat gias de interven o ado tadas como orienta es para todas as a es de Governo Eletr nico gest o do conhecimento e gest o da TI no governo federal 6 1 A prioridade do Governo Eletr nico a promo o da cidadania 2 A Inclus o Digital indissoci vel do Governo Eletr nico 3 O Software Livre um recurso estrat gico para a implementa o do Governo Eletr nico 4 A gest o do conhecimento um instrumento estrat gico de articula o e gest o das pol ticas p blicas do Governo Eletr nico 5 O Governo Eletr nico deve racionalizar o uso de recursos 6 O Governo Eletr nico deve contar com um arcabou o integrado de po l ticas sistemas padr es e normas 7 Integra o das a es de Governo Eletr nico com outros n veis de go verno e outros poderes 5 Oficin
418. omo o de slaves para master que inclui capacidade para replicar grandes bancos de dados em at doze servidores slave O Slony foi criado para atender a data centers e sites de backup onde todos os n s devem estar dispon veis a qualquer momento H alguns modelos distintos de replica o de bancos de dados dif cil que um modelo se adapte todas as necessidades O modelo implementado no Slony I chamado de replica o ass ncrona usando triggers para coletar as atualiza es onde uma origem comum replicada em m ltiplas c pias incluindo c pias cascateadas Em algumas situa es Slony n o aconselh vel Sistemas com conectividade flakey Replica o em n s com certa imprevisibilidade na conex o Sistemas cuja configura o mude de maneira aleat ria Sistemas onde schemas de bancos de dados podem ser mudados arbitra riamente Slony um sistema de replica o criado para ser independente de vers o do PostgreSQL permitindo ser iniciado ou parado sem a necessidade de ciclos de dump reload Dentre as coisas que slony n o N o um sistema de gerenciamento de rede N o possui nenhuma funcionalidade para detectar falha de n nem muda um n master para outro embora isso possa ser conseguido em conjun o com outras ferramentas N o um sistema de replica o multi master mas h planos para transforma lo em multi master na vers o 2 muito embora
419. omography November 2001 334 S Smallen W Cirne and J Frey et al Combining workstations and super computers to support grid applications The parallel tomography experi ence 2000 335 J Smith and S K Shrivastava A system for fault tolerant execution of data and compute intensive programs over a network of workstations In Lecture Notes in Computer Science volume 1123 IEEE Press 1996 VERSAO 0 6 PAGINA 418 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 336 W Smith A framework for control and observation in distributed environ ments In NASA Advanced Supercomputing Division NASA Ames Research Center Moffett Field CA NAS 01 006 June 2001 337 W Smith I Foster and V Taylor Predicting application run times using historical information Lecture Notes in Computer Science 1459 122 142 1998 338 W Smith I Foster and V Taylor Scheduling with advanced reservations In Proceedings of the IPDPS Conference May 2000 339 Steven R Soltis Thomas M Ruwart and Matthew T O Keefe The global file system http www diku dk undervisning 2003e 314 papers soltis97global pdf Ultima Visita em 20 09 2005 12 12 340 I Sommerville Software Engineering Pearson Education Deutschland GmbH 6th edition 2001 341 S Son and M Livny Recovering internet symmetry in distributed sys tems computing In Proceedings of GAN Workshop on Grids and Advanced Networks 2003 342 R Sosic Introspective
420. omputing In Proceedings of the 13th Symposium on Computer Architecture and High Performance Computing 2001 W Cirne D Paranhos L Costa E Santos Neto F Brasileiro J Sauv F Al ves B da Silva C O Barros and C Silveira Running bag of tasks appli cations on computational grids The mygrid approach In Proceedings of the ICCP 2003 International Conference on Parallel Processing October 2003 L et al Clarke The mpi message passing interface standard Technical report Knoxville University of Tenessee 1994 Inc Cluster Resources Maui cluster scheduler http www clusterresources com pages products maui cluster scheduler php Ultima Visita em 20 04 2006 12 20 VERSAO 0 6 P GINA 400 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 123 Inc Cluster Resources Torque overview https www clusterresources com pages products torque resource manager php Ultima Visita em 20 04 2006 12 20 124 Bram Cohen Incentives build robustness in bittorrent http www bittorrent com bittorrentecon pdf 2004 125 M C Coint El Manual para el Clustering con OpenMosix miKeL a k a mc2 GNU Free Documentation Licence 2004 126 P W A Costa Como surgiram os data warehouses Computerworld no vembro 16 1997 127 F P Coyle Web Services and the Data Revolution Addison Wesley Informa tion Technology Series 2002 128 D E CULLER and J P SINGH Parallel Computer Architecture a hardware a
421. onais dever lidar com recursos de v rias gera es softwares de v rias vers es instrumentos e servi os dos mais variados tipos e Alta dispers o geogr fica Essa caracter stica se refere a escala que um Grid pode atingir Nesse sentido Grids podem ter escala global agregando ser VERSAO 0 6 P GINA 280 GUIA CLUSTER 13 1 INTRODU O vicos localizados em varias partes do planeta e Compartilhamento Em contraste com solu es space shared um Grid n o pode ser dedicado a uma aplica o de forma exclusiva por um determinado per odo de tempo Isso tem impacto no desenvolvimento de aplica es que executam sobre a infraestrutura de um Grid Computacional e M ltiplos dom nios administrativos Grids congregam recursos de v rias insti tui es Sendo assim al m da heterogeneidade mencionada anteriormente poss vel tamb m a exist ncia de v rias pol ticas de acesso e uso dos servi os de acordo com as diretrizes de cada dom nio que faz parte do Grid e Controle distribu do Tipicamente n o h uma nica entidade que tenha po der sobre todo o Grid Isso um reflexo da dispers o dos componentes do Grid pois cada institui o pode implementar sua pol tica em seus recur sos locais mas n o interfere diretamente na implementa o de pol ticas no acesso aos servi os de outras institui es participantes Note que esta discuss o prop e um conceito e n o uma defini o para Grid Comp
422. onex o Alternativas para Interligar o Processador Rede de Interconex o Do ponto de vista da organiza o do hardware existem duas possibilidades para o posicionamento das chaves de interconex o vide figura 6 5 apresentada por MORSE 280 e chave associada ao processador neste caso a maioria das vezes a chave est localizada no mesmo circuito integrado chip do processador Nesta implementa o poss vel para o processador enviar e ou receber m lti plas mensagens concorrentes o que em determinadas situa es pode ser oportuno para explora o do paralelismo Como exemplo temos o em prego desta tecnologia nas arquiteturas SIMD vide item 6 1 1 CM 1 CM 2 e AMT DAP e tamb m nas arquiteturas MIMD vide item 6 1 1 nCube Transputer iWarp e KS 1 e chave independente do processador nesta implementa o o processador tem um nico canal com a sua chave de interconex o A principal vanta gem deste caso a maior flexibilidade para cria o de n s heterog neos na arquitetura Os n s respons veis pela entrada sa da poderiam utilizar a mesma chave de interconex o que os n s processadores Embora n o seja uma pr tica comum esta segunda estrat gia tamb m faculta que possam ser trocados os processadores e mantida a rede de interconex o As arqui teturas SIMD n o utilizam esta segunda op o de chave Alguns exemplos de arquiteturas MIMD que a empregam seriam o Intel Paragon a CM 5 e o Cray T 3D Uma d
423. onjugado de DRBD OCFS2 He artbeat ou Keepalived e LVS O uso de DRBD vers o 0 8 ou superior pode ser usado com OCFS2 para se criar um dispositivo que possa ser acessado por duas m quinas com inst ncias ZODB lendo e escrevendo ao mesmo tempo Heart beat ou Keepalived verifica o estado de sanidade dessas m quinas tomando pro videncias necess rias reinicio notifica o administrativa caso haja algum pro blema O LVS que pode ser usado como balanceador de carga de requisi es clientes pode tamb m balancear a carga dos ZEO clientes quando acessarem os servidores ZODB ZEO Server 1 ZEO Server 2 ZEO Server 3 7 gt gt fs Z 1 gt od Requisi oes clientes NY eet eck LVS Director a s 2 gt gt lt DRBD ZODB 1 ZODB 2 OCFS2 Conexoes clientes redirecionadas Heartbeat Keepalived Conexoes entre Zeo Servers e ZODB Figura 8 9 ZEO ZODB LVS OCFS2 VERSAO 0 6 PAGINA 194 Capitulo 9 Cluster de Banco de Dados Na maioria das aplica es que se encontram em produ o os dados da aplica o s o armazenados em um servidor de banco de dados Dessa forma o banco de dados se torna um componente cr tico na solu o da aplica o uma interrup o no servi o de banco de dados ou uma pequena corrup o dos dados pode afetar totalmente a integridade da aplica o Existem muitas formas de se trabalhar com banco de dados de forma a se ob ter maior performance e ou para obter o
424. onstituindo uma solu o de alta disponibilidade com exce lente custo benef cio O sistema integra um servidor MySQL padr o com componente para ar mazenamento clusterizado em mem ria chamado NDB consistindo de um conjunto de computadores rodando processos que incluem servidores MySQL n s de dados para o cluster NDB servidores de gerenciamento e programas especializados para acesso a dados A engine de armazenamento NDB pode ser configurada com muitas op es de toler ncia a falhas e balanceamento de carga Cada parte do MySQL clus ter configurada independentemente dos servidores MySQL sendo que Nivel de isolamento de transa o define a intera o e visibilidade do trabalho realizado por transa es simult neas O SOL padr o define quatro n veis de isolamento de transa o READ UNCOMMITTED uma transa o enxerga as mudan as realizadas por outras transa es ainda n o finalizadas READ COMMITTED VERSAO 0 6 PAGINA 213 GUIA CLUSTER 9 5 MIDDLEWARES INDEPENDENTES DE BANCO DE DADOS cada parte considerada um n H tr s tipos de n s e em uma configura o m nima de um cluster MySQL um de cada tipo N de gerenciamento Sua fun o gerenciar os outros n s do cluster exercendo fun es como prover dados de configura o iniciar e parar outros n s backup entre outras coisas Deve ser o primeiro a ser inici ado pois gerencia a configura o dos outros n s N de
425. or ma es mais detalhadas sobre este t pico podem ser obtidas em DANTAS 136 6 2 2 Meios Os meios da classifica o de dependabilidade nos ajudam a trabalhar na preven o toler ncia remo o ou previs o das falhas E tem como objetivo tratar as falhas que podem levar a erros e que em sua propaga o causam defeitos Preven o De Falhas A preven o de falhas tem por objetivo aumentar a confiabilidade dos sistemas empregando t cnicas de controle de qualidade em projetos e desenvolvimento Falhas n o s o facilmente previs veis ent o preciso existir procedimentos para VERSAO 0 6 P GINA 94 GUIA CLUSTER 6 2 2 MEIOS que caso ocorram existam formas de reparo a fim de restaurar as condi es de servi os Um exemplo de falha imprevis vel a falha de um componente de hardware Toler ncia Falhas O paradigma de toler ncia falhas definido como a capacidade de um sistema apresentar um comportamento bem definido na ocorr ncia de falhas As formas b sicas de toler ncia falhas s o Propriedade do Sistema Operacionalidade Garantida Operacionalidade n o garantida Seguran a garantida Mascaramento Defeito seguro fail safe Seguran a n o garantida Sem mascaramento N o toler ncia Tabela 6 1 Formas b sicas de toler ncia falhas Fonte DANTAS 136 A primeira forma se caracteriza pela seguran a e operacionalidade garantida a que realiza o masca
426. or capacidade de processamento e expans o Normalmente quanto maior a capacidade de processamento de um nico servi dor maior ser o pre o sendo que o custo envolvido na aquisi o n o cresce de VERSAO 0 6 P GINA 45 GUIA CLUSTER 3 3 1 CEN RIOS DE APLICA O maneira linear e o pre o de uma m quina com 4 processadores maior que pre o de duas m quinas de 2 processadores cada Apesar disso uma m quina de 8 pro cessadores ter um desempenho menor que duas m quinas de 4 processadores devido as caracter sticas e limita es f sicas da arquitetura x86 32 e x86 64 Sabe se que nestas arquiteturas computacionais a melhor rela o custo performance s o obtidas em m quinas de 4 processadores Caso a demanda continue crescendo em pouco tempo uma nica m quina na arquitetura x86 32 e x86 64 n o ser capaz de atender as necessidades computa cionais neste caso existir o duas possibilidades Trocar a arquitetura da m quina utilizada ou distribuir o atendimento da demanda em mais de um servidor A abordagem tradicionalmente utilizada seria a primeira e tem apresentado al guns problemas tais como alto custo depend ncia tecnol gica e de fornecedor e consequente dificuldade de administrar o ambiente de TI Para se realizar a amplia o da capacidade computacional de acordo com a se gunda possibilidade distribuindo o atendimento da demanda em mais de um servidor dever o ser utilizadas tecnologias
427. or principio depende do emprego de padroes abertos Tal uso vem a facilitar tamb m a es relacionadas com integra o de sistemas otimiza o de processos e ado o de arquiteturas computacionais abertas O compartilhamento da informa o e a ado o desse software por muitos rg os p blicos e privados contribui para que o produto se mantenha atualizado e ga nhe um corpo muito superior ao que cada institui o isoladamente poderia fazer e sobretudo se sustenta n o apenas por ser uma licen a de software livre ade quada mas tamb m pela cria o de uma comunidade que zela para o seu desen volvimento compartilhando saberes e solu es A comunidade contribui para mant lo vivo corrigindo seus defeitos aperfei oando seu funcionamento intro duzindo inova es e fazendo com que o produto se consolide mais robusto e a cada dia se torne mais conhecido por um conjunto maior de funcion rios p blicos e privados e por diferentes segmentos da sociedade A raz o pela escolha preferencial do software livre no governo federal motivado pelos resultados obtidos com o seu compartilhamento junto sociedade O soft ware livre tamb m possibilita ao cidad o o direito de acesso aos servi os p blicos e ao conhecimento sem obrig lo a usar uma plataforma espec fica A utiliza o de software livre em solu es de Cluster e Grid uma tend ncia clara que vem se estabelecendo nos ltimos anos De acordo com o top5
428. or tem acesso somente sua mem ria local e por conseguinte a comunica o necessariamente d se por meio de uma rede de interconex o Conceitualmente a id ia de troca de mensagens totalmente independente de hardware sistema operacional linguagens de programa o e bibliotecas Quando do desenvolvimento de um programa paralelo por troca de mensagens o programador deve distribuir os dados explicitamente entre os processadores Visto que os espa os de endere amento dos processos que comp em o programa paralelo s o distintos concebeu se a abstra o de mensagem que pode ser en viada de um processo a outro por um canal de comunica o Tal conceito denotado no programa atrav s de primitivas do tipo send e receive as quais sup em um processo que pretende enviar send uma mensagem a outro que espera receb la receive Entre os processos comunicantes diz se que existe um canal de comunica o Na pr tica os programadores disp em de bibliotecas de comunica o com pri mitivas semelhan a de send e receive As bibliotecas de comunica o que obtive VERSAO 0 6 P GINA 244 GUIA CLUSTER 11 1 1 PVM ram maior aceita o foram MPI Clarke 121 e PVM Geist 166 ambas com suporte s linguagens de programa o C e Fortran 11 1 1 PVM O PVM 305 um pacote de software que permite o funcionamento de um con junto de m quinas mono multi processadas e ou paralelas como um nico re curs
429. orma es que ajudam a localiz lo no cat logo assim como estabe lecer a forma correta de invoc lo O cadastro e a consulta deve ser feito pelas aplica es atrav s de APIs que se comunicam com os n s centrais utilizando o protocolo SOAP Alguns trabalhos criticam a natureza centralizada do UDDI dizendo que apesar de ser adotado como padr o na arquitetura WSRF ele n o oferece uma solu o eficiente escal vel e tolerante a falhas como servi o de descoberta de Web Ser vices da forma como vem sendo implementado Eles argumentam que por ser centralizado o UDDI apresenta baixo desempenho na atualiza o e consulta dos registros que essa degrada o tende a ser maior quanto maior for a quantidade de servi os catalogados e que um ponto nico de falha Uma alternativa ao UDDI o WSPDS Web Service Peer to peer Discovery Ser vice 75 O WSPDS baseia se no fato de que os Web Services podem formar uma rede peer to peer onde os peers se conhecem e podem trabalhar de forma coope rativa para atender as consultas A id ia que quando um peer precise realizar uma consulta na rede ele a repasse primeiramente a seus peers conhecidos Es tes por sua vez propagam a consulta aos peers de sua pr pria lista at um limite definido por contadores de propaga es contido nas mensagens trocadas Cada peer que recebe a mensagem realiza a consulta em sua lista local e retorna os resultados positivos para o peer original da consulta
430. os Pol tica de Utiliza o do Ambiente LabCluster Minera o de Dados Tamandu e Documenta o de Tecnol gias que vem sendo escritas de forma colaborativa no wiki do semin rio de cluster e grid http guialivre governoeletronico gov br mediawiki index php Document acaoTecnologias como por exemplo DRBD v07 Distributed Replicated Block Device DRBD v08 OCFS2 LVS Heartbeat e Idirector Virtualiza o de Recursos Xen Implementa o de Firewall Redundante com OpenBSD Packet Filter PFSYNC e CARP e Tradu es VERSAO 0 6 P GINA 389 GUIA CLUSTER CAP TULO G OUTROS DOCUMENTOS PRODUZIDOS Guia do Usu rio Sequoia Manual OpenMosix How to PGcluster VERSAO 0 6 PAGINA 390 Refer ncias Bibliograficas 1 2 3 4 5 6 10 11 12 13 VERSAO 0 6 Advanced mysql replication techniques http www onlamp com pub a onlamp 2006 04 20 advanced mysgl replication html Arquitetura e ping http www eping e gov br Blast webpage http www ncbi nlm nih giv BLAST Compute against the cancer site http www computeagainstcancer Org The dzero experiment http www d0 fnal gov Governo eletr nico conhe a o gov br http www governoeletronico gov DE Introducing slony http www onlamp com pub a onlamp 2004 11 18 slony html Linux virtual server http www linuxvirtualserver org Live bac
431. os etc podem ser ativados ou n o por base de processos Kerrighed n o e Um paralelizador autom tico Kerrighed n o paraleliza automaticamente suas aplica es Isso implica que caso voc tenha um grande processo sequencial ele n o rodar mais r pido no Kerrighed Para rodar mais r pido sua aplica o precisar ser paralelizada Se sua aplica o roda mais rapidamente em uma maquina com v rios processadores do que em uma m quina com apenas um pro cessador essa aplica o poder rodar mais r pido com o Kerrighed Se a aplica o n o roda mais r pido em uma maquina com v rios processado res ela n o rodar mais r pido com o Kerrighed e Um Middleware Kerrighed um sistema operacional e n o um middleware Ele roda dentro do kernel linux e n o em cima do kernel linux Ele estende as funcionali dades do linux de gerenciamento de servi os de cluster e Uma m quina virtual Kerrighed n o tem correla o nenhuma com tecnologias de virtualiza o como VMWare ou XEN Ele n o cria um cluster virtual ele d a ilus o que um cluster f sico de PCs s o uma m quina SMP nica VERSAO 0 6 P GINA 243 Capitulo 11 Ferramentas de Programa o Paralela 11 1 Troca de Mensagens Message Passing O paradigma de troca de mensagens tem sido tradicionalmente empregado em sistemas fracamente acoplados representados pelas arquiteturas baseadas em mem ria distribu da clusters em que cada processad
432. os Grids a tend ncia que Grids se tornem uma infraestrutura global de computa o orientada a servi os atendendo tanto a comunidade de computa o cient fica de alto desempenho quanto a comunidade de computa o comercial Finalmente a discuss o sobre os padr es emergentes para o desenvolvimento de infraestruturas de Grids Computacionais mostra que os esfor os t m amadure cido fomentado a pesquisa e o desenvolvimento de ferramentas que contribuem para a concretiza o de um ambiente amplamente distribu do onde ser poss vel consumir servi os computacionais de forma transparente VERSAO 0 6 P GINA 346 Capitulo 14 Virtualiza o de recursos Virtualiza o o modo de apresenta o ou agrupamento de um subconjunto l gico de recursos computacionais de modo que possam ser alcan ados resultados e benef cios como se o sistema estivesse executando sobre a configura o nativa A virtualiza o de recursos geralmente incluem o armazenamento de dados e poder de processamento Deste modo a virtualiza o dos recursos n o restrita somente execu o posi o geogr fica ou pela configura o f sica de recursos Uma tend ncia nova na virtualiza o o conceito de um motor de virtualiza o que d uma vis o hol stica de toda a infraestrutura de rede usando a t cnica de agrega o Um outro tipo popular de virtualiza o e atualmente muito utili zado a virtualiza o de hardware
433. os em um framework de objetos Principal compo nente da arquitetura CORBA ele recebe requisi es de clientes e disponibiliza o acesso objetos previamente publicados em um diret rio de objetos P GINA 379 GUIA CLUSTER CAP TULO E GLOSS RIO Padr o aberto RFC Request for Comments Solicita o de Coment rios RPCs Remote Procedure Calls SOA Service Oriented Ar chitecture Arquitetura Ori entada a Servi os SOAP Simple Object Access Protocol Protocolo Simples para Acesso a Objetos VERSAO 0 6 todo o padr o tecnol gico estabelecido por rg os in ternacionais ou por cons rcios de empresas do mercado que desenvolvem especifica es que se encontram pu blicamente dispon veis O PC computador pessoal foi lan ado e desenvolvido com padr o aberto As espe cifica es da Internet e seu desenvolvimento tamb m A grande maioria das linguagens de programa o tam b m documento formal da IETF resultante de modelos e re vis es de partes interessadas A vers o final do RFC tornou se um padr o em que nem coment rios nem alte ra es s o permitidos As altera es podem ocorrer po r m por meio de RFCs subsequentes que substituem ou elaboram em todas as partes dos RFCs anteriores RFC tamb m a abrevia o de Remote Function Call cha mada funcional remota E o nome dado ao ato de chamar ou executar um pro cedimento ou programa que n o se encontra na m
434. os ociosos das esta es de trabalho do governo federal eliminando a necessidade e os custos envolvidos na aquisi o e manuten o do main fraime utilizado atualmente por este sistema e Sistema Integrado de Administra o Financeira do Governo Federal SI AFI O SIAFI o principal instrumento utilizado para registro acompa http www siapenet gov br http www tesouro fazenda gov br SIAFI VERSAO 0 6 PAGINA 25 GUIA CLUSTER 2 3 1 COMPUTA O SOB DEMANDA nhamento e controle da execu o or ament ria financeira e patrimonial do Governo Federal Atualmente este sistema executado em mainfraime e encontra se em andamento no Servi o Federal de Processamento de Dados Serpro um projeto 201 de migra o para baixa plataforma ado o de soft ware livre e tecnologia de Cluster de balanceamento de carga Estes projetos desenvolvidos pelo governo possuem um ou mais das seguintes caracter sticas Necessidade de Alta Capacidade de Processamento Suporte a Milhares de Usu rios Simult neos Alta Capacidade de Armazenamento Alta Disponibilidade e Seguran a Utiliza o de padr es abertos Necessidade de integra o de sistemas e bases de dados Os grandes sistemas utilizados pelo governo em sua grande maioria como al guns dos descritos anteriormente s o desenvolvidos para a utiliza o em siste mas baseados em Computa o de Grande Porte A se o 2 4 apresenta uma desc
435. ou prestam suporte para a obten o destas caracter sticas VERSAO 0 6 P GINA 172 GUIA CLUSTER 8 1 LINUX VIRTUAL SERVER 8 1 Linux Virtual Server Linux Virtual Server LVS uma tecnologia que permite a constru o de siste mas com alta disponibilidade e altamente escal veis a partir do uso conjunto de v rios servidores A arquitetura totalmente transparente para o usu rio final ou seja um grupo de m quinas servidoras com um direcionador que transparece como apenas um nico ponto de acesso O LVS pode oferecer servi os de maior capacidade desempenho ou servi os redundantes quando servidores individu ais tiverem que sair do ar para manuten o em rela o aos servi os dispon veis em servidores nicos LVS HOWTO 8 O LVS como um roteador da camada 4 do modelo OSI 6 7 4 A sem ntica pa dr o do cliente servidor continua preservada onde cada cliente pensa que est diretamente conectado a um servidor real e este pensa que est conectado dire tamente a um cliente Nem o cliente nem o servidor sabem que as conex es so frem a interven o do direcionador Um servidor real do LVS n o coopera e nem sabe da exist ncia de outros servidores reais no LVS um LVS n o um beowulf vide 10 1 e tamb m n o um Cluster mas se comporta como um agregador de servi os que possibilita o atendimento de uma demanda grande em um servi o LVS HOWTO 8 O c digo IPVS que possibilita a constru o do sist
436. para dissemina o do conhecimento e nova modalidade de desenvolvimento tec nol gico em fun o do novo paradigma que se estabelece na rela o de quem produz o software sejam empresas sejam programadores aut nomos com a tecnologia propriamente dita Assim a ado o do Software Livre por parte do Estado amparada prin cipalmente pelos princ pios de Impessoalidade Efici ncia e Razoabilidade visando melhoria na qualidade dos servi os prestados e promo o dos desenvolvimentos tecnol gico e social 7O artigo 37 da Constitui o da Rep blica apresenta os Princ pios Basilares da Administra o P blica legalidade impessoalidade moralidade publicidade e efici ncia O princ pio da razoabilidade possui fundamenta o impl cita sendo evidenciado em algumas Constitui es Es taduais VERSAO 0 6 P GINA 15 GUIA CLUSTER 2 2 3 AS DIRETRIZES DO GOVERNO ELETRONICO E O SOFTWARE LIVRE Portanto o Estado se beneficia diretamente com a ado o do Software Livre tanto no aspecto de sua estrutura o para atendimento s demandas sociais como no seu papel de promover desenvolvimento Desse modo possibili tamos a integra o das pol ticas de moderniza o administrativa inclus o social baseadas na Tecnologia da Informa o e no desenvolvimento indus trial A quest o do Software Livre est contextualizada em amplo cen rio inte grado composto por a es de desenvolvimento tecnol g
437. para algumas reas de aplica o nas quais oferecem uma excelente rela o entre desempenho custo Destacam se as reas de processamento de sinais e imagens nas quais a agluti na o de chips cada um contendo dezenas de processadores simples e as respec tivas mem rias de pequeno tamanho podendo trazer excelentes resultados A Sincroniza o inerente entre processadores a natureza do modelo de controle nico e centralizado garante uma opera o passo a passo e os processadores est o consequentemente sempre sincronizados Diferentemente do que ocorre com as arquiteturas que t m controle distribu do sejam de mem ria compartilhada ou n o estas ficam sujeitas as necessidades eventuais de sincroniza o as quais costumam introduzir per odos de ociosidade na opera o dos processadores VERSAO 0 6 P GINA 87 GUIA CLUSTER 6 1 2 MULTIPROCESSADORES ronen Rede de Interconex o Figura 6 4 Arquitetura gen rica s ncrona matricial Uso eficiente da mem ria a nica mem ria que precisa acomodar programas a mem ria associada ao controlador central as mem rias dos processadores podem ser dedicadas totalmente para dados Alguns aspectos negativos desta abordagem s o Escalabilidade quando o ta manho da matriz de processadores cresce podem surgir dificuldades de garan tir atrav s de uma rede de interconex o de grandes dimens es a opera o total mente s ncrona dos proce
438. parente 2 Um banco de dados distribu do um banco de dados que est sob o con trole de um sistema de administra o de banco de dados central no qual dispositivos de armazenamento storage s o anexados a um computador O armazenamento pode ser em v rios computadores localizados no mesma local f sico ou pode ser disperso em uma rede de computadores interconec tados Os dados o banco de dados pode ser distribu do fisicamente atrav s de m ltiplos locais Um banco de dados distribu do dividido em v rias par tes ou fragmentos Essas partes ou fragmentos do banco de dados distri bu do pode ser replicado para por exemplo criar ambientes de redund n cia RAID ou mesmo copias para Data Warehouse Al m de replica o e fragmenta o em banco de dados distribu dos exis tem v rias outras tecnologias para design de banco de dados distribu dos Por exemplo autonomia local tecnologias de bancos de dados distribu dos s ncronos e ass ncronos A implementa o destas tecnologias podem e definitivamente dependem das necessidades das reas de neg cios e de a sensibilidade e confidenciabilidade dos dados a serem armazenados no banco de dados 9 2 Replica o de Banco de Dados Um banco de dados replicado um sistema de bancos de dados com c pias distribu das em uma ou mais m quinas Este tipo de sistema oferece alta disponibilidade e toler ncia a falhas j que n o h apenas uma nica c pia dos dados
439. ped los para os n s de dados que eles responder o sem se preocupar com nenhum tipo de valida o de permiss o de acesso Quem cuida da permiss o o servidor de meta dados sendo que esse mecanismo n o muito sofisticado Outro problema existente quando o servi dor de meta dados fica indispon vel Somente os arquivos j abertos continuar o sendo acessados at serem fechados Todos os outros arquivos do sistema n o poder o ser acessados Al m disso o servidor de meta dados pode representar um gargalo no sistema j que ele nico E um sistema de arquivos paralelo que j apresenta bons resultados mesmo tendo problemas vis veis Para aplica es paralelas e confi veis em uma rede privativa e fechada ele pode ser usado sem grandes problemas de seguran a 7 4 2 Parallel Virtual Filesystem Version 2 PVFS2 Projeto Parallel Virtual Filesystem Version 2 S tio Oficial http www pvfs org Licen a GPL LGPL Respons vel eis Argonne National Laboratory e Clemson University PVFS2 uma reimplementa o das melhores caracter sticas da primeira vers o VERSAO 0 6 P GINA 165 GUIA CLUSTER 7 4 2 PARALLEL VIRTUAL FILESYSTEM VERSION 2 PVFS2 do PVFS usando uma nova arquitetura para torn lo mais flex vel Isso possi bilitou a implementa o de novas caracter sticas t cnicas e inova es que foram sendo discutidas e requisitadas durante as corre es de defeitos da primeira ver sao As no
440. penho oti mizado em arquiteturas paralelas exige uma sintonia entre as caracter sticas do hardware e do software A pr xima se o deste cap tulo objetiva apresentar as propriedades necess rias em um modelo de programa o paralela para que o esfor o do programador para obter esta sintonia seja minimizado 11 2 2 Propriedades de um Modelo de Programa o para o Pro cessamento Paralelo Uma alternativa para a situa o de falta de portabilidade e curto tempo de vida til do software paralelo o desenvolvimento de um modelo que seja abstrato o suficiente para ocultar os aspectos da arquitetura medida que eles se alteram ao mesmo tempo que mant m o desempenho da aplica o paralela desenvolvida Em ess ncia um modelo deste tipo contempla uma m quina abstrata para a qual o software seria desenvolvido e que seria eficientemente emulada nas diferentes arquiteturas paralelas Assim este modelo atuaria como uma fronteira entre as arquiteturas paralelas sempre em evolu o e o desenvolvimento de software com sua exig ncia de vida longa desassociando os aspectos do projeto do software daqueles de sua implementa o A figura 11 1 resume esta proposta Nesta se o ser o discutidos os aspectos de um modelo ideal para o desenvol vimento de software paralelo A organiza o adotada foi proposta em SKILLI CORN 331 Os recursos m nimos que este modelo deve oferecer s o os seguin tes Facilidade para o Desenvolvim
441. per http www uddi org pubs the evolution of uddi 20020719 pdf 2002 27 UDDI Universal description discovery and integration of web services http www uddi org 2002 28 Business process execution language for web services version 1 1 http www 128 ibm com developerworks library specification ws bpel May 2003 29 Seti home client program remote buffer overflow vulnerability nttp www securityfocus com bid 7292 info April 2003 30 Entropia web page http www entropia com 2004 VERSAO 0 6 PAGINA 392 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 31 Mygrid online manual http www ourgrid org 2004 32 Gnutella nttp www gnutella com 2005 33 Grid physics network http www griphyn org 2005 34 Growing animated film talent http www hpl hp com SE3D se3d overview html 2005 35 Omg s corba website http www corba org 2005 36 Ourgrid project http www ourgrid org 2005 37 SETI home top users http setiathome2 ssl berkeley edu stats users html March 2005 38 Teragrid http www teragrid org 2005 39 Web services activity http www w3 org 2002 ws 2005 40 Ws resource framework http www globus org wsrf 2005 41 Josh Aas Understanding the linux 2 6 8 1 cpu scheduler http josh trancesoftware com linux linux cpu scheduler pdf Ultima Visita em 20 09 2005 12 12 42 MySQL AB Mysql manual http www mysql com doc en ind
442. plica es mais antigas le gados custar muito mais caro do que o desenvolvimento de uma nova aplica o em tecnologias mais recentes Mas ainda sim a avalia o de cada uma aplica o precisa ser feita Podem ocorrer casos de aplica es neste caso problemas que nem mesmo com o emprego de tecnologias mais recentes seja poss vel clusterizar As metas de desempenho desejadas o crescimento deste a longo prazo tamb m s o uma m trica a ser utilizada podendo at mesmo se tornar a linha mestra para o projeto de todo o sistema As capacidades tem de ser bem planejadas e conhe cidas desde o in cio do desenvolvimento do projeto pois estas que indicar o as poss veis tecnologias a serem adotadas para se obter uma equaliza o de desem penho e custo total de implanta o Ressalta se que n o se pode pensar neste momento do projeto apenas nas capacidades imediatas do sistema Deve se tam b m programar o crescimento de demanda a longo prazo picos de utiliza o do sistema que em alguns momentos pode explodir a capacidade instalada sistema de recupera o de desastres entre outras vari veis Projeto piloto O planejamento de um projeto ou cluster pode ser dif cil se n o h conhecimento e experi ncia em clusters S com a pr tica e experi ncia que poderemos ser ca pazes de entender as capacidades e limita es de um cluster Iniciar com um projeto pequeno pode ser a melhor forma para evitar enganos e erros e con
443. plica o que est acessando o banco de dados Exemplo de solu o CJDBC Cluster Java DataBase Conector compat vel e possui a mesma sin taxe do JDBC e para ser utilizado em uma aplica o que escrita em java necess rio poucos ajustes na aplica o Capaz de clusterizar QUAL QUER banco de dados ODBC e Gerenciamento do Cluster no pr prio banco de dados Nesta alternativa o gerenciamento do cluster implementado atrav s de uma ferramenta no VERSAO 0 6 P GINA 198 GUIA CLUSTER 9 1 BANCO DE DADOS DISTRIBU DOS pr prio sistema de banco de dados Vantagem Possui maior integra o com o sistema de banco de dados sistema mais robusto de integridade de dados maior integra o com o sistema de banco de dados Desvantagem dependente do sistema de banco de dados Exemplos Solu o Propriet ria Oracle Real Aplication Cluster RAC Solu es Livres Mysql Cluster pgCluster e Cria o de um Proxy de banco de dados Semelhante ao gerenciamento na aplica o s que neste caso criado um servi o falso honey pot onde s o feitas as conex es e o gerenciamento da distribui o das requisi es para os servidores de banco de dados reais e LVS Filesystem distribu do e compartilhado No fim das contas banco de dados arquivo armazenado em disco essa id ia consiste em ter um sis tema de arquivos nico entre os servidores que suporte acesso de escrita simult neo implementa o via so
444. po relativamente curto de execu o da aplica o O tempo de execu o dos experimentos descritos em 39 da ordem de segundos casando perfeitamente com as previs es de curto prazo do NWS Para aplica es que exe cutam por mais tempo horas digamos seria necess rio prever a disponibili dade de recursos do Grid por prazos mais longos Uma alternativa interessante seria construir um escalonador que al m do escalonamento inicial continuasse funcionando para reescalonar a aplica o caso as condi es do Grid mudassem consideravelmente 327 Neste caso naturalmente a aplica o teria que ser es VERSAO 0 6 P GINA 314 GUIA CLUSTER 13 3 3 ESCALONAMENTO Figura 13 13 Escalonamento feito pelo Jacobi AppLes crita para permitir tal reescalonamento suportando a redistribui o de trabalho durante a execu o Note que as previs es de performance fornecidas pelo NWS s o fundamentais para o funcionamento do Jacobi AppLes De fato a vasta maioria dos escalonado res de aplica o descritos na literatura 89 111 327 380 379 167 utiliza alguma forma de previs o de performance Infelizmente h problemas em aplicar em larga escala os sistemas de monitora o e previs o existentes como NWS 359 e Remos 377 especialmente quando se trata de prever o comportamento dos ca nais de comunica o que crescem quadraticamente com o n mero de m quinas do Grid Em Francis et al 189 apresentada
445. podem ser entregues fora de ordem ou at perdidos A integridade dos dados pode ser gerida por um checksum um campo no cabe alho de checagem por soma 6 7 8 Real time Transport Protocol RTP do ingl s Real Time Protocol um protocolo de redes utilizado em aplica es de tempo real como por exemplo Voz sobre IP que a entrega de dados udio ponto a ponto Define como deve ser feita a fragmenta o do fluxo de dados udio adicionando a cada fragmento informa o de sequ ncia e de tempo de entrega O controle realizado pelo RTCP Real Time Control Protocol Am bos utilizam o UDP como protocolo de transporte o qual n o oferece qualquer VERSAO 0 6 P GINA 116 GUIA CLUSTER 6 7 9 VIRTUAL ROUTER REDUNDANCY PROTOCOL VRRP garantia que os pacotes ser o entregues num determinado intervalo Os protoco los RTP RTCP s o definidos pela RFC 3550 do IETF Internet Engineering Task Force 6 7 9 Virtual Router Redundancy Protocol VRRP O VRRP designado para eliminar pontos de falhas criados por default gateway de rede LAN LOCAL AREA NETWORK VRRP um protocolo especificado pela IEFT RFC 3768 que permite dois ou mais roteadores atuarem como um roteador virtual De acordo com essa espe cifica o os roteadores se apresentam para cliente com um endere o IP virtual VIP Virtual IP correspondente a um MAC virtual VMAC mas cada qual com seu pr prio IP e MAC reais Se o roteador prim rio maste
446. podem auxiliar na resolu o deste problema e Cluster de Processamento de Alto Desempenho Implementa o dos algo ritmos de manipula o dos dados utilizando se de t cnicas de explora o de paralelismo e sistemas de processamento distribu do de alto desempe nho com o objetivo de melhorar o tempo de minera o dos dados atrav s da distribui o das opera es realizadas entre um conjunto de servidores As principais tecnologias utilizadas para esta finalidade s o MPI PVM e OpenMosix e Cluster de Banco de Dados A id ia aqui clusterizar a camada de banco de dados da aplica o fornecendo a aplica o uma maior capacidade de 7 BERRY M J A LINOFE G Data mining techniques for marketing sales and customer support John Wiley amp Sons New York 1997 VERSAO 0 6 PAGINA 48 GUIA CLUSTER 3 3 1 CEN RIOS DE APLICA O armazenamento dispon vel e um acesso aos dados mais r pido Estas ques t es s o obtidas atrav s da utiliza o de tecnologias de banco de dados dis tribu do replicado ou paraleliza o de consultas SQL As solu es mais conhecidas para auxiliar na resolu o deste problema s o Mysql Cluster PgCluster slony Sequoia e Pargres O governo federal financiou o desenvolvimento do tamandu um software de minera o de dados em Cluster este software foi licenciado sobre os termos de licenciamento GPL Permitindo a sua utiliza o distribui o altera o e distri
447. potencialize o desenvolvimento de programas destinados s arquiteturas paralelas VERSAO 0 6 P GINA 248 GUIA CLUSTER 11 2 1 RELA O ENTRE ALGORITMOS E ARQUITETURAS PARALELAS 11 2 1 Rela o entre Algoritmos e Arquiteturas Paralelas O foco central desta se o discutir a rela o entre as caracter sticas de um al goritmo paralelo e aquelas da arquitetura sobre a qual este ir ser processado Uma clareza deste inter relacionamento fundamental para a qualidade tanto do projeto do hardware paralelo como dos respectivos softwares a n vel de sis tema e aplicativo Este tema vem despertando o interesse dos te ricos j h algum tempo Um primeiro estudo publicado foi o de UNG 367 A rela o dos crit rios para inter relacionamento que ser utilizada foi extra da de MOLDOVAN 277 O tema tratado nesta se o amplo e fact vel de uma abordagem te rico formal Foi escolhido um tratamento de modo resumido procurando mostrar da maneira mais gen rica poss vel a rela o entre o hardware e o software paralelo vide ta bela 11 1 Para potencializar esta escolha foram extra dos dos textos CULLER 128 HWANG 222 e MORSE 250 exemplos para quantificar a natureza das rela es Crit rios para Caracteriza o de Algoritmos O crit rios que ser o utilizados para caracterizar o perfil do algoritmo paralelo s o granulosidade do m dulo controle da concorr ncia mecanismo de dados geometria das comunic
448. publique de forma ostensiva e adequada em cada c pia um aviso de direitos autorais ou copyright apropriado e uma notifica o sobre a exonera o de garantia mantenha intactas as informa es avisos ou notifica es referentes a esta Licen a e aus ncia de qualquer garantia e forne a a quaisquer outros re ceptores do Programa uma c pia desta Licen a junto com o Programa Voc poder cobrar um valor pelo ato f sico de transferir uma c pia e voc pode oferecer se quiser a prote o de uma garantia em troca de um valor VERSAO 0 6 P GINA 358 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL 3 Voc poder modificar sua c pia ou c pias do Programa ou qualquer parte dele formando dessa forma uma obra baseada no Programa bem como copiar e distribuir essas modifica es ou obra de acordo com os termos da Cl usula 1 acima desde que voc tamb m atenda a todas as seguintes condi es a Voc deve fazer com que os arquivos modificados contenham avisos em destaque informando que voc modificou os arquivos bem como a data de qualquer modifica o b Voc deve fazer com que qualquer obra que voc distribuir ou publicar que no todo ou em parte contenha o Programa ou seja dele derivada ou derivada de qualquer parte dele seja licenciada como um todo sem qualquer custo para todos terceiros nos termos desta licen a c Se o programa modificado normalmente l comandos interativamente quando ex
449. puta o distribu da A terceira gera o caracterizada pelo utiliza o do paradigma de cliente VERSAO 0 6 P GINA 40 GUIA CLUSTER 3 2 1 TABELA RESUMO DAS GERACOES DE COMPUTACAO DISTRIBUIDA e servidor as aplica es s o desenvolvidas para serem executadas em um computador cliente terem uma interface com o usu rio e interagirem com servidores de aplica o e Quarta Gera o de computa o distribu da A quarta gera o caracterizada pela utiliza o de aplica es multi camadas com regras de neg cio interface de usu rios e dados separadas entre ambiente de intera o do usu rio e v rias camadas de servidores e Quinta gera o de computa o distribu da A quinta gera o tamb m conhecida como grid computing caracterizada pela exist ncia pela utiliza o por parte do cliente de recursos computacio nais alocados em um pool virtual de forma que o cliente utiliza capacidade computacional de acordo com a sua necessidade sem precisar ter maiores detalhes ou controle de onde s o os recursos utilizados 3 2 1 Tabela Resumo das gera es de computa o distribu da A tabela 3 1 apresenta um resumo das cinco gera es da computa o distribu da Da mesma forma que em cada uma destas revolu es aconteceu mudan as estru turais nas rela es entre as pessoas usu rias ou desenvolvedores de tecnologias e os sistemas computacionais o mesmo ir ocorrer na ado o de tecnologias em C
450. putador aplicativo ou ferramenta de ter ceiros pelo qual um programador escrevendo um apli cativo pode fazer requisi es do sistema operacional Tamb m conhecido por Application Programmers Inter face re ne rg os da administra o direta servi os in tegrados na estrutura administrativa da Presid n cia da Rep blica e dos Minist rios e indireta Au tarquias Empresas P blicas Sociedades de Econo mia Mista e Funda es P blicas do Poder Execu tivo https www planalto gov br ccivil_ 03 decreto lei del0200 htm O que n o ocorre ao mesmo tempo sem rela o regu lar de tempo inesperado imprevis vel Modo de trans miss o no qual os dados s o transmitidos sem periodi cidade constante no modo s ncrono os dados s o trans mitidos periodicamente transmiss o de sinais onde os intervalos de tempo entre os caracteres transmitidos po dem ser diferentes e a transmiss o controlada por ele mentos que indicam o in cio e o fim de cada caractere Transmiss o que envia um caractere de cada vez Trans miss o ass ncrona a transmiss o de dados que n o exige o uso de sinais externos para manter a sincroni za o entre emissor e receptor P GINA 375 Termo que designa o tempo gasto pelas v rias tecnolo GUIA CLUSTER CAP TULO E GLOSS RIO Business to Business B2B Business to Consumer B2C CERN pour la Recherche Nucl aire Conseil Europ en Conselho Europeu par
451. que poder o ser trocadas rapidamente caso o hardware do equi pamento apresente defeitos Existe tamb m a id ia de Cluster segmentado ou cluster de N camadas no qual se teriam v rios clusters que trabalhando em conjunto seriam respons veis pela infra estrutura enterprise Por exemplo uma camada apenas para ser res pons vel pelo armazenamento cluster storage SAN uma camada apenas para banco de dados uma camada apenas para aplica es uma camada para firewall e proxy e assim modelar o ambiente para atender as especificidades dos sistemas utilizados no ambiente Mais detalhes deste tipo de ambiente pode ser melhor visto na sess o 3 4 Seguindo assim essa caracter stica de camadas de cluster cada uma delas tenderia a ter um nico tipo de hardware Sistemas diskless Sloan em seu artigo 332 aconselha a se evitar a utiliza o de sistemas que n o utilizam disco r gidos no entanto a experi ncia e a evolu o destes sistemas v m mostrando que a sua efici ncia pode ser muito bem aproveitada al m de VERSAO 0 6 P GINA 64 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO se facilitar o gerenciamento de todo o sistema de forma global Mesmo assim a utiliza o deste tipo de tecnologia precisa ser muito bem avaliada para verificar os pr s e contras de uma implementa o baseada em tecnologia sem disco A import ncia da rede de comunica es Uma reflex o tem de ser feita antes de come ar a pensar
452. que trabalham a disponibilidade de sistemas ser o discutidos no cap tulo 8 tamb m neste documento 6 5 Balanceamento de Carga Quando se projeta um sistema computacional sabe se a carga m dia e m xima que este ir suportar Apartir do momento em que a carga de utiliza o do sis VERSAO 0 6 P GINA 101 GUIA CLUSTER 6 6 REDE DE COMUNICA ES tema come a a se tornar excessiva preciso se buscar uma solu o para o au mento de capacidade do sistema que pode ser basicamente i aquisi o de uma m quina de maior capacidade computacional ii melhoria de performance do sistema e iii utiliza o de sistemas de balanceamento de carga Os sistemas de balanceamento de carga s o em geral a reparti o da execu o do servi o por v rias m quinas Estas solu es podem se especializar em pequenos grupos sobre os quais se faz um balanceamento de carga utiliza o da CPU de armazenamento ou de rede Qualquer uma delas introduz o conceito de clus tering ou server farm j que o balanceamento ser provavelmente feito para v rios servidores Informa es sobre a implementa o de algumas solu es de balanceamento de carga em Software Livre ser o discutidos no cap tulo 8 deste documento 6 6 Rede de Comunica es 6 6 1 A Import ncia da Rede de Comunica o Em cluster a efici ncia do sistema da rede de comunica o entre os n s de ex trema import ncia e criticidade Se a rede falha ou
453. quivos na utiliza o de grandes caches no disco local do cliente e no uso de listas de controle de acesso juntamente com o protocolo de autentica o m tua Kerberos Por causa do cache e da iniciativa de n o se compartilhar arquivos tempor rios os clientes necessitam obrigatoriamente de disco local O espa o de nomes di vidido entre local e remoto sendo que este ultimo mantido e organizado pelos servidores atrav s de um banco de dados de localiza o 7 3 6 Constant Data Availability CODA Projeto CODA Filesystem S tio Oficial http www coda cs cmu edu doc html index html Licen a GPL Respons vel Carnegie Mellon University O CODA Constant Data Availability 339 245 56 246 come ou a ser desenvolvido em 1987 pela Universidade de Carnegie Mellon EUA tendo sua origem a partir do AFS 2 Seu principal objetivo fornecer opera es desconec tadas ao sistema de arquivos para computadores port teis que costumam ficar grande parte do tempo fora da rede Isso prov uma m xima disponibilidade dos arquivos aos seus usu rios Para que isso seja poss vel o CODA implementa alguns mecanismos de repli ca o n o presentes no AFS dado que ele foi criado para lidar com esta es de trabalho port teis ou que permanecem conectadas aos servidores por curtos pe http www coda cs cmu edu doc html index html VERSAO 0 6 P GINA 156 GUIA CLUSTER 7 3 6 CONSTANT DATA AVAILABILITY COD
454. r que inicialmente possu a o dados virtuais falhar ent o um roteador de backup secund rio os assume As trocas de mensagem para verifica o de estado entre os servidores aconte cem atrav s de IP multicast Uma falha no recebimento dessas mensagens em um intervalo especifico de tempo leva a um processo de elei o de um novo mas ter Em situa o normal apenas o master envia mensagens IP multicast apenas quando h escolha para novo master que os servidores de backup enviam men sagens Virtual Router Roteador virtual abstra o formada por um ou mais roteadores rodando VRRP VRRP Instance Implementa o em programa do protocolo VRRP rodando em um roteador Virtual Router ID VRID Identifica o num rica para um Virtual Router em particular que deve ser nico para cada segmento de rede Virtual Router IP Endere o IP associado ao um VRID que usado por clientes para obter servi os dele gerenciado pela inst ncia do VRRP que possui o VRID 2Internet Engineering Task Force VERSAO 0 6 PAGINA 117 GUIA CLUSTER 6 7 9 VIRTUAL ROUTER REDUNDANCY PROTOCOL VRRP Virtual MAC address Em casos em que endere o MAC usado Ethernet este endere o MAC virtual associado ao Endere o IP virtual Priority Valor que varia de 1 a 254 associado a cada roteador rodando VRRP como maneira de determinar o master quanto maior o n mero maior priori dade Roteador A Priorida
455. r mas mesmo assim em conjun o com outras ferramentas como Heartbeat e LDirectord pode se construir um sistema de alta disponibilidade para este item aumentando ainda mais sua confiabilidade e eliminando seu ponto cr tico de fa lha Mais informa es e documenta es detalhadas sobre o LVS podem ser obitidas nos seguintes endere os http www linuxvirtualserver org http www ultramonkey org http www austintek com LVS LVS HOWTO 8 1 1 Nomenclatura e abrevia es Em textos sobre LVS tornou se comum o uso de termos para designar os compo nentes do sistema VERSAO 0 6 P GINA 174 GUIA CLUSTER 8 1 2 TIPOS DE LVS CLUSTER LVS Linux Virtual Server designa a combina o Director Servidores Reais que juntos comp em o Servidor Virtual sendo visto pelos clientes como uma unica maquina Director a m quina que roda o c digo ipvs E um roteador com regras espe ciais que recebe requisi es de servi os de clientes e as repassa para m quinas que disponibilizam os servi os Servidor Real a m quina que hospeda os servi os quem de fato trata requi si es de clientes M todos de Redirecionamento LVS Nat LVS DR LVS Tun Sendo o Direc tor um roteador com regras espec ficas de redirecionamento estes m todos de terminam como os pacotes dos clientes s o redirecionados para os Servidores Reais M todos de escalonamento scheduling algoritmos usados p
456. r ncias s o 192 e Nome O nome do recurso a ser utilizado como um arquivo ou diret rio n o deve indicar ou conter ind cios de onde este est localizado VERSAO 0 6 P GINA 134 GUIA CLUSTER 7 3 2 SERVI OS OFERECIDOS PELOS SADS e Localiza o O usu rio n o precisa fornecer a localiza o f sica do recurso para encontr lo e Acesso O usu rio n o perceber se o arquivo que est sendo usado local ou remoto Essa a filosofia usada no sistema de arquivos virtual VFS do Solaris e do Linux e Replica o Os arquivos do SAD podem ter c pias armazenadas em lo cais diferentes O usu rio n o deve perceber que existem v rias c pias do mesmo arquivo Para ele s ser apresentada uma e quem a escolher o SAD e Concorr ncia ou Paralelismo V rios usu rios podem acessar o mesmo ar quivo ao mesmo tempo mas isso n o deve ser percept vel para esses usu rios e Falha O SAD deve garantir que o acesso aos arquivos seja ininterrupto e sem falhas sem que o usu rio saiba como isso tratado 7 3 2 Servi os Oferecidos pelos SADs Para proporcionar um ambiente simples e f cil de usar escondendo toda a com plexidade por tr s dos engenhosos algoritmos e id ias desenvolvidas pelos pes quisadores em sistemas de arquivos existem v rios servi os oferecidos pelos SADs Muitos deles acabaram se tornando essenciais e s o adotados em v rios sistemas Al m disso por ser muito comum
457. r o se atualizar com a vers o do servidor causando sobrecarga Por outro lado caso se tenha estimado que a rede seria muito grande e se te nha distribu do sistema de arquivos em muitos servidores fica dif cil descobrir onde um arquivo est armazenado fisicamente Por exemplo se para abrir um arquivo um cliente tiver que perguntar para cada servidor se ele o respons vel por aquele arquivo certamente haver um congestionamento na rede Caso se tente resolver isso colocando um servidor central para resolver todos os ca minhos para os arquivos indicando a localiza o do mesmo tal servidor sofrer sobrecarga Um sistema escal vel um sistema que leva em conta esses problemas e tenta evitar sua ocorr ncia quando o n mero de clientes aumenta muito O ANDREW um sistema de arquivos que conseguiu adotar uma solu o satisfat ria 245 para esses problemas atrav s da descentraliza o das informa es e da hierar quiza o da rede Esse SAD descrito na sess o 7 3 5 VERSAO 0 6 P GINA 140 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS Seguran a Compartilhar arquivos entre v rios ambientes e usu rios uma das vantagens que os sistemas de arquivos distribu dos trazem Por m deixar que outras pes soas possam acessar arquivos confidenciais um grande problema Dessa forma torna se necess rio adotar mecanismos de seguran a para evitar que pessoas de sautorizadas tenham acesso
458. r com o recurso en quanto algum processo remoto executa em uma parti o isolada do resto do sis tema Por m isso pode causar inconvenientes para o usu rio interativo que na maioria dos casos n o est disposto a contribuir com seu recurso para o Grid caso isso implique em um consumo exagerado do recurso por parte do processo VERSAO 0 6 P GINA 323 GUIA CLUSTER 13 3 5 SEGURAN A estrangeiro Sendo assim outras alternativas fornecem mecanismos de detec o de ociosidade que prepara o ambiente para receber processos estrangeiros e execut los em uma parti o independente Assim espera se que o usu rio local n o seja prejudicado por um processo que por exemplo consume muita mem ria uma vez que o recurso estaria ocioso Outras solu es t m o objetivo de n o apenas garantir que o sistema estar a salvo de qualquer tentativa de danifica o como de in cio de ataques a partir do recurso como proteger o usu rio de inconvenientes causados por aplica es que utilizam muito da capacidade do recurso Pensando nisso o Swan uma solu o de sandboxing baseado na m quina virtual Xen 51 O Swan dividido em dois m dulos i Mode Switcher ii Virtual Machine O primeiro m dulo respons vel por monitorar o recurso no intuito de detectar sua ociosidade Ao detectar a ociosidade o recurso muda do sistema operacional no qual o usu rio normalmente trabalha para um sistema operacional modifi cado que gar
459. r dentro de uma determinada faixa tendo como regulador a demanda de servi o real MORSE 250 VERSAO 0 6 P GINA 77 GUIA CLUSTER 5 1 8 DISPONIBILIDADE DE SOFTWARE APLICATIVO 5 1 8 Disponibilidade de Software Aplicativo exatamente a disponibilidade de software de terceiros com qualidade um n mero t pico para as diferentes marcas seria 1500 aplica es que tem potenciali zado o mercado das esta es de trabalho de elevado desempenho Por sua vez a aus ncia de aplica es dispon veis no mercado tem sido um dos fatores a restrin gir a ado o de equipamentos paralelos por parte das empresas em geral Poucas empresas exce o das institui es de pesquisa e ensino n o se intimidam ante os esfor os para portar e ou desenvolver software para explora o do parale lismo Este aspecto acaba sendo significativo no momento de decidir pela n o ado o de um equipamento paralelo Tentando tra ar um perfil poss vel dizer que no bin mio fazer amp comprar o software paralelo que uma empresa poderia necessitar ainda est muito polarizado no fazer Do ponto de vista de uma empresa que desenvolve e comercializa software a de cis o de investir no mercado de processamento paralelo ou em outras frentes por exemplo melhoramentos em produtos j amplamente utilizados influenciada por alguns fatores MORSE 250 e pequena base instalada o mercado de equipamentos paralelos pequeno independente do
460. r seu lugar Melhora no tempo de resposta aos clientes pode ser conseguida dividindo a carga para o processamento das consultas do clientes entre master e sla ves As consultas SELECT podem ser enviadas aos slaves para reduzir a carga do processamento de consultas no master Declara es que im pliquem em modifica es devem ser enviadas ao master para manter os dados sincronizados Outro benef cio do uso da replica o que backups de bancos de dados podem ser realizados sem interromper o master O master continua os processos de atualiza o enquanto o backup feito O Processo de Replica o Quando o sistema de replica o esta rodando quaisquer declara es SOL executadas no servidor master MySQL grava estas declara es em um log bin rio bin log juntamente com um n mero que identifica sua posi o no log O servidor slave com certa frequ ncia verifica este log em busca de mudan as Se uma mudan a encontrada o slave a copia para seu log de vigil ncia relay log Al m disso o slave grava um novo numero de iden tifica o posicional em um arquivo master info O slave ent o volta a verificar o master quando alguma altera o encontrada ela executada e gravada no relay log Como salvaguarda atrav s de uma thread SQL o slave compara seus dados com os dados do master Se a compara o se mostrar inconsistente o processo de replica o para e uma mensagem de erro gravada no log de er
461. ra 13 9 mostra esquematica mente uma NOW requisi es requisi es requisi es CPU CPU CPU Mem Mem Mem Figura 13 9 Arquitetura de uma NOW Grids s o o passo natural depois dos NOWs no sentido de mais heterogeneidade e maior distribui o Os componentes de um Grid n o se restringem a proces sadores podendo ser SMPs e MPPs como tamb m instrumentos digitais Grids tipicamente n o fornecem uma imagem comum do sistema para seus usu rios Componentes do Grid podem variar drasticamente em capacidade software ins talado sistemas de arquivo montados e perif ricos instalados Al m disso os VERSAO 0 6 P GINA 305 GUIA CLUSTER 13 3 1 PLATAFORMAS PARA PROCESSAMENTO PARALELO componentes de um Grid tipicamente estar sobre controle de diferentes entida des e portanto em dominios administrativos diversos Conseqtientemente um dado usu rio pode ter acesso e permiss es bastante diversas nos diferentes com ponentes de um Grid Obviamente o Grid n o pode ser dedicado a um usu rio embora seja poss vel que algum componente possa ser dedicado um MPP por exemplo importante salientar que uma aplica o que executa sobre o Grid deve estar preparada para lidar com todo este dinamismo e variabilidade da pla taforma de execu o adaptando se ao cen rio que se apresenta com o intuito de obter a melhor performance poss vel no momento A Figura 13 10 exemplifica um poss vel Grid composto por u
462. rair consumidores esperando que os Trade Managers requi sitem o servi o tomando como base para escolha a compara o de pre os entre os pre os divulgados Rede de Favores Apesar ser bastante pertinente a introdu o de modelos econ micos a fim de controlar o compartilhamento de recursos entre sites um grande n mero de apli ca es que igualmente necessitam de uma infraestrutura de recursos servi os computacionais de larga escala n o requerem um contrato t o forte entre clientes e provedores como as providas por uma arquitetura baseada em modelos econ micos Ao manter o foco neste tipo de aplica o se torna poss vel desenvolver uma solu o pr tica que pode ser usada efetivamente por uma comunidade de usu rios Claramente estamos apresentando um dilema entre ter uma infraestrutura de escopo mais geral por m mais complexa o que dificultaria sua implanta o efe tiva e uma infraestrutura mais simples o que facilitaria sua implanta o po r m com um escopo mais restrito Pensando nisso foi desenvolvida a solu o OurGrid 36 61 A id ia ser uma solu o simples que permita a cria o de Grids Computacionais que fornecem poder computacional seguindo a pol tica VERSAO 0 6 P GINA 296 GUIA CLUSTER 13 2 7 PADRONIZA O best effort O foco est em aplica es Bag of Tasks i e aquelas aplica es cujas tarefas s o independentes com essa redu o de escopo foi poss vel ter um Grid
463. ramas para ele desenvolvidos nos diversos tipos de arquiteturas dispon veis Segundo SKILLICORN 331 so mente um modelo com otimiza o nas comunica es pode ter previsibilidade no desempenho Por sua vez considerando a diversidade dos problemas reais heur sticas complexas para otimizar o mapeamento das tarefas paralelas consi derando o custo das comunica es podem introduzir custo computacional ele vado Assim somente modelos que limitem a frequ ncia das comunica es po dem esperar ter uma garantia m nima de desempenho em diferentes hardwares VERSAO 0 6 P GINA 256 GUIA CLUSTER 11 2 2 PROPRIEDADES DE UM MODELO DE PROGRAMAGAO PARA O PROCESSAMENTO PARALELO paralelos Medidas de Custo O desenvolvimento de software para arquiteturas paralelas tem sempre presente a premissa de buscar o maior desempenho poss vel o que tem reflexos diretos no tempo que o programa exige do hardware para completar sua execu o Al m do desempenho global a taxa de utiliza o individual dos processadores e o custo de desenvolvimento s o importantes indicadores para an lise do custo total decorrente das etapas de projeto programa o e execu o do software pa ralelo A proporcionalidade de desempenho entre as plataformas sequenciais faculta que uma an lise da complexidade dos algoritmos empregados no programa traga uma expectativa de desempenho independentemente do hardware espec fico que ser utilizado Na programa
464. ramento empregado para encobrir ou ocultar falhas Neste item o servi o apresentado pelo sistema n o dever ser modificado pela ocorr n cia de falhas ou seja o sistema como um todo n o dever apresentar defeito Logo o sistema dever permanecer operacional e em um estado seguro para os usu rios e para o meio ambiente Est a forma mais completa de toler ncia falhas a mais desejada e a de maior custo Todas as demais formas modificam o servi o prestado pelo sistema na ocorr ncia de falhas 136 A toler ncia a falhas consiste basicamente em ter hardware redundante que en tra em funcionamento automaticamente ap s a detec o de falha do hardware principal Este texto n o tem a inten o de estender demasiadamente a discuss o sobre este tema podendo ser melhor visto em DANTAS 136 VERSAO 0 6 P GINA 95 GUIA CLUSTER 6 2 3 ATRIBUTOS Remo o de Falhas Uma solu o para a obten o da dependabilidade a op o conhecida como re mo o de falhas Esta t cnica pode ser aplicada tanto na fase de desenvolvimento como durante o ciclo de vida do sistema A remo o de falhas na fase de desen volvimento realizada atrav s das etapas de verifica o diagn stico e corre o A verifica o dos mecanismos de toler ncia falhas um importante aspecto de remo o de falhas 136 Previs o De Falhas A previs o de falhas o ltimo meio utilizado para se alcan ar a dependabili dad
465. rd crypt e md5 3 Controle de acesso via pg hba conf n o suportado Sem controle de acesso qualquer um pode acessar pgpool o que pode ser impedido via iptables por exemplo pgpool II pgpool II um projeto que herdou as caracter sticas do pgpool mas que suporta m ltiplas inst ncias do PostgreSQL 128 n s expans vel via recom pila o do c digo fonte e processamento paralelo nos m ltiplos n s o que aumenta muito a performance A arquitetura do pgpool II consiste nele pr prio System DB que processa informa es administrativas e opera es agregadas e m ltiplos n s de da dos onde s o armazenados os dados Novos dados ser o incluindos alte rados no n DB baseado em regras de particionamento pre definido Uma regra de particionamento definida por fun es SQL e s o armazenadas no System DB que outro servidor PosgreSQL A arquitetura do pgpool II ilustrada na figura 9 1 que se segue VERSAO 0 6 P GINA 204 GUIA CLUSTER 9 3 2 PGCLUSTER pgpool tl System DB H query Cliert D blink Figura 9 1 Sistema de balanceamento de carga 9 3 2 PGcluster PGCluster 17 um conjunto de modifica es para o c digo fonte do Post greSQL que permite a montagem de um sistema de replica o s ncrono multi master para PostgreSQL garantindo replica o consistente e balan ceamento de carga para bancos de dados baseados em PostgreSQL A repli ca o s n
466. re NFS Network File System NNTP Network News Transfer Protocol ORBs Object Request Bro kers VERSAO 0 6 Java Database Connectivity Uma especifica o de inter face de programa aplicativo application program interface API para conectar programas escritos em Java aos da dos em bancos de dados populares A interface de pro grama aplicativo permite que se codifiquem declara es de requisi o de acesso em Structured Query Language SQL as quais s o ent o passadas para o programa que gerencia o banco de dados O resultado retornado por uma interface similar s o informa es adicionais necess rias para que os da dos se tornem teis informa o essencial para que se possa fazer uso dos dados Em suma metada dos s o um conjunto de caracter sticas sobre os dados que n o est o normalmente inclu das nos dados propri amente ditos http www isa utl pt dm sig sig20002001 TemaMetadados trabalho htm um termo geral que serve para mediar dois programas separados e normalmente j existentes Aplica es dife rentes podem comunicar se atrav s do servi o de Mes saging proporcionado por programas middleware o protocolo de compartilhamento de arquivos remo tos desenvolvido pela Sun Microsystems Faz parte da fam lia de protocolos TCP IP Padr o usado para a troca de mensagens dos usu rios da Usenet na Internet o componente respons vel por atender requisi es de objet
467. recursos sob demanda ex ci clos armazenamento software perif ricos etc Os termos Software de Fonte Aberta Open Source Software e Software Livre Free Software tem seus defensores e suas diferen as conceituais e jur dicas Neste tra balho usaremos o termo Software Livre por se tratar de uma pol tica estrat gica do governo e pela inten o de destacar as caracter sticas que o diferenciam do Software de Fonte Aberta especialmente sua disponibiliza o na forma da Li cen a P blica Geral GPL Os termos do Sistema Operacional como nomes de arquivos ser o apresentados desta forma Nome de arquivo C digos de programas ser o apresentados da forma C digo 1 2 P blico Este Documento dirigido aos gerentes e t cnicos de Tecnologia da Informa o TI de todo o Governo Federal Brasileiro e pode ser utilizado nos outros pode res Executivo Legislativo e Judici rio servindo tamb m como refer ncia para os governos estaduais e municipais que tenham interesse em conhecer e utilizar tecnologias de cluster e grid 1 3 Autores Os autores deste documentos s o principalmente membros da equipe da Ger n cia de Inova es Tecnol gicas GIT do Departamento de Integra o de Sistemas DSI da Secret ria de Log stica e Tecnologia da Informa o SLTI do Minist rio do Planejamento Or amento e Gest o Muitas contribui es de pessoas e institui es externas tamb m foram inclu das neste Gu
468. refa que apre sentar o maior valor escalonada em um processador do site com o qual a tarefa apresentou maior afinidade A segunda fase consiste da replica o de tarefas VERSAO 0 6 P GINA 319 GUIA CLUSTER 13 3 3 ESCALONAMENTO 7 Storage Affinity CPU Waste pasha 9 W R GPU Waste e Affinity Bandwidth Waste WQR Bandwidtn Waste e O DO DE Waste 1 2 3 4 5 6 Number of Executions Figura 13 17 Sumario do desperdicio de recursos por Storage Affinity comparado com outras heuristicas Esta fase inicia quando n o h mais tarefas aguardando para executar e pelo me nos um processador est dispon vel Uma r plica pode ser criada para qualquer tarefa em execu o Contudo ao contr rio de WQR h um crit rio e uma ordem de prioridade para cria o de r plicas Considerando que o grau de replica o de uma tarefa o n mero de r plicas criadas para esta tarefa ent o ao iniciar a fase de replica o os seguintes crit rios s o verificados na escolha de qual tarefa deve ser replicada i a tarefa deve estar executando e ter um valor de afinidade positivo ou seja alguma por o de sua entrada j deve estar presente no site de algum dos processadores dispon veis no momento ii o grau de replica o cor rente da tarefa deve ser o menor entre as tarefas que atendem o crit rio i e iii a tarefa deve apresentar o maior valor de afinidade en
469. res v lida para o Globus 2 0 Ainda se torna pertinente apresentar as caracter sticas do Globus 2 0 pois muitos grupos interessados em computa o de alto desempenho utilizam infraestruturas baseadas no GT2 Globus Toolkit 2 0 A introdu o do padr o OGSA criou um alinhamento com tecnologias e padr es Web Services assim v rios desses aspectos discutidos anteriormente se modifica ram em busca da implementa es de padr es que promovem maior interopera bilidade A arquitetura do Globus Toolkit 3 ilustrada pela Figura 13 21 Essa vers o uma implementa o da especifica o OGSI Open Grid Services Infrastructure 366 os servi os implementados na camada GT3 Core Services representam os servi os especificados pela OGSI O objetivo especificar mecanismos para cria o geren ciamento e troca de dados entre Grid Services Como discutimos nas Se es 13 2 7 e 13 2 7 h uma tend ncia forte de conver g ncia entre as tecnologias de Grids Computacionais e Web Services Isso fica VERSAO 0 6 P GINA 334 GUIA CLUSTER 13 4 2 MYGRID Other Grid Services GT3 Security Services GT3 Core Figura 13 21 Arquitetura do Globus 343 claro com a introdu o da especifica o WSRF que posiciona as tecnologias de Grids junto aos padr es para Web Services 13 4 2 MyGrid A motiva o para a constru o do MyGrid surgiu do fato que embora bastante pesquisa tenha sido realizada para o desenvolvi
470. ri o sobre o paradigma computacional atualmente utilizado e defesa de uti liza o do paradigma computacional de cluster e grid para atingir os mesmos resultados com maiores vantagens para a administra o p blica 2 3 1 Computa o sob Demanda V rios sistemas de governo possuem demandas flutuantes ou seja durante um momento convivem com pouca ou nenhuma carga de processamento e em outro momento espec fico possuem uma elevada carga de processamento Um exemplo deste perfil o sistema de declara o de imposto de renda Durante um per odo do ano ativada a entrada de dados no sistema para a realiza o de VERSAO 0 6 P GINA 26 GUIA CLUSTER 2 3 2 APROVEITAMENTO DE CICLOS OCIOSOS declara es de imposto de renda Quanto mais se aproxima o final deste per odo maior a quantidade de declara es e conseqtientemente a capacidade compu tacional necess ria para o funcionamento do sistema O mesmo ocorre com o SIAPE s que neste caso a utiliza o para processamento e entrada de dados no sistema ocorre com maior concentra o durante alguns dias do m s A arquitetura da computa o de grande porte n o possui capacidade para que facilmente se aumente ou diminua seu poder computacional sem esbarrar nas barreiras impostas por seu hardware especializado e propriet rio por conta de seu alto custo total de propriedade e a dificuldade de aquisi o destes equipamentos Em fun o desta rela o de depend n
471. rios 13 4 Estudos de Caso 13 4 1 Globus Globus consiste de um conjunto de servi os que facilitam a constru o de infraes truturas para Computa o em Grid 181 Os servi os Globus podem ser usados para submiss o e controle de aplica es descoberta de recursos movimenta o de dados e seguran a no Grid VERSAO 0 6 P GINA 326 GUIA CLUSTER 13 4 1 GLOBUS Apesar desses servi os fornecerem uma parte importante para a constru o de Grids Computacionais existem outros servi os al m desse n cleo Estes servi os igualmente importantes podem ser constru dos sobre essas camadas definidas como a base de servi os para a infraestrutura Discutiremos nas se es seguintes os aspectos mais importantes dessa infraestrutura de servi os Autentica o Um aspecto que complica o uso de Grids na pr tica a autentica o de usu rios em diferentes dom nios administrativos Em princ pio o usu rio tem que ser autenticado para cada dom nio administrativo de uma forma determinada pelo administrador do dom nio que tipicamente envolve fornecer uma identifica o de usu rio e uma senha Este esquema coloca uma grande carga no usu rio quem usa v rios sites Web que exigem login tem uma id ia bem concreta destes problemas No contexto de Computa o em Grid os problemas causados pela m ltipla au tentica o s o agravados pois queremos servi os que possam efetuar a es auto maticamente por m ess
472. rk e Giganet sistemas que utilizam rede Gigabit ethernet tamb m s o encontrados mas com desempenho de rede mais baixo N o se pode confundir as tecnologias Gigabit ethernet Gigabyte System Network e Giganet A Gigabit ethernet a mais co nhecida utilizada e de menor custo todavia o seu desempenho muito menor comparado com as outras solu es A segunda classe formada por interconex es e tem como peculiaridade uma solu o que cria a abstra o de uma mem ria virtual nica multiprocessador entre todos os computadores interligados no dispositivo Exemplo desta s o o Quadrics Network QSNET e Dolphin SCI Gigabit Ethernet O padr o Gigabit Ethernet uma extens o dos padr es 10 Mbps Ethernet e 100 Mbps Fast Ethernet para interconex o em redes Esse padr o surgiu da necessi dade criada pelo aumento da largura de banda nas pontas das redes ex servi dores e esta es de trabalho e tamb m pela redu o constante dos custos entre as tecnologias compartilhadas e comutadas juntamente com as demandas das aplica es atuais O padr o Gigabit Ethernet tem como principais vantagens a popularidade da tec VERSAO 0 6 P GINA 109 GUIA CLUSTER 6 6 4 DISPOSITIVOS DE INTERCONEX O nologia Ethernet e o seu baixo custo Trata se de uma tecnologia padr o prote gendo o investimento feito em recursos humanos e em equipamentos N o h ne nhuma nova camada de protocolo para ser estudada consequentemente h
473. ro do slave error log Se o resultado for satis fat rio os dados estiverem corretos um novo n mero de identifica o de log gravado no relay log info e o slave espera por outra mudan a em seu arquivo relay log O processo parece complicado primeira vista mas r pido e n o ocupa significativamente o master al m de assegurar replica o confi vel sendo tamb m muito simples de configurar significando algumas poucas linhas VERSAO 0 6 P GINA 210 GUIA CLUSTER 9 4 1 REPLICA O EM MYSQL adicionais ao arquivo de configura o do MySQL my cnf em ambos os servidores master e slave Se o servidor slave novo voc precisar de uma c pia dos bancos de dados do master no slave para coloca lo no ar Ent o o problema se resumir a iniciar o servidor slave para come ar a replica o Vis o geral da implementa o da replica o A replica o em MySQL baseada no log bin rio das altera es feitas nos bancos de dados do servidor master Cada servidor slave recebe do master as altera es salvas que foram gravadas executando as em seu conjunto de dados importante frisar que o log bin rio simplesmente uma grava o come ando de um ponto fixo a partir do momento em que este log foi habili tado no servidor Qualquer slave precisar de c pias das bases de dados do master exatamente como existiam no momento em que o log bin rio foi iniciado de outra forma a replica o falhar
474. roHandling for omitido um elemento MacroHandling padr o adici onado RAIDb 1 aceita pol tica para especificar a conclus o de consultas distribu das V rias pol ticas de balanceamento de carga s o propostas RoundRobin balanceamento round robin simples A primeira requisi o enviada para o primeiro n a segunda para o segundo etc Uma vez que se tenha enviado uma requisi o para o ltimo a pr xima ser enviada para o primeiro backend e assim por diante WeightRoundRobin o mesmo que feito acima mas com um peso associado a cada backend Um backend com peso 2 recebe 2 vezes mais requisi es que um backend com peso 1 LeastPendingRequestFirst a requisi o enviada para o backend com o menor n mero de requisi es pendentes A defini o do elemento RAIDb 1 dada como seguinte WaitForCompletition define a pol tica a ser adotada na espera de conclus o de requisi o A pol tica funciona da seguinte forma first retorna o resultado t o logo um n o tenha completo mojority retorna o resultado t o logo a maioria dos n s n 2 1 tenha o completo all espera at que todos os n s tenham retornado o resultado para o cliente Balanceamento de carga RAIDb lec RAI Db 1 com verifica o de erro deve prover pol tica de verifica o de erro como definida mais abaixo A pol tica op cional WaitForCompletition apenas diz respeito a requi
475. rocessamento O Director determina para qual n uma requisi o ser enviada calculando o overhead como no m todo anterior dividindo este n mero pelo peso associado ao n O n com menor valor associado ap s esta opera o receber a conex o Caso haja n s com mesmo valor associado o primeiro da tabela do IPVS ser selecionado M trica definida para o algoritmo utilizada para realizar a distribui o da carga VERSAO 0 6 P GINA 181 GUIA CLUSTER 8 1 3 ALGORITMOS DE ESCALONAMENTO Shortest Expected Delay SED Este m todo pode oferecer uma sens vel melhoria em rela o ao m todo WLC em servi os que usam TCP e mant m a conex o ativa enquanto o n processa a requisi o O c lculo do valor do overhead para o SED feito adicionando se 1 ao n mero de conex es ativas dividido pelo peso associado a cada n O n com menor overhead recebe a requisi o Deve se notar o seguinte neste algoritmo Ele n o usa o n mero de conex es inativas enquanto determina o overhead para cada n Adiciona 1 ao n mero de conex es ativas para antecipar como o overhead ir parecer quando uma nova conex o for permitida O algoritmo SED tenta minimizar o tempo de espera para cada trabalho at sua finaliza o O tempo de espera Ci 1 Ui sendo Ci o n mero de conex es do servidor e Ui o peso fixado para este servidor A diferen a entre SED e WLC que SED inclui a conex o que chega
476. rocessos de neg cios entre e dentro de organiza es Interc mbio Eletr nico de Dados tecnologia que per mite troca de informa es com modem e softwares ade quados diretamente de computadores para computado res dispensando digita o e manipula o de dados O sistema que a utiliza permite automatizar transa es co muns de neg cios como ordens de compras faturas no tifica es de embarques etc Atrav s do EDI documen tos s o transmitidos e recebidos eletronicamente inde pendente de hor rios dist ncia e dos sistemas de com puta o utilizados O resultado um fluxo de informa es r pido e preciso no qual as mensagens v o e vol tam sem qualquer interfer ncia e com toda seguran a atendendo aos desafios de maior agilidade e efici ncia na comunica o de neg cios P GINA 377 GUIA CLUSTER CAP TULO E GLOSS RIO EJB Enterprise JavaBeans ERP Planning Enterprise Resource FTP File Transfer Protocol Protocolo de Transfer ncia de Arquivo HTTP Hyper Text Transfer Protocol Protocolo de Trans fer ncia de Hipertexto IEEE Institute of Electri cal and Electronics Engineers Instituto de Engenheiros El tricos e Eletr nicos IETF Internet Engineering Task Force For a Tarefa de Engenharia da Internet Internet VERSAO 0 6 um padr o de programa o Java que permite que c digos escritos nesta linguagem e que sigam este padr o possam
477. rque a maioria das controladoras RAID vem com processadores especializados na placa e mem ria cache que pode eliminar uma quantidade de processamento consi der vel da CPU As controladoras RAID tamb m podem fornecer altas taxas de transfer ncia atrav s do cache da controladora RAID via hardware geralmente n o compat vel entre diferentes tipos fabrican tes e modelos se uma controladora RAID falhar melhor que ela seja trocada por outra controladora do mesmo tipo Para uma controladora de RAID via hardware poder ser usada no Linux ela precisa contar com utilit rios de configura o e ge VERSAO 0 6 P GINA 122 GUIA CLUSTER 7 2 3 DISTRIBUTED REPLICATED BLOCK DEVICE DRBD renciamento feitos para este sistema operacional e fornecidos pelo fabricante da controladora RAID via software uma configura o de m dulos do kernel juntamente com utilit rios de administra o que implementam RAID puramente por software e n o requer um hardware especializado Pode ser utilizado o sistema de arquivos ext2 ext3 DOS FAT etc Este tipo de RAID implementado atrav s dos m dulos MD do kernel do Linux e das ferramentas relacionadas RAID por software por sua natureza tende a ser muito mais flex vel que uma solu o por hardware O problema que ele em geral requer mais ciclos e capaci dade de CPU para funcionar bem quando comparado a um sistema de hardware mas tamb m oferece uma importante e distinta cara
478. s 81 Arquitetura gen rica de multiprocessador de mem ria 83 P GINA XXV GUIA CLUSTER LISTA DE FIGURAS 6 3 6 4 6 5 6 6 6 7 6 8 6 9 6 10 AA fe fa 7 4 fed 7 6 ia VERSAO 0 6 Arquitetura gen rica de multiprocessador de mem ria comparti IBANI esa er EE E eee ee sp ee ee E eS 85 Arquitetura gen rica s ncrona matricial 4 1 65 bee ee as 88 Alternativas para conectar o processador a rede de interconex o 104 Topologia em barramento 6 4 c bee e ade thiahutdunuas 106 Topologia em malha ss so 5 SOS OE eS ESA EKG 107 Topologia em BipercuhO ssa ms omnes Rr BG pd Nom 107 Topologia em rvore oc EE OPE ERE DRE AE O A 108 Esquema de funcionamento de um sistema VRRP 118 Vis o do n vel conceitual de funcionamento do DRBD Trata se de um driver intermedi rio entre o block device virtual dev drbd o block device real local dev sh d e os block device s remotos To das as transfer ncias s o efetuadas pelo protocolo TCP IP o que permite sua implementa o at mesmo em m quinas geografica mente afastadas 000 eee eee eee eee 124 Fluxo de intercomunica o entre as camadas dos dispositivos Li nux repare que o DRBD n o tem como notificar o m dulo do sistema de arquivos mas 0 oposto ocorre ccccco 126 Exemplo de cenano GNBD snk hose ke Oe ndo e Sa e A 129 Exemplo de uma Arvore de difet rios css esa tosi
479. s RAIDb 2 replica o parcial cada tabela deve ser replicada pelo menos 1 vez com pol ticas opcionais para cria o de novas tabelas como RAIDb 0 e con sumo de consultas distribu das como em RAIDb 1 RAIDb 2ec replica o parcial como RAIDb 2 com verifica o de detec o de erros bizarros O elemento balanceador de carga definido como lt ELEMENT LoadBalancer SingleDB ParallelDB RAIDb O RAIDb 1 RAIDb lec RAIDb 2 RAIDb 2ec gt lt ATTLIST LoadBalancer transactionIsolation databaseDefault readUncommitted readCommitted repeatableRead serializable databaseDefault gt Balanceamento de carga SingleDB O balanceador de carga SingleDB n o ne cessita de nenhum par metro espec fico A defini o lt ELEMENT SingleDB EMPTY gt VERSAO 0 6 PAGINA 223 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA Balanceamento de carga ParallelDB O balanceador de carga Paralle1DB deve ser usado com um agendador de requisi es SingleDB Este balan ceador de carga prov duas implementa es ParallelDB RoundRobin e ParallelDB LeastPendingRequestFirst que prov em pol ticas de round robin e menor n mero de consultas pendentes primeiro para balanceamento de carga respectivamente Este balanceador de carga desenhado para prover ba lanceamento de carga e toler ncia a falhas em cima de
480. s Neste tipo de arquitetura todos os processadores obedecem a uma nica uni dade de controle Esta unidade busca e decodifica as instru es do programa e as transmite para os diversos processadores que as executam utilizando sua pr pria mem ria local SIMD Assim a cada ciclo todos os processadores menos os que VERSAO 0 6 P GINA 86 GUIA CLUSTER 6 1 1 A CLASSIFICA O DE FLYNN PARA ARQUITETURAS DE COMPUTADORES est o intencionalmente inibidos executam sincronamente uma mesma instru o sobre sua parte dos dados O paralelismo se d portanto pela manipula o si mult nea de diferentes partes do conjunto de dados Da sua denomina o estar associada aos termos arquiteturas sincronas e paralelismo de dados 128 250 Este tipo de arquitetura exige uma estrutura densa para a rede de interconex o a fim desta suportar a difus o das instru es a partir do controlador para a matriz de processadores Esta rede de interconex o tamb m utilizada para distribuir dados e recolher resultados O ambiente para gera o de c digo neste tipo de arquitetura usualmente fica localizado em uma esta o de trabalho que atua como intermedi ria front end para a arquitetura Esta esta o acumula as fun es de gerenciamento de con tas de usu rio o escalonamento das diversas requisi es de processamento e o acesso atrav s da rede local de computadores As arquiteturas s ncronas se mostram vocacionadas
481. s mais diversos cen rios computacionais Tal arquitetura composta por N Camadas e pode ser composta e Camada de Aplica o Web e Camada de Banco de Dados e Camada de Armazenamento Cada uma destas camadas ser melhor exemplificada nas subse es abaixo Phttp www continuent org VERSAO 0 6 P GINA 54 GUIA CLUSTER 3 4 2 CAMADA DE APLICA O 3 4 2 Camada de Aplica o Esta camada respons vel pelos servi os web dispon veis no cluster E nela que se encontram os servidores de aplica o e a nica camada acessada externa mente pelos usu rios dos servi os Nesta Camada s o utilizadas tecnologias de Cluster de Aplica o Balanceamento de Carga e Alta Disponibilidade A tabela D apresenta uma lista das tecnologias utilizadas As principais caracter sticas s o Alta Disponibilidade Escalabilidade Balancea mento de Carga Alta Performance 3 4 3 Camada de Banco de Dados Esta camada respons vel pelos bancos de dados que s o acessados pelos ser vi os dispon veis no Cluster E nesta camada que se encontram os servidores de Banco de Dados Nesta Camada s o utilizadas tecnologias de Cluster de Banco de Dados e Replica o de Banco de Dados A tabela D apresenta uma lista das tecnologias utilizadas As principais caracter sticas s o Alta Disponibilidade Balanceamento de Carga Alta Performance e Integridade dos Dados 3 4 4 Camada de Armazenamento Esta camada r
482. s es revisadas da Licen a P blica Geral Essas no vas vers es ser o semelhantes em esp rito presente vers o mas podem diferenciar se por m em detalhe para tratar de novos problemas ou preo cupa es Cada vers o recebe um n mero de vers o distinto Se o Programa especifi car um n mero de vers o desta Licen a que se aplique a ela e a qualquer VERSAO 0 6 P GINA 362 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL 11 vers o posterior voc ter a op o de seguir os termos e condi es tanto daquela vers o como de qualquer vers o posterior publicada pela Free Soft ware Foundation Se o Programa n o especificar um n mero de vers o desta Licen a voc poder escolher qualquer vers o j publicada pela Free Soft ware Foundation Se voc desejar incorporar partes do Programa em outros programas livres cujas condi es de distribui o sejam diferentes escreva ao autor solici tando a respectiva permiss o Para software cujos direitos autorais sejam da Free Software Foundation escreva para ela algumas vezes abrimos exce es para isso Nossa decis o ser guiada pelos dois objetivos de preservar a condi o livre de todos os derivados de nosso Software Livre e de promo ver o compartilhamento e reutiliza o de software de modo geral EXCLUS O DE GARANTIA 11 12 COMO O PROGRAMA LICENCIADO SEM CUSTO N O H NE NHUMA GARANTIA PARA O PROGRAMA NO LIMITE PERMITIDO PEL
483. s o com a viabiliza o tecnol gica e t cnica necess ria V rios Mais informa es podem ser vistas em http oscar openclustergroup org Mais informa es podem ser vistas em http www rocksclusters org Mais informa es podem ser vistas em http www xcat org Mais informa es podem ser vistas em https www redhat com solutions clustersuite s VERSAO 0 6 PAGINA 67 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO pontos t m de ser levantados como escalabilidade compatibilidade custo assim como os motivos para a expans o A evolu o do cluster para aumentar as capacidades a escalabilidade da solu o utilizada tem de ser observada para saber no m nimo quais as limita es da arquitetura que pretende se implantar Outros pontos tamb m precisam ser le vantados para a expans o planejada como a ader ncia de hardwares de modelos diferentes espa o f sico capacidade de refrigera o etc A vantagem no caso de expans o ou na troca de todo o cluster que boa parte do equipamento pode ser reciclada para outras tarefas dentro do sistema No caso de estar trabalhando na expans o de um cluster em funcionamento o estudo deste ser de grande import ncia para saber como a aplica o executada no ambiente existente fornecendo um grande volume de informa o valiosa para os novos projetos Documente seu cluster Documenta o bem feita e completa a chave para o
484. s os usu rios ao terem acesso ao sistema de arquivos do cluster SSI devem possuir uma vis o nica do mesmo de modo com que todos identifiquem os diversos discos perif ricos e diret rios sob uma mesma raiz de uma nica forma Exemplos de hierarquia nica para um sistema de arquivos s o o NFS o MES e o GFS e Rede virtual nica um n deve possuir a capacidade de acessar qualquer conex o de rede atrav s do dom nio do cluster mesmo que a rede n o esteja conectada a todos os n s do cluster e Sistema de administra o de jobs nico um job de um usu rio pode ser VERSAO 0 6 P GINA 235 GUIA CLUSTER 10 2 2 OS PRINCIPAIS BENEFICIOS DE UM SISTEMA SSI submetido de qualquer n do cluster e pode requisitar quantos n s quiser para execut lo e Ponto de controle e administra o nico todo o cluster isto cada um dos n s que o comp e devem poder ser testados configurados e monitorados atrav s de um nico conjunto de interfaces gr ficas tais como uma p gina web e Migra o de processos e checkpointing devese fazer periodicamente a gra va o das informa es dos processos tais como estado e processo ou em mem ria ou em disco garantindo em caso de falha do mesmo sua continu a o em outro n Al m disso devido necessidade de balanceamento de carga devese garantir a migra o de processos entre os diversos pontos do cluster 10 2 2 Os principais benef cios de um sistema SSI Os princip
485. s vel publicar informa es sobre as entidades que formam o Grid i e consumidores e provedores tal como descrito na Se o 13 2 2 2 Modelos para o estabelecimento de valores para os recursos servi os 3 Esquemas de cota o e mecanismos de oferta de servi os 4 Modelos econ micos e protocolos de negocia o de contrata o de servi os 5 Mediadores que atuam como reguladores e estabelecem valores para os re cursos servi os criam moeda padr o e ajudam na resolu o de impasses entre os negociadores 6 Mecanismos para contabiliza o cobran a e pagamento Para tanto a arquitetura do GRACE composta dos seguintes componentes a Grid Resource Broker e g Nimrod G b Grid Resource and Market Informa tion Server c Grid Open Trading Protocols and API d Trade Manager e Grid Trade Server O Resource Broker funciona como um procurador do usu rio ou de sua aplica o perante ao Grid Sendo assim o Resource Broker desempenha atividades que permitem a execu o da aplica o do usu rio atendendo seus requisitos e g menor pre o pelo servi o de execu o Al m disso um aspecto importante que o Resource Broker exibe o Grid para o usu rio como um conjunto unificado de recursos essa abstra o facilita a vis o do usu rio sobre o ambiente Certamente o Resource Broker depende da exist ncia de v rios servi os Por exemplo servi os de informa o sobre os recursos que s o oferecidos
486. s Condor Pools 165 A constru o do Flock bas tante elegante do ponto de vista de sistemas distribu dos pois n o acrescenta ne nhuma centraliza o a arquitetura Condor original A base para cria o de um Flock um acordo de coopera o de troca de recursos entre dois Condors Po ols Portanto por maior que seja o Flock suas liga es s o sempre dois a dois sem envolver nenhuma entidade centralizadora Mais que isso o Flock of Con dors n o chega a alterar o software Condor original Todo a funcionalidade do Flock of Condors implementada por uma m quina especial chamada Gateway Ambos os Pools que firmam um acordo de coopera o instalam cada qual um Ga teway Os dois Gateways mant m comunica o constante para troca de tarefas entre os Pools Para o Pool local o Gateway uma m quina qualquer Entretanto ao inv s de oferecer seus pr prios recursos o Gateway simplesmente representa os recursos do Pool remoto republicado as restri es estabelecidas pelos donos das m quinas remotas Quando uma tarefa recebida pelo Gateway este a re passa para o Gateway remoto que ent o a encaminha para uma m quina do pool remoto Talvez por ser mais recente o Condor G adota uma vis o mais heterog nea de Grid Al m de Condor Pools Condor G tamb m utiliza recursos via Globus De vido necessidade de suportar mais heterogeneidade Condor G usa uma arqui tetura mais centralizada que o Flock of Condors O Condor G
487. s Registradas 366 VERSAO 0 6 PAGINA XXIII GUIA CLUSTER SUMARIO C Lista de Abreviaturas 369 D Tecnologias 371 E Gloss rio 374 F O Ambiente LabCluster 383 El Hist rico do LabCluster 6 0 4664 64a esa wee ts as 384 F2 Miss o do LabCluster 002002 ee eee 386 F3 Descri o do Ambiente LabCluster 386 F4 Infra estrutura de Hardware 2 2 000048 387 F5 Pol tica de Utiliza o do Ambiente LabCluster 387 G Outros Documentos Produzidos 389 VERSAO 0 6 P GINA XXIV Lista de Figuras 2a CES 3 1 32 3 3 3 4 Sel 6 1 6 2 VERSAO 0 6 CreativeCommons spa saa sr 0080 eee eee eee eae xii Evolu o da carga de processamento e a utiliza o da computa o de grande era RR RR RR RO UR es ae a ee 30 Evolu o da carga de processamento e a utiliza o da solu o de processamento distribuido ocos e so e ss a a a 32 Evolu o da utiliza o de Arquiteturas de alto desempenho Fonte TOP SIO i aa Kim da Eka GH dig do dd d d g aa a a LESS 37 Evolu o da utiliza o de S O na Top500 Fonte Top500 org 37 Evolu o da utiliza o por segmenta o do mercado Fonte Top00 rg rm WR OR EO OE ha E o 8 38 Esquema do modelo de cluster proposto 56 Rela o Carga X Custo de investimento para plataforma Baixa X A eo e ap ae aaa E cee om E ane aoe a UR cee CR eo ee ec E A 77 Blocos b sicos dos computadores seqtienciai
488. s administrativos e o modelo de informatiza o proposto Realizar estas mudan as e a necess ria otimiza o da m quina p blica de forma a melhor atender o cidad o dificultado ou inviabilizado no paradigma da com puta o de grande porte seja por conta dos recursos e investimentos necess rios para se estabelecer este processo seja pela dificuldade para se integrar sistemas imposto pela falta de padr es Diante deste cen rio se faz necess ria a busca por alternativas computacionais inovadoras interoper veis plenamente audit veis independentes de fornecedor economicamente sustent veis para sistemas cr ticos governamentais e que fomentem o desenvolvimento e pesquisa de novas tecnologias Buscando reverter este quadro de depend ncia tecnol gica o governo brasileiro tem investido atrav s do Minist rio da Ci ncia e Tecnologia e de parcerias en tre empresas p blicas e universidades no desenvolvimento de tecnologias de cluster e grid baseadas em software livre e voltadas para aplica o de governo eletr nico Estas tecnologias de cluster e grid t m sido largamente utilizadas 1O Servi o Federal de Processamento de Dados SERPRO a maior empresa p blica de presta o de servi os em tecnologia da informa o do Brasil maiores informa es em nttp www serpro gov br ZA Empresa de Processamento de Dados da Previd ncia Social Dataprev ela a respons vel pelo processamento da maior folh
489. s aplica es Bag of Tasks necessitam processar grandes quantidades de dados Por exemplo bioinform tica 54 Seti Home 59 ren deriza o de imagens 139 254 320 207 Sendo assim uma heur stica de escalo namento que melhore o desempenho dessas aplica es bastante relevante Felizmente algumas aplica es apresentam caracter sticas que podem ser ex ploradas por heur sticas de escalonamento para obter escalonamentos eficientes VERSAO 0 6 P GINA 317 GUIA CLUSTER 13 3 3 ESCALONAMENTO 100 m 2 WOR 2x Lost gt y WOR 3x Lost gt WOR dx Lost po 90 F 4 so f ed 7H f 4 E 60 F j ar 4 E d 2 A 8 43 so 5 z 5 j J 5 gob 4 ze is i a 30 f Es r 7 f gi a 20 LA a 4 f j AS a ere E 10 a ai ee aae o LE 1 1 1 100 500 1000 5000 10000 Tasks Heterogeneity Figura 13 15 Desperd cio de ciclos com a replica o Pensando nisso foi desenvolvida a heur stica Storage Affinity 319 que explora padr es de reutiliza o de dados e aplica replica o de forma semelhante a WOR Os padr es de reutiliza o foram classificados em dois tipos b sicos inter job e inter task O padr o inter job determina que h reutiliza o de dados entre exe cu es sucessivas das aplica es Vale salientar que isso bastante comum em aplica es do tipo Parameter Sweep 113 Outra situa o de reutiliza o captu rada pela defini
490. s consultas O acesso concorrente a arquivos pode ser controlado a partir de chamadas UNIX para flock que administra bloqueios ao arquivo de forma emulada O respon s vel por esse bloqueio o servidor que det m tal arquivo Caso esse bloqueio dure mais de 30 minutos o servidor automaticamente o libera para evitar que a queda de um cliente impossibilite o acesso aos arquivos que ele bloqueou Em 1998 havia mais de 100 c lulas AFS por todo o mundo dando a seus usu rios a possibilidade de compartilhar seus arquivos atrav s de diferentes continentes usando uma interface de sistema de arquivos parecida com a do UNIX O AFS come ou a ser comercializado pela Transarc Corporation que foi comprada pela IBM No momento em que esse texto foi escrito o AFS estava na vers o 3 6 sendo distribu do de forma independente do ANDREW Para maiores informa es vi site http www 3 ibm com software stormgmt afs library VERSAO 0 6 PAGINA 155 GUIA CLUSTER 7 3 6 CONSTANT DATA AVAILABILITY CODA An lise Cr tica O AFS um sistema de arquivos distribu dos que evoluiu muito desde sua pri meira vers o Pensando se sempre em escalabilidade transpar ncia de localiza o e seguran a ele foi implementado usando conceitos simples mas que s o de extrema import ncia para se atingir tais objetivos Ele oferece um servi o altamente escal vel e seguro atrav s da ado o de sem n tica de sess o no acesso concorrente a ar
491. s dados do cache com os dados do meio f sico Assim se algum outro cliente alterar os dados no servidor este precisa avisar a todos os clientes que seus caches podem estar com uma vers o antiga dos dados Al m disso o tamanho do cache reduzido o que gera a necessidade de um algoritmo para saber quais dados devem permanecer no cache e quais podem ser removidos para dar lugar a novos dados O ideal segundo 349 remover somente os dados que n o ser o mais acessados Como n o poss vel prever isso foram estudadas v rias t cnicas e algoritmos para que o resultado final chegue o mais pr ximo disso O algoritmo LRU Least Recently Used segundo 349 o que melhor se aproxima do timo e talvez por isso o mais usado nesse tipo de situa o Assim sempre que um novo dado acessado este incorporado ao cache Se o cache estiver cheio s o removidos os dados que foram acessados h mais tempo para dar lugar aos dados que est o vindo Por m se os dados retirados do cache tiverem sido alterados estes devem ser enviados de volta ao servidor ou ao disco para serem gravados Naturalmente conforme o padr o de uso pode ser mais interessante usar outras pol ticas de substitui o Transpar ncias para o Usu rio Alguns sistemas de arquivos distribu dos SADs implementam caracter sticas que o tornam transparentes para o usu rio que n o precisa saber detalhes sobre o sistema de arquivos Algumas dessas transpa
492. s de dados locais mas coopera com a federa o aceitando opera es globais Sistema de mediador bancos de dados s o integrados atrav s de um componente de media o que executa tradu o de dados em um modelo de dados can nico co mum Sistemas de Metadados Consultas s o formuladas dinamicamente em cada banco de dados pela intera o com um dicion rio de metadados global Existem v rios tipos de clusters de banco de dados e Banco de dados distribu dos Nesse tipo de banco de dados os dados s o distribu dos em um conjunto de servidores e o Acesso ao banco de dados direcionado ao servidor onde se encontra o dado e Banco de dados em alta disponibilidade Dois ou mais servidores em cluster de HA de MASTER e SLAVE onde um servidor MASTER respons vel pelo servi o e os servidores SLAVE ficam aguardando a falha do MASTER para assumirem o servi o e Banco de dados em alta disponibilidade e distribu dos um cluster de banco de dados onde as duas tecnologias anteriores est o presentes criando um banco de dados escal vel e tolerante a falhas Poss veis tecnologias de cluster de banco de dados e Gerenciamento do cluster na aplica o Nessa alternativa o gerenciamento do cluster realizado na aplica o que acessa o banco de dados A aplica o que controla a distribui o e replica o dos dados Vantagem Pode ser Independente de sistema de banco de dados Desvantagem dependente da a
493. s em escala global No contexto da Computa o em Grid os recursos compartilhados podem ser ciclos de CPU es pa o em disco software sensores dentre outros que podem tornar se acess veis VERSAO 0 6 P GINA 285 GUIA CLUSTER 13 2 2 DESCOBERTA DE SERVI OS na rede como Web Services 39 Neste sentido existem v rias propostas de se construir um servi o de descoberta de Web Services O servi o de descoberta mais discutido e incorporado ar quitetura WSRF 40 do servi o UDDI Universal Description Discovery and Integration 27 j adotado por v rios produtos voltados para a tecnologia de Web Services de grandes empresas como Sun Microsystems Microsoft e Oracle O UDDI ele mesmo um Web Service que permite a forma o de um cat logo global de todos os Web Services compartilhados na Internet Este cat logo or ganizado em n s e registros Um n um servidor UDDI onde est o os dados dos servi os cadastrados Um conjunto de n s chamado de registro e cada n s pode pertencer a um nico registro Um registro pode ser privado p blico ou afiliado Os registros privados ou cor porativos s o aqueles que guardam informa es de Web Services internos de uma empresa protegido por um firewall que devem ter seu acesso restrito s aplica es da empresa J os registros afiliados compartilham e trocam seus da dos de forma controlada com outros registros baseado em acordos entre as insti tui
494. s n o sejam levados a copiar a fonte junto com o c digo objeto 5 Voc n o poder copiar modificar sublicenciar ou distribuir o Programa exceto conforme expressamente estabelecido nesta Licen a Qualquer ten tativa de de outro modo copiar modificar sublicenciar ou distribuir o Pro grama ser inv lida e automaticamente rescindir seus direitos sob esta Licen a Entretanto terceiros que tiverem recebido c pias ou direitos de voc de acordo esta Licen a n o ter o suas licen as rescindidas enquanto estes terceiros mantiverem o seu pleno cumprimento 6 Voc n o obrigado a aceitar esta Licen a uma vez que voc n o a assinou Por m nada mais concede a voc permiss o para modificar ou distribuir o Programa ou respectivas obras derivativas Tais atos s o proibidos por lei se voc n o aceitar esta Licen a Consequentemente ao modificar ou distribuir o Programa ou qualquer obra baseada no Programa voc estar manifestando sua aceita o desta Licen a para faz lo bem como de todos os seus termos e condi es para copiar distribuir ou modificar o Programa ou obras nele baseadas 7 Cada vez que voc redistribuir o Programa ou obra baseada no Programa o receptor receber automaticamente uma licen a do licenciante original para copiar distribuir ou modificar o Programa sujeito a estes termos e con di es Voc n o poder impor quaisquer restri es adicionais ao exerc cio pelos r
495. s pela composi o o que deve ser feito quando uma falha ocorre durante a execu o de uma transa o VERSAO 0 6 P GINA 291 GUIA CLUSTER 13 2 6 DISPONIBILIZA O DE SERVI OS Na tentativa de suprir a demanda por linguagens e ferramentas especialmente voltadas para a composi o de servi os v rios trabalhos foram desenvolvidos at ent o por exemplo XLANG 359 WSFL 255 e BPEL4WS 131 Apesar do alto n vel da especifica o e riqueza de detalhes que estas linguagens permitem alcan ar nas especifica es elas t m sofrido v rias cr ticas da comunidade A principal cr tica diz respeito ao fato de que ao especificar a composi o de ser vi os necess rio conhecer antecipadamente todos os servi os que fazem parte da composi o bem como a ordem e condi es em que cada tarefa deve ser exe cutada Isto torna imposs vel montar novas composi es em tempo de execu o automaticamente Isto abre uma lacuna na rea criando uma demanda por modelos de descri o e ferramentas mais ricos para que se possa superar este obst culo e oferecer servi os cada vez mais complexos e din micos 13 2 6 Disponibiliza o de Servi os Para que Grids sejam teis preciso que eles existam preciso cri los Ou seja ap s ser poss vel descobrir os servi os eles devem ser agregados para criar uma infraestrutura de servi os computacionais que permita a execu o de apli ca es Esta senten a
496. s por Storage Affinity compa rado com outras heuristicas 0 4 44 eee ee eee ROS 320 13 18 Arquitetura do GRAM 133 64 lt v0 4eNeas4h 489 329 13 19Delega o entre escalonadores de aplica o 133 330 13 20Exemplo do uso de escalonadores no Globus 133 331 IS 21 Arquitetura do Globus B43 e r e cra ee eee ee RR eS a RO ES 335 13 22 Arquitetura do MyGrid 6 44 44444 6 2 GHG ad gde de EGS 337 13 23Condor probe lt 424 22 esaera eei EA ER RR ERS 344 AS Creative Commons ie ed i wR EE a ERE wR ww E 356 VERSAO 0 6 PAGINA XXIX Lista de Tabelas 2 1 31 32 6 1 6 2 8 1 11 1 13 1 13 2 B 1 BA VERSAO 0 6 Diferen as entre computa o de grande porte e distribu da 34 Tabela de resumo das cinco gera es de computa o distribu da 42 MAC O spas pes LES ds RE EES 45 Formas b sicas de toler ncia falhas Fonte DANTAS 136 95 N veis de Alta Disponibilidade s e sae dae 84 4 rsss ae ees 101 Exemplos de Sitios que utilizam LVS a esa sap e sas gas sms 184 Rela o entre as caracter sticas do hardware e do software paralelo 250 Compara o entre as plataformas de execu o para aplica es pa POS ok RE O eae Rhee RD hheas 308 Grid NM MM oe eee ea eee SOR RSA OS 337 Tabela de Refer ncia de Marcas Registradas 368 Tabela de refer ncias de tecnologias eke ee ee sarada 373 P GINA XXX GUIA CLUSTER LISTA DE TABELAS Fl Tabela de
497. s t cnicas que regulamentam a utiliza o da Tecnologia de Infor ma o e Comunica o TIC no Governo Federal estabelecendo as condi es de intera o com os demais poderes e esferas de governo e com a sociedade em geral As reas cobertas pela e PING est o segmentadas em Interconex o Se guran a Meios de Acesso Organiza o e Interc mbio de Informa es e reas de Integra o para Governo Eletr nico Assim pela e PING A exist ncia de uma infra estrutura de Tecnologia da Informa o e Comu nica o TIC que se preste como o alicerce para a cria o dos servi os de go verno eletr nico o pr requisito para o fornecimento de melhores servi os sociedade a custos mais baixos Um governo moderno e integrado exige Os conceitos de interoperabilidade adotados nesta arquitetura est o evidenciados no Docu mento de Refer ncia dispon vel em http www eping e gov br VERSAO 0 6 P GINA 11 GUIA CLUSTER 2 2 2 PADROES DE INTEROPERABILIDADE DE GOVERNO ELETRONICO sistemas igualmente modernos e integrados interoper veis trabalhando de forma ntegra segura e coerente em todo o setor p blico Pol ticas e especifica es claramente definidas para interoperabilidade e ge renciamento de informa es s o fundamentais para propiciar a conex o do governo tanto no mbito interno como no contato com a sociedade e em maior n vel de abrang ncia com o resto do mundo A e PING concebi
498. samento de Transa es Transa es distribu das prov em unidades de execu o segura que permitem que VERSAO 0 6 P GINA 196 GUIA CLUSTER CAPITULO 9 CLUSTER DE BANCO DE DADOS v rias opera es sejam executadas em sites diferentes e prov em a preserva o da consist ncia dos dados de um estado de execu o para outro Um protocolo comum por assegurar cumprimento correto de uma transa o distribu da o de execu o em duas fazes two phase commit 2PC Enquanto 2PC normal mente aplicados para transa es que s o executadas em um curto per odo de tempo ela se torna impratic vel para transa es distribu das de grande escala por causa de travas de recursos dispon veis utilizados concorrentemente Para isto existem diferentes propostas como o de dividir a execu o de processos que ocupam muito tempo em sucess es de menores tarefas at micas e a defini o de mecanismos de compensa o Replica o de Dados O desafio fundamental na replica o de dados manter um baixo custo nas atu aliza es enquanto se assegura a consist ncia dos sites do cluster A dificuldade do problema aumenta significativamente em ambientes de larga escala devido a lat ncia alta e a probabilidade de quedas da rede As duas principais categorias de t cnicas de replica o de banco de dados s o replica o s ncrona implica em um protocolo de commit at mico ao longo do qual assegura consist ncia alta
499. secund rio uma verifica o da con sist ncia do sistema de arquivos em Linux significa executar o fsck Para evitar a execu o da verifica o da consist ncia do sistema de arquivos um processo altamente custoso recomenda se a utiliza o de sistemas de arquivos que possuam journaling Se o servidor que falhou retornar o DRBD mediante as configura es devolver ou n o o estado de prim rio ao servidor original ap s uma sincroniza o Em caso negativo o chamado modo legacy o servidor que det m o estado de prim rio ir conserv lo at o servi o ser encerrado nessa m quina Apesar do DRBD possuir o seu pr prio modo de determinar qual dos servidores dever ser prim rio a sincroniza o com o sistema gen rico n o trivial Para re duzir estas dificuldades e a necessidade de intera o do usu rio frequentemente utilizado um sistema gerenciador de cluster como o heartbeat para tratar das transi es de estado Al m desta transi o de estados o sistema ser respons vel por montar o sistema de arquivos na nova m quina que se tornou prim ria Caracter sticas Note se no entanto que e Se as parti es n o forem do mesmo tamanho o dispositivo DRBD ir auto maticamente assumir se como sendo do tamanho m nimo entre as parti es VERSAO 0 6 P GINA 125 GUIA CLUSTER 7 2 3 DISTRIBUTED REPLICATED BLOCK DEVICE DRBD DRBD Primary DRBD Secondary sistema de
500. seja o pacote vem quase sem garantias O pacote pode chegar desordenado comparado com outros pacotes enviados entre os mesmos hosts tamb m podem chegar duplicados ou podem ser perdidos por inteiro Se a apli ca o precisa de confiabilidade esta adicionada na camada de transporte VERSAO 0 6 P GINA 115 GUIA CLUSTER 6 7 6 TRANSMISSION CONTROL PROTOCOL O IP o elemento comum encontrado na Internet dos dias de hoje descrito no RFC 791 da IETF que foi pela primeira vez publicado em Setembro de 1981 6 7 6 Transmission Control Protocol O TCP acr nimo para o ingl s Transmission Control Protocol um dos proto colos sob os quais assenta o n cleo da Internet nos dias de hoje A versatilidade e robustez deste protocolo tornou o adequado para redes globais j que este veri fica se os dados s o enviados pela rede de forma correta na sequ ncia apropriada e sem erros pela rede O TCP um protocolo do n vel da camada de transporte camada 4 do Modelo OSI e sobre o qual assentam a maioria das aplica es cibern ticas como o SSH FTP HTTP portanto a World Wide Web 6 7 7 User Datagram Protocol O UDP um acr nimo do termo ingl s User Datagram Protocol que significa pro tocolo de datagramas de utilizador ou usu rio O UDP faz a entrega de mensa gens independentes designadas por datagramas entre aplica es ou processos em sistemas host A entrega n o confi vel porque os datagramas
501. seja um pro jeto separado e ainda em desenvolvimento Slony n o propaga mudan as em schemas nem replica grandes objetos Slony coleta as atualiza es com triggers e nem mudan as em schemas ou opera es com grandes objetos d o aos triggers habilidade para reportar ao Slony suas mudan as portanto apenas tabelas e sequencias s o replicadas VERSAO 0 6 P GINA 208 GUIA CLUSTER 9 4 MYSQL Modelos de replica o H alguns modelos distintos de replica o de ban cos de dados dif cil que um modelo se adapte todas as necessidades O modelo implementado no Slony I chamado de replica o ass ncrona usando triggers para coletar as atualiza es onde uma origem comum replicada em m ltiplas c pias incluindo c pias cascateadas 9 4 Mysql O MySQL um servidor de bancos de dados SQL Structured Query Lan guage Linguagem Estruturada para Pesquisas muito r pido multi tarefa e multi usu rio O Servidor MySQL pode ser usado em sistemas de pro du o com alta carga e miss o cr tica bem como pode ser embutido em programa de uso em massa MySQL uma marca registrada da MySQL AB 13 9 4 1 Replica o em MySQL Uma das dificuldades no trabalho com grandes bancos de dados MySQL a manuten o de backup seguro sem a necessidade do desligamento do sistema Um backup online poderia deixar o sistema lento al m de cau sar inconsist ncias de dados j que tabelas podem estar sendo modificadas enq
502. ser um subconjunto dos servidores de dados Suporte expl cito concorr ncia Um sistema de arquivos paralelo deve ser extremamente eficiente quanto a pro ver dados para v rios clientes simultaneamente O projeto do servidor e cliente PVFS2 foi baseado em uma m quina de estados que est intimamente ligada a um componente de monitoramento da finaliza o das opera es em todos os sistemas envolvidos Isto permite se que se realize acesso sem bloqueios a todos os tipos de dispositivos Isso d suporte a opera es ass ncronas nativamente facilitando a implementa o do ROMIO MPI IO Sem nticas de consist ncia ajust veis VERSAO 0 6 P GINA 167 GUIA CLUSTER 7 4 2 PARALLEL VIRTUAL FILESYSTEM VERSION 2 PVFS2 Muitos sistemas de arquivos distribu dos implementam as sem nticas POSIX que s o muito estritas O NFS por exemplo n o implementa essas sem nticas pois n o garante que o cache de seus clientes estejam coerentes o tempo todo Por existirem vantagens e desvantagens em cada tipo de sem ntica o PVFS2 per mite que o usu rio opte por uma sem ntica mais estrita para permitir a imple menta o do ROMIO MPI IO ou mais relaxada permitindo um uso mais amplo Mapeamento flex vel de refer ncias de arquivos para servidores E poss vel reconfigurar os servidores de meta dados para escolher onde arma zenar um determinado arquivo Isso muito til na administra o do sistema de arquivos para
503. sharing and integra tion 2003 submitted 83 J Bartholdi and D Eisenstein Bucket brigades http www isye gatech edu people faculty John_Bartholdi bucket discretionary brigades html1 2002 84 J Basney M Livny and P Mazzanti Harnessing the capacity of compu tational grids for high energy physics In Conference on Computing in High Energy and Nuclear Physics 2000 85 Jim Basney and Miron Livny Deploying a High Throughput Computing Clus ter volume 1 chapter High Performance Cluster Computing Prentice Hall may 1999 86 O Beaumont L Carter J Ferrante and Y Robert Bandwidth centric allo cation of independent task on heterogeneous plataforms In Proceedings of the Internetional Parallel and Distributed Processing Symposium Fort Lauder dale Florida April 2002 87 K Beck Extreme Programming Explained Embrace Change Addison Wesley 1999 88 F Berman A Hey and G Fox editors Grid Computing Making the Global Infrastructure a Reality John Wiley and Sons Ltd 2003 89 F D Berman R Wolski S Figueira J Schopf and G Shao Application level scheduling on distributed heterogeneous networks In Proceedings of Supercomputing 96 1996 90 Francine Berman and Richard Wolski Scheduling from the perspective of the application In HPDC pages 100 111 1996 91 H Berman J Westbrook Z Feng G Gilliland T Bhat H Weissig I Shindyalov and P Bourne The protein
504. si es de escrita IN SERT DELECT UPDATE commit VERSAO 0 6 PAGINA 227 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA Nota RAIDb lec n o operacional em Sequoia vl alpha A defini o do elemento RAIDb 1lec definida como lt ELEMENT RAIDb lec WaitForCompletion ErrorChecking RAIDb lec RoundRobin RAIDb lec WeightedRoundRobin gt lt ATTLIST RAIDb lec nbOfConcurrentReads CDATA REQUIRED gt lt ELEMENT RAIDb lec RoundRobin EMPTY gt lt ELEMENT RAIDb lec WeightedRoundRobin BackendWeight gt lt ELEMENT ErrorChecking EMPTY gt lt ATTLIST ErrorChecking policy random roundRobin all REQUIRED numberOfNodes CDATA REQUIRED gt A politica de verifica o de erros RAIDb 1lec e RAIDb 2ec usada para detec o de erros bizarros em n s que ocorre quando um n envia resultados estranhos de maneira n o determin stica A verifica o de erros permite que consultas de leitura sejam enviadas a mais de um banco de dados e os resultados s o compa rados A maioria dos n s devem estar de acordo no resultado que ser enviado ao cliente A pol tica de verifica o de erros definida por random os backends em numberOfNodes s o tomados randomicamente a requisi o de leitura enviada a estes backends e o resultado comparado roundRobin backends de numberOfNodes s o
505. significativo para o desempenho levar em conta as caracte r sticas do processador no momento da aloca o de uma determinada ta refa e comunica o entre as tarefas paralelas Sempre que uma tarefa necessita de um dado n o dispon vel localmente algum mecanismo de comunica o deve ser ativado para obt lo A forma espec fica de atua o do mecanismo dependente da arquitetura por m indispens vel que as tarefas parale las que trocam dados tenham suporte para tal evitando atrasos no proces samento em fun o de dados que custam a vir ou que eventualmente nem mesmo vir o e sincroniza o entre as tarefas paralelas E relativamente usual no processa mento paralelo duas ou mais tarefas precisarem confirmar se todo o grupo j atingiu determinado ponto comum da computa o Neste caso tamb m VERSAO 0 6 P GINA 254 GUIA CLUSTER 11 2 2 PROPRIEDADES DE UM MODELO DE PROGRAMAGAO PARA O PROCESSAMENTO PARALELO a especificidade do mecanismo que ser utilizado fortemente dependente da arquitetura O tema sincroniza o bastante amplo e complexo Existe na rela o entre comunica o e sincroniza o um grande potencial para in consist ncias no estado de execu o deadlocks Uma Metodologia para o Desenvolvimento de Software O recurso previsto no item anterior 11 2 2 deixa clara a dist ncia sem ntica en tre a informa o a ser disponibilizada pelo programador e a necess ria para exe cu
506. sos n o afeta potencialmente o funcionamento do cluster permitindo muitas vezes um incremento de recursos em tempo de execu o dependendo da escalabilidade suportada e pode tamb m assegurar que o sistema continue fun cionando ap s alguma falha em um ou alguns de seus n s sem que haja perdas VERSAO 0 6 P GINA 233 GUIA CLUSTER 10 2 1 AS PRINCIPAIS CARACTERISTICAS DE UM CLUSTER SSI consider veis permitindo que o cluster fique sempre dispon vel para as aplica es do usu rio A visualiza o dos n s como um SSI permite a monitora o centralizada dos re cursos de cada um deles torna se poss vel um balanceamento de carga efetivo dividindo os processos entre os n s da melhor maneira fazendo com que os re cursos sejam bem utilizados Permite tamb m uma hierarquia globalizada com m ltiplos sistemas de arquivos e espa o nico de mem ria e de dispositivos de entrada e sa da al m de um endere amento global para os processos Embora a implementa o do SSI ainda seja muito limitada nos clusters j apre senta v rios benef cios e que est o evoluindo a todo o momento permitindo um incremento tanto da escalabilidade quanto do sistema de imagem nica po dendo se gerar uma estrutura cada vez mais pr xima da estrutura SMP s que com uma excelente escalabilidade O SSI pode ser implementado atrav s de hard ware multiprocessadores 6 1 2 ou por software este ltimo geralmente feito utilizandose de uma
507. ssadores este aspecto se potencializa com o crescimento constante do clock dos processadores A Inefici ncia ante desvios condicionais os desvios condicionais dependentes de dados precisam ser processados inde pendentemente um ap s o outro Esta situa o vista como um dos principais pontos de perda de desempenho desta arquitetura E a Dificuldade de compar tilhamento uma vez que existe somente uma unidade de controle a arquitetura somente pode ser utilizada por um programa usu rio de cada vez Alguns for necedores facultam a exist ncia de mais de um controlador central com o decor rente acr scimo de custo o que permitiria o compartilhamento de recursos 6 1 2 Multiprocessadores 2 A arquitetura de multiprocessadores conhecida como fortemente acoplada uma vez que os processadores e a mem ria est o fortemente interligados atra v s de um sistema local de interconex o Essa arquitetura caracterizada pelo compartilhamento global de mem ria pelos diversos processadores do ambiente e esse compartilhamento global de mem ria que se torna o gargalo da escalabilidade do ambiente A escalabilidade em VERSAO 0 6 P GINA 88 GUIA CLUSTER 6 1 3 MULTICOMPUTADORES uma configura o multiprocessada varia at em algumas centenas de processa dores 6 1 3 Multicomputadores 2 A arquitetura de multicomputadores conhecida como fracamente acoplada uma vez que os processadores t m suas pr prias me
508. sso nico todos os processos independemente do local onde se encontrem devem poder se comunicar com processos de quaisquer n s devem poder migrar para qualquer n e podem geram novos proces sos Um cluster SSI deve permitir a administra o dos processos como se estivessem sendo executados localmente isto devese garantir o controle dos processos independentemente do local onde estejam sendo executados e Espa o de mem ria nico devese garantir ao usu rio a ilus o de um espa o nico de mem ria de forma que os diversos espa os locais dos in meros n s que comp em o cluster fossem uma nica grande mem ria Para isso existem diferentes abordagens tais como o uso de software garantindo uma camada acima da mem ria de cada n simulando a exist ncia de um nico espa o de mem ria o outro modo o desenvolvimento distribu do isto implementa o no pr prio c digo atrav s do uso de bibliotecas tais como MPI ou PVM onde o compilador do sistema onde se executa a aplica o se encarrega de distribuir a estrutura dos dados entre os diversos n s do cluster e Espa o de E S nico garantir a execu o de opera es de entrada sa da a perif ricos e discos tanto localmente quanto remotamente de forma trans parente ao usu rio Fazendo assim um nico espa o de endere amento for mado pelos diversos discos associados aos n s do cluster RAIDs anexados rede e um exemplo e Hierarquia nica de arquivo
509. sta maneira preciso realizar uma an lise de cada cen rio e aplica o para poder definir qual tecnologia ser capaz de atender as demandas da institui o com o melhor custo benef cio A ado o de tecnologias de Cluster e Grid para aplica es cr ticas no governo pode representar uma redu o nos custos viabiliza o da implementa o de no vos sistemas e amplia o da capacidade computacional dos sistemas existentes devido principalmente a utiliza o de hardware commodity de software livre e a quest o estrat gica da independ ncia tecnol gica e de fornecedor Existem tecnologias de Cluster e Grid para as mais variadas finalidades sendo necess rio realizar uma an lise e consequente verifica o de quais tecnologias s o capazes de atender as demandas computacionais existentes na institui o com o melhor custo benef cio e o menor risco poss vel continuidade do neg cio 3 3 1 Cen rios de Aplica o Para efeitos did ticos e de esclarecimento das possibilidades de utiliza o de tec nologias de Cluster e Grid no governo federal ser o definidas 3 cen rios dife rentes onde ser o apresentadas caracter sticas das aplica es demandas compu tacionais e uma pequena an lise sobre quais tecnologias poder o ser utilizadas Para informa es t cnicas sobre as tecnologias de Cluster e Grid abordadas neste documento leia a parte III www eping e gov br VERSAO 0 6 P GINA 44 GUIA CLUSTER 3
510. stemas e Promove a padroniza o de ferramentas para o seu controle e administra o 10 2 3 Mem ria Distribu da Compartilhada DSM T cnica utilizada para compartilhamento de mem ria f sica dos n s dando a ilu s o de que o cluster possui uma nica e grande mem ria que formada pela agrega o das mem rias de seus n s implementando a abstra o de um espa o comum de endere amento agrupando as mem rias isoladas em uma entidade l gica podendo ser implementada por software ou hardware permitindo a troca de dados atrav s de uma mem ria globalizada a todos os n s processadores 351 Com essa t cnica n o h mais a necessidade de usar paradigmas de passagem de mensagens expl citas como PVM ou MPI nos programas desenvolvidos espe cialmente para cluster pois os programas que utilizam mem ria distribu da com partilhada t m acesso a vari veis em mem ria compartilhada da mesma forma como se faz em vari veis locais Cada processador tem uma vis o de toda a mem ria mas s tem acesso a parte que destinada a ele ent o caso ele queira acessar dados que n o est o localiza dos na parte onde ele propriet rio deve fazer uma c pia para sua rea dando origem a c pias m ltiplas da mesma por o de dados da mem ria compartilhada em diferentes mem rias f sicas tendo assim que manter a coer ncia destas c pias permitindo que qualquer processador que acesse a mem ria compartilhada devo
511. ster e Grid e as Diretrizes do Governo Eletr NICO e 6 eb pda Ra dd e ds do e id a A o A 18 2 3 As Novas Demandas Computacionais 04 19 2 3 1 Computa o sob Demanda 62604008 5s HEH 26 2 3 2 Aproveitamento de Ciclos Ociosos 0 4 27 2 4 Dois Paradigmas Computacionais 00000 28 2 4 1 Computa o de Grande Porte 00 4 29 242 Computa o Disnibuida css se e spa ssa e sia 31 2 4 3 Compara o Grande Porte e Distribu da 32 II Aspectos Gerenciais 35 3 Introdu o 36 3 1 Vantagens t cnicas de utiliza o de cluster e grid 39 3 2 As Gera es da computa o distribu da saa aaa 40 3 2 1 Tabela Resumo das gera es de computa o distribu da 41 3 3 Possibilidades de aplica es pr ticas de Cluster e Grid 43 VERSAO 0 6 P GINA XIV GUIA CLUSTER SUMARIO Oued Cen nosde ADPICA O css sus dale HES aw ERR Ses 44 3 4 Arquitetura para sistemas cr ticos online em N Camadas 54 S41 DEMO o eeii SE E E SE E A E SE E GR o eS 54 3 4 2 Camada de Aphcea o lt 2 2 04 9 i442 94 ob 44 sad a oes 55 3 4 3 Camada de Banco de Dados 55 3 4 4 Camada de Armazenamento 55 3 4 5 Diagrama da arquitetura proposta 56 3 4 6 Considera es sobre a arquitetura saaa aaa 57 4 Vis o Geral 58 41 Asensibiliza o ss essa ryanair CEO ACO a E e RS 58 4 2 Os Recursos Huma
512. ster estarem vis veis em sua rede local A exist ncia de uma rede separada para o cluster tem por raz o a seguran a das informa es e dos sistemas que nele s o executados Com esse isolamento pode se principalmente preocupar com o desempenho do sistema afrouxando as preocupa es com corre es de seguran as Repare que n o est sendo dito que o isolamento do cluster evita problemas de seguran a mas sim que muitas falhas de seguran a em servidores em redes p blicas s o cr ticos em um ambiente isolado e sob controle n o ter o as mesmas repercuss es possibili tando assim melhoras na disponibilidade dos sistemas Se for preciso obter acesso rede do cluster este pode ser provido atrav s de co nex es seguras por um firewall e por uma m quina de entrada respons vel pelo disparo de processos no sistema O controle de acesso e conex es ao cluster s o temas que t m de ser bem estudados e dependendo do tipo e principalmente do valor desta informa o o controle tem de ser mais acurado Nesse ponto o con trole de acesso iria muito al m dos firewalls proxies e servidores de autentica o mas tamb m passaria pelo estabelecimento de conex es seguras e autenticadas certificados digitais entre outras tecnologias VERSAO 0 6 P GINA 66 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO Use ferramentas de cluster A utiliza o de ferramentas que automatizam as tarefas de instala o e adminis tra o de c
513. sugere executada em uma m quina do Grid e realiza a computa o pro priamente dita da tarefa Para definir as sub tarefas inicial e final o usu rio tem dispon vel algumas abs tra es providas pelo MyGrid para lidar com a m quina do Grid sem necessitar de conhecer sua imagem do sistema As abstra es providas pelo MyGrid s o storage e playpen O servi o de storage possui a sem ntica de uma rea de ar mazenamento persistente execu o da tarefa Ou seja til usar storage para distribui o de arquivos que provavelmente ser o reutilizados no Grid ex exe cut veis da aplica o Assim sendo qualquer arquivo transferido para o storage automaticamente inclu do no PATH da m quina do Grid Por outro lado o playpen prov uma rea de armazenamento tempor ria de maneira independente VERSAO 0 6 P GINA 338 GUIA CLUSTER 13 4 3 OURGRID das conven es locais do sistema de arquivo de uma dada m quina do Grid Essa rea de armazenamento tempor ria criada automaticamente e o diret rio base de execu o da sub tarefa remote Note que o play pen foi concebido para possibi litar o armazenamento de dados tempor rios e resultados de tarefas Tamb m no sentido de simplificar a escrita das sub tarefas as vari veis de ambiente STO RAGE PLAYPEN PROC e TASK s o automaticamente definidas pelo MyGrid e cont m respectivamente o caminho completo para rea de storage o caminho completo para o p
514. suma temas relacionados a Grids Computaci onais figuram hoje como um assunto em moda Por m o que afinal vem a ser um Grid Computacional A vis o original estabe lece uma met fora com A Rede El trica The Electric Grid 183 A Rede El trica disponibiliza energia el trica sob demanda e esconde do usu rio detalhes como a origem da energia e a complexidade da malha de transmiss o e distribui o Desta forma se temos um equipamento el trico simplesmente o conectamos na tomada para que ele receba energia O Grid Computacional The Computational Grid portanto seria uma rede na qual o individuo se conecta para obter Servi os Computacionais que agregam recursos sob demanda ex ciclos armazenamento software perif ricos etc A Figura 13 1 ilustra esta id ia Figura 13 1 Acesso transparente a servi os e recursos Um sistema que forne a servi os computacionais sob demanda de forma transpa rente certamente desej vel para v rias institui es e aplica es Note que para VERSAO 0 6 P GINA 278 GUIA CLUSTER 13 1 INTRODU O muita gente a Internet este sistema De fato para aqueles cujas necessidades de processamento s o satisfeitas por um computador pessoal a Internet atende os requisitos b sicos de um Grid Computacional Por exemplo quando usamos home banking nosso computador pessoal uma s rie de roteadores e os computa dores do nosso banco se agregam sob demanda para nos fornecer um servi
515. t es como predi o e moni toramento de desempenho passam a integrar o problema de balanceamento de carga Isso significa que um bom compromisso entre o tempo de processamento des pendido na busca por uma solu o e a qualidade da solu o encontrada deve ser satisfeito e no contexto deste compromisso que as principais linhas de de senvolvimento de escalonadores ganham forma a dos escalonadores est ticos e a dos din micos Um importante aspecto dos escalonamentos est ticos que seu c lculo se faz de maneira totalmente independente da distribui o das tarefas O escalonamento feito em duas etapas na primeira etapa o c lculo do escalonamento realizado ou seja a atribui o das tarefas s unidades de processamento definida no segundo momento um mecanismo de distribui o de tarefas deve entrar em a o para promover a distribui o previamente calculada VERSAO 0 6 P GINA 98 GUIA CLUSTER 6 3 ESCALONAMENTO Uma importante conseqti ncia deste modelo de escalonamento a necessidade de se ter informa es precisas sobre o sistema considerado Assim o bom funcio namento de um escalonamento de tarefas est tico requer uma estimativa precisa do desempenho do sistema em quest o e a qualidade deste escalonamento um resultado direto da precis o com que estas estimativas s o obtidas Nestas cir cunst ncias estimativas imperfeitas ou ocorr ncias de eventos inesperados que afetem o desempen
516. ta que se crie por exemplo uma matriz de arquivos por usu rios onde cada elemento representa o tipo de acesso o que utilizaria muita mem ria dado que muitos desses ele mentos seriam iguais O sistema de arquivos distribu do ANDREW utiliza esse mecanismo de listas de controle de acesso O controle no acesso aos arquivos uma das medidas de seguran a para proteg los Por m caso haja outras m quinas no caminho de duas m quinas confi veis VERSAO 0 6 P GINA 141 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS existe o risco de se ter dados interceptados ou at mesmo adulterados Uma forma de se resolver esse problema criptografar as informa es antes de envi las O sistema de arquivos SWALLOW 246 um sistema de arquivos distribu do que transmite os arquivos criptografados Ele funciona em um sistema baseado em capacidades onde a prova da capacidade a chave criptogr fica A vantagem que o servidor n o precisa verificar se a prova da capacidade aut ntica se ela n o for o cliente n o conseguir decodificar os dados Meios mais modernos e eficazes para o controle da seguran a no acesso e mani pula o dos dados armazenados podem ser encontrados em 192 Toler ncia a Falhas Durante a transmiss o dos dados entre servidores e clientes falhas podem ocor rer seja por excesso de tr fego de pacotes pela rede seja por algum dos servidores estar sobrecarregado Al
517. tadores VERSAO 0 6 P GINA 152 GUIA CLUSTER 7 3 5 ANDREW FILE SYSTEM AFS o usu rio deveria ter a mesma vis o do sistema Essa transpar ncia de localiza o deveria ser altamente escal vel podendo aceitar de 5 a 10 mil esta es de trabalho nessa rede Ao lado da escalabilidade um outro problema importante que os desenvolvedo res iriam enfrentar era a seguran a Com tantos clientes e usu rios era pratica mente imposs vel confiar em todos sem provocar uma fragilidade na seguran a de todo o sistema O ANDREW sofreu modifica es gradualmente durante sua exist ncia que foi dividida em tr s fases e AFS 1 Durante o ano de 1985 o AFS 1 operou 100 esta es de trabalho e 6 servidores O desempenho do sistema era razo vel tendo at 20 clientes conectados por servidor por m um trabalho pesado que algum deles re alizasse poderia degradar o funcionamento do sistema como um todo de forma intoler vel Al m disso a administra o do sistema era complicada dado que os administradores n o dispunham de ferramentas adequadas e AFS 2 A partir de toda a experi ncia adquirida com o AFS 1 e com todos os seus testes de desempenho foi poss vel criar uma nova vers o muito mais eficiente Efici ncia ganha com o uso de algoritmos melhores para manu ten o da consist ncia do cache al m de uma melhoria na implementa o da resolu o de nomes comunica o e estrutura dos servidores Funcionou desde o final d
518. tante O usu rio n o envolvido diretamente e na maior parte dos casos nem sabe da exist ncia de tais ativida des Ao contr rio do SMP Computing Clusters CC s o feitos de cole es de ser vidores at mesmo SMP s e workstations que fisicamente nada compartilham com diferentes velocidades e quantidades de mem ria possivelmente de dife rentes gera es Na maioria das vezes CC s s o utilizados para ambientes time sharing e multiusu rio Em sistemas CC o usu rio respons vel por alocar os processos aos n s e a administrar os recursos do cluster Em v rios sistemas CC mesmo estando todos os n s utilizando o mesmo sistema operacional a coope ra o entre os n s consideravelmente limitada pois a maioria dos servi os do sistema operacional s o localmente confinadas ao n Os principais pacotes de software para aloca o de processos em CC s s o PVM e MPI Esses pacotes prov m um ambiente de execu o que requer uma adap ta o da aplica o e o conhecimento do usu rio Eles incluem ferramentas para aloca o inicial fixa de processos para n s os quais algumas vezes utilizam con sidera es sobre a carga enquanto ignoram a disponibilidade de outros recursos tais como mem ria livre e overheads de E S Esses pacotes ficam na camada de usu rio assim como as aplica es comuns entretanto s o incapazes de res ponder a mudan as no n vel de carga ou mesmo de outros recursos ou
519. tar a aplica o em um cluster SSI obtendo um desempenho melhor que o da aplica o serial entretanto n o t o otimizado quando se a aplica o fosse programada para ser paralela Um exemplo de aplica o que poderia envolveria um grande esfor o de adapta o e migra o para um cluster de bibliotecas de programa o para lela e que poderia ser utilizado em um cluster ssi facilmente um programa de simula o que recebe a entrada de diversas condi es iniciais e demora 10 dias para retornar o resultado da simula o Em um cluster SSI pode riam ser executadas v rias c pias do programa com arquivos de entrada e sa da diferentes que seriam automaticamente distribu dos no conjunto de m quinas do cluster Este tipo de aplica o n o teria nenhum ganho no tempo de processamento de uma c pia do programa pois o programa n o paralelo entretanto ao final do prazo de execu o teria se um acervo maior de resultados para posterior an lise e utiliza o As tecnologias de processamento de alto desempenho devem ser utilizadas nas seguintes situa es VERSAO 0 6 P GINA 50 GUIA CLUSTER 3 3 1 CEN RIOS DE APLICA O e Seaaplica o puder obter ganhos na utiliza o do sistema de imagem nica sem necessidade de altera o No caso da institui o n o possuir recursos ou permiss o para realizar altera es na aplica o e Se a melhoria de performance e resultados da paraleliza o da aplica o
520. te GNBD a GNBD 1 2 Rede TCP IP Dispositivo de Blocos F sico Figura 7 3 Exemplo de cen rio GNBD protocolo SCSI sobre redes TCP IP O iSCSI um protocolo de camada de trans porte nas especifica es do framework SCSI 3 Outros protocolos de camada de transporte incluem a interface SCSI paralela e Fiber Channel A Aceita o do iSCSI em ambientes de produ o corporativos foi acelerada pela grande utiliza o de gigabit ethernet nos dias de hoje A constru o de uma Storage Area Newtork SAN baseada em iSCSI se tornou mais barato al m de uma alternativa vi vel a utiliza o de SANs baseadas em Fiber Channel O protocolo iSCSI utiliza TCP IP para sua transfer ncia de dados Diferente de outros protocolos de armazenamento em rede como por exemplo Fiber Channel para o seu funcionamento ele requer somente uma simples interface Ethernet ou qualquer outra interface de rede capaz de suportar TCP IP Este fato permite a centraliza o do armazenamento com baixo custo sem o nus e os problemas de incompatibilidade naturalmente associados a utiliza o de Fiber Channel em SANs Algumas pessoas criticas do protocolo iSCSI esperam uma performance pior que a existente no Fiber Channel isto ocorre por conta do overhead adicionado pelo VERSAO 0 6 PAGINA 129 GUIA CLUSTER 7 2 5 INTERNET SCSI ISCSI protocolo TCP IP na comunica o entre cliente e dispositivo de armazenamento Entretanto novas t cnicas como por ex
521. te Bezerra da Silva Diego Sacramento Fernando Mazoni Especialistas Convidados Alice Brito Adenauer Yamin Augusto Ovelar C sar A F De Rose Daniel Darlen Corr a Ribeiro Elizeu Santos Neto Fernando Ike Lucius Trindade Curado e Silva Marco Sinhoreli Mario Dantas Philippe O A Navaux Roberto Pires de Carvalho Reinaldo J Moreira Tiaraj Asmuz Diverio Walfredo Cirne Consultores T cnicos Alex Sandro Soares Elias Ot vio de Paula Mussi Leonardo Rodrigues de Mello VERSAO 0 6 P GINA V GUIA CLUSTER Consultor Responsavel Elias Ot vio de Paula Mussi Coordena o do Projeto de Cluster e Grid Corinto Meffe Leonardo Rodrigues de Mello Coordena o Executiva Corinto Meffe Jos Ant nio Borba Soares Leandro Corte Coordena o Geral Rog rio Santanna dos Santos VERSAO 0 6 P GINA VI GUIA CLUSTER Participa o da Sociedade O Aperfei oamento do conte do t cnico a inser o de ados e ferramentas ou at a corre o de inconsist ncias t cnicas contou com a participa o de v rias pessoas O intuito de contar com a participa o de especialistas desde a primeira vers o do Guia surge em fun o da grande quantidade de tecnologias envolvidas e do grau de comple xidade das mesmas N o seria poss vel manter as informa es atualizadas e inserir o que h de mais moderno em Cluster e Grid sem a participa o da Sociedade Contribui es registradas Adenau
522. technology content nov2004 tc2004119 3747 tc162 htm No vember 2004 318 E Santos Neto A knowledge free scheduling approach to improve the per formance of data intensive grid applications In Proceedings of Research Col loquium on Third IFIP Conference September 2003 319 E Santos Neto W Cirne F Brasileiro and A Lima Exploiting replication and data reuse to efficiently schedule data intensive applications on grids Lecture Notes in Computer Science 3277 210 232 2005 320 E L Santos Neto L E F Ten rio E J S Fonseca S B Cavalcanti and J M Hickmann Parallel visualization of the optical pulse through a doped optical fiber In Proceedings of Annual Meeting of the Division of Computational Physics abstract June 2001 321 Elizeu Santos Neto Comparative performance analysis between mygrid 2 1 3 and mygrid 3 0 In HP OurGrid Technical Report 2004 322 L F G Sarmenta Sabotage tolerance mechanisms for volunteer computing systems Future Generation Computer Systems 18 4 561 572 2002 323 L F G Sarmenta and Satoshi Hirano Bayanihan building and studying Web based volunteer computing systems using Java Future Generation Computer Systems 15 5 6 675 686 1999 324 E Sarmiento Inside jail http www daemonnews org 200109 jailint html 2001 VERSAO 0 6 PAGINA 417 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 325 Mahadev Satyanarayanan James J Kistler Lily B Mummert Maria R
523. tem baixo desempenho o cluster inteiro sentir esse problema e por consequ ncia o desempenho do sis tema como um todo ser atingido Assim comum se projetar redes para cluster pensando n o apenas no desempe nho e lat ncia desta mas tamb m na alta disponibilidade da rede E importante considerar que uma rede um elemento bastante seguro a n vel f sico dificilmente uma vez instalada a rede fisicamente ir falhar Outro t pico importante da rede a sua efici ncia uma rede congestionada des tr i o desempenho do cluster Assim dependendo do tamanho do cluster e da quantidade de n s pertencentes a este a rede poder ser a culpada diretamente pela baixa efici ncia computacional do cluster por isto que o investimento em uma rede tecnologicamente moderna habitual nestes tipos de sistemas VERSAO 0 6 P GINA 102 GUIA CLUSTER 6 6 2 REDES DE INTERCONEXAO UTILIZADAS EM ARQUITETURAS PARALELAS 6 6 2 Redes de Interconex o Utilizadas em Arquiteturas Parale las Nao importando o tipo da arquitetura todo computador paralelo necessita de uma rede de interconex o para criar canais de comunica o entre os seus diver sos recursos de processamento armazenamento e entrada sa da Considerando a diversidade das alternativas tecnol gicas esta se o vai explorar aspectos cen trais pertinentes ao tema a partir dos quais podem ser entendidas as v rias al ternativas poss veis para as redes de interc
524. terado Assim caso um arquivo seja usado constantemente e depois apagado nada ser gravado Outra vantagem do protocolo NFSv3 em rela o ao NFSv2 o fato de que este ultimo limitava o tr fego de dados de arquivos em blocos de 8KB enquanto que aquele permitiu enviar dados entre servidor e cliente em blocos de at 56Kbytes via UDP Al m disso no NFSv2 o servidor s retorna o resultado da grava o desses 8Kbytes ap s eles estarem gravados fisicamente Isso consumia muito tempo pois s se gravava em blocos de 8KB No NFSv3 o disco pode gravar uma quantidade de dados maior simultaneamente pois o servidor retorna uma res posta do pedido de escrita ao cliente antes de realmente gravar os dados no disco acumulando os para escrever de uma s vez VERSAO 0 6 P GINA 149 GUIA CLUSTER 7 3 4 NETWORK FILE SYSTEM NFS Seguran a No NFSv2 o cliente era respons vel pelo controle de acesso aos arquivos sem nenhuma valida o por parte do servidor Isso mudou na vers o 3 onde o ser vidor passou a tomar tal decis o usando o mesmo esquema de seguran a dos sistemas de arquivos locais Unix Quando um cliente faz um pedido ele envia o uid e o gid do usu rio solicitante e atrav s de uma consulta s permiss es do arquivo local em quest o o servidor decide se libera o acesso ao cliente ou n o Por m isso necessita de sincroniza o de uid e gid entre as m quinas da rede Para resolver isso foi criado o Network In
525. terfaces de comunica o Gigabit e seus compo netnes como switches 5 1 5 Aplica es Extremamente Complexas Existem aplica es que demandam elevad ssimo poder computacional Por mais poderoso que possa ser determinado processador dentro do atual estado tecno l gico a combina o de v rios destes em uma arquitetura para processamento paralelo torna dispon vel maior capacidade de processamento que a poss vel com um nico Como exemplo de aplica es que atualmente demandam grandes recursos com putacionais destacam se e intelig ncia artificial incluindo redes neurais rob tica e reconhecimento de padr es e an lise de elementos finitos onde aparecem diversos tipos de equa es di ferenciais aplicadas a mec nica est tica eletromagnetismo e din mica dos fluidos e simula o onde se sobressaem as t cnicas de Monte Carlo e processamento de sinais envolvendo FFT Fast Fourier Transformation sobre grandes volumes de dados processamento de imagens e processamento s s mico e algoritmos b sicos em ci ncia da computa o classifica o busca e proces samento de rvores e grafos e grandes bancos de dados com resposta em tempo real OLTP On Line Tran saction Processing Z Freq entemente sugerido que os equipamentos paralelos sobretudo os de grande porte s o comprometidos com prop sitos especiais A id ia inerente a VERSAO 0 6 P GINA 75 GUIA CLUSTER 5 1 6 SUPO
526. terminada localiza o Por exemplo n meros de telefone possuem c digo do pa s da localidade etc Se transpar ncia por nome e por localiza o estiverem sendo utilizadas si multaneamente pode ser muito dif cil realizar um roteamento para determinar a localiza o de um determinado nome Solu es com servidores centralizados ou distribu dos s o op es por m os centralizados podem se tornar um gargalo en quanto os distribu dos precisam usar alguma t cnica de descentraliza o como por exemplo cada servidor respons vel por um determinado subconjunto de arquivos ou cada um resolveria a localiza o de determinados tipos de arquivos Servi o de Arquivos Distribu do O servi o de arquivos respons vel por fornecer opera es sobre os arquivos que comp em o sistema que podem ser armazenados de diferentes formas de pendendo do seu tipo e uso Por exemplo arquivos que comp em um banco de dados podem ser armazenados em formato de registros arquivos que s o usados por aplica es multim dia costumam ser armazenados em formato cont nuo no disco para agilizar sua leitura etc Esse servi o tamb m cuida das propriedades dos arquivos como data de cria o data de altera o tamanho dono do arquivo permiss es de leitura escrita e execu o al m de qualquer outra informa o relevante Tais informa es s o chamadas tamb m de meta dados VERSAO 0 6 P GINA 136 GUIA CLUSTER 7 3 2 SERVI
527. tivos de Blocos e Sistemas de Arquivos Distribu dos e Sistemas de Arquivos Paralelos Sendo abordadas as principais tecnologias neste cap tulo 7 2 Block Devices A defini o b sica de dispositivos de blocos Bloco especial de arquivo ou dispositivo de blocos s o usados para corresponder a dispositivos pelos quais os dados s o transmitidos na forma de blocos Estes n s de dispositivo s o frequentemente usados para dispositivos de comunica es paralelos como discos r gidos e drives de CD ROM 387 VERSAO 0 6 P GINA 120 GUIA CLUSTER 7 2 1 ARRANJO REDUNDANTE DE DISCOS RAID A diferen a mais significante entre dispositivos de blocos e dispositivos de ca r ter que os dispositivos de blocos tem rotinas de buffer para os controles de entrada e sa da O sistema operacional aloca um buffer de dados para prender cada bloco simples para a entrada e sa da Quando um programa envia um pe dido de dados para ser lido ou escrito no dispositivo cada car ter de dados armazenado no buffer apropriado Quando o buffer est cheio e um bloco com pleto alcan ado a opera o apropriada executada e o buffer limpo 357 Os Dispositivos de Blocos s o a parte de sustenta o dos sistemas de arquivos dos sistemas operacionais Sendo sua manipula o um processo b sico para ex plora o de dispositivos de armazenamento Existem v rias implementa es de Dispositivos de Blocos com a inten o d
528. to de alta performance desempenho grandes usu rios dessa tecnologia no brasil s o Universidades centros de pesquisa Petrobras 10 1 Beowulf Beowulf o nome de um projeto para cluster de computadores para computa o paralela usando computadores pessoais n o especializados e portanto mais ba ratos O projeto foi criado por Donald Becker da NASA e hoje s o usados em todo mundo principalmente para programa o cient fica Um cluster de Beowulf um grupo de computadores normalmente PCs id nticos que executam como sistema operacional o GNU Linux ou BSD Eles trabalham em uma rede LAN TCP IP pequena e tem bibliotecas e programas instalados que permitem o compartilhamento do processamento entre eles mais informa es sobre essas bibliotecas e ferramentas podem ser obtidas na sess o 11 1 Mais informa es sobre Donald Becker podem ser encontradas na WikiPedia http en wikipedia org wiki Donald Becker VERSAO 0 6 P GINA 232 GUIA CLUSTER 10 2 SISTEMA DE IMAGEM NICA SSI N o existe nenhum software em particular que defina um cluster como Beowulf Existem bibliotecas de processamento paralelo que geralmente s o usadas no cluster Beowulf essas bibliotecas incluem MPI 303 Message Passing Interface e PVM 305 Parallel Virtual Machine Ambos permitem o programador dividir uma tarefa entre um grupo de computadores conectados em rede e recolher os resultados das tarefas processadas
529. tomados segundo algoritmo round robin da mesma forma a consulta enviada aos backends e os resultados comparados all a requisi o enviada a todos os backends e os resultados comparados numberOfNodes deve ser maior ou igual a 3 Balanceamento de carga RAIDb 2 espelhamento distribu do A defi ni o do elemento RAIDb 2 definida como VERSAO 0 6 P GINA 228 GUIA CLUSTER 9 5 1 MIDDLEWARE SEQUOIA lt ELEMENT RAIDb 2 CreateTablex WaitForCompletion MacroHandling RAIDb 2 RoundRobin RAIDb 2 WeightedRoundRobin RAIDb 2 LeastPendingRequestsFirst gt lt ELEMENT RAIDb 2 RoundRobin EMPTY gt lt ELEMENT RAIDb 2 WeightedRoundRobin BackendWeight gt lt ELEMENT RAT Db 2 LeastPendingRequestsFirst EMPTY gt Se MacroHandling for omitido um elemento padr o MacroHandling adici onado O balanceador de carga RAI Db 2 aceita pol tica que especifique onde novas ta belas ser o criadas e como a conclus o de consultas distribu das manipulada V rias pol ticas de balanceamento de carga s o propostas RoundRobin balanceamento round robin simples A primeira requisi o enviada para o primeiro n a segunda para o segundo etc Uma vez que se tenha enviado uma requisi o para o ltimo a pr xima ser enviada para o primeiro backend e assim por diante WeightRoundRobin o mesmo que feito acima mas com um
530. tou Certamente isso s ir ocorrer caso o recurso esteja dispon vel Por m caso o recurso tenha sido descoberto atrav s da rede de favores o recurso pode ser tomado de volta i e preemptado pelo peer que o forneceu seguindo a din mica da rede de favores A preemp o um evento natural e previsto pela arquitetura do OurGrid uma vez que os recursos s s o cedidos caso esteja ocioso Ou seja uma solicita o local no site ao qual o recurso pertence pode ocasionar a preemp o Vale tamb m ressaltar que a aloca o do recurso feita no n vel do MyGrid Bro ker ou seja isso n o significa que o recurso estar dedicado exclusivamente ao MyGrid Broker Portanto n o h impedimento para que outras aplica es que n o usam a infraestrutura do OurGrid estejam executando concorrentemente com a aplica o submetida pelo usu rio Comunica o Uma vez que o foco da solu o OurGrid est nas aplica es Bag of Tasks n o faz parte do escopo da solu o OurGrid prover mecanismos de comunica o para aplica es fortemente acopladas Mesmo assim poss vel usar a infraestrutura OurGrid para executar aplica es deste tipo desde que a execu o seja interna a um site Por exemplo uma aplica o que usa MPI quando descrita pelo usu rio pode ter especificado em seus requisitos que necessita de uma GUM Grid Ma chine que na verdade o front end de uma cole o de v rios processadores i e um cluster
531. tre as tarefas que atendem o crit rio ii Quando uma tarefa completa sua execu o as outras r plicas da tarefa s o in terrompidas O algoritmo finaliza quando todas as tarefas que est o executando completam At isto ocorrer a replica o de tarefas continua Na Figura 13 16 apresentado uma compara o de desempenho entre tr s heur s ticas WOR XSufferage e Storage Affinity Esses resultados foram obtido atrav s da investiga o de mais de 3 000 cen rios onde v rios aspectos foram considerados i e heterogeneidade do Grid e da aplica o tipo da aplica o e granularidade da aplica o 319 poss vel ver que Storage Affinity consegue melhor desem VERSAO 0 6 P GINA 320 GUIA CLUSTER 13 3 4 IMAGEM DO SISTEMA penho que heur sticas que usam informa o sobre o ambiente XSufferage Um detalhe importante mostrado na Figura 13 17 a grande diferen a de des perdicio de recurso entre Storage Affinity e WOR Esse efeito produzido devido ao uso de estrat gias de replica o diferentes pelas heur sticas O fato de WOR n o evitar transfer ncias reduz o desperd cio de CPU por outro lado eleva bas tante o desperd cio de largura de banda da rede Para Storage Affinity ocorre exatamente o contr rio 13 3 4 Imagem do Sistema Ao usamos um computador dependemos das abstra es criadas pelo sistema operacional tais como arquivos diret rios permiss es e processos para lidar mos co
532. tre os processa dores e executam uma nica c pia do sistema operacional para todos os proces sadores Portanto eles apresentam uma imagem nica do sistema e excelente conectividade Todavia multiprocessadores apresentam limita es em escalabi lidade raramente ultrapassando algumas dezenas de processadores Multipro VERSAO 0 6 P GINA 303 GUIA CLUSTER 13 3 1 PLATAFORMAS PARA PROCESSAMENTO PARALELO cessadores s o relativamente comuns no mercado e v o desde m quinas bipro cessadas Intel at grandes servidores como os da s rie HP 9000 A Figura 13 7 ilustra a arquitetura de um multiprocessador Figura 13 7 Arquitetura multiprocessada MPPs ou processadores maci amente paralelos s o compostos por v rios n s processador e mem ria independentes interconectados por redes dedicadas e muito r pidas MPPs incluem supercomputadores paralelos como o IBM SP2 e Cray T3E como tamb m clusters de menor porte montados pelo pr prio usu rio Tipicamente cada n roda sua pr pria c pia do sistema operacional mas uma imagem comum do sistema implementada atrav s da visibilidade dos mesmos sistemas de arquivo por todos os n s O MPP controlado por um escalonador que determina quais aplica es executar o em quais n s Ou seja n o se pode utilizar um n que n o tenha sido alocado aplica o pelo escalonador Isto possibilita dedicar parti es um conjunto de n s s aplica es permitindo que estas
533. tre os servidores para melhorar a performance do sistema Entre essas op es ser o aqui destacadas DNS Round robin Hardware especializado Apache mod_jk mod_jk2 Balanceamento de carga via software como LVS switch de camada 4 DNS Round robin DNS Round robin a solu o mais simples de ser implementada usando uma lista de IP s dos servidores Tomcat percorrendo a de maneira circular enviando cada nova requisi o para um IP Tomcat diferente Muito embora seja uma so lu o pr tica de ser implementada ela n o leva em considera o a carga da m quina para a qual uma requisi o ser enviada n o apresenta vantagens em rela o a toler ncia a falhas j que n o toma conhecimento de quais m quinas est o sendo ativas podendo enviar conex es para m quinas inativas entre outros re veses Servidor Tomcat 1 164 41 2 2 www dominio com DP Cliente Servidor Tomcat 2 Servidor DNS 164 41 2 3 Servidor Tomcat 3 164 41 2 4 Figura 8 6 Balancemento de carga via DNS Round Robin VERSAO 0 6 P GINA 186 GUIA CLUSTER 8 2 1 BALANCEAMENTO DE CARGA Em servidores DNS configurados para prestar este tipo de servi o um endere o como www seudominio com resolvido para os IP s dos servidores que hos pedam as inst ncias de Tomcat Quando um cliente requisita uma requisi o o servidor DNS escolhe um dos IP s e o passa para o cliente Hardware especializado Geralmente
534. tremos com o comprimento dos condutores que os interligam Esta elevada VERSAO 0 6 P GINA 72 GUIA CLUSTER 5 1 2 LARGURA DE BANDA NO ACESSO A MEMORIA densidade de integra o e a restri o nas dimens es globais dificulta o fluxo do elemento resfriador ar gua etc o que por sua vez introduz severas dificulda des no processo de dissipa o t rmica Al m disto preciso considerar o fato que em frequ ncias elevadas ficam potencializados os fen menos de capacit ncias e indut ncias parasitas os quais dificultam sobremaneira os n veis de integra o dos semicondutores Estes dois aspectos independentes se interrelacionam no equil brio entre desem penho e possibilidade de opera o est vel e confi vel As arquiteturas de alto desempenho s o utilizadas quase sempre em miss es cr ticas e pelo seu custo n o usual mais do que uma unidade em cada instala o 5 1 2 Largura de Banda no Acesso Mem ria O aproveitamento do crescente poder computacional dos modernos processado res esbarra no de fato que o fluxo de dados poss vel entre os mesmos e a mem ria n o cresce na mesma propor o Este comportamento foi denominado Gargalo de Von Neumann e caracteriza que o poder de processamento disponibilizado para computa o de um problema limitado em fun o da taxa de transfer ncia de dados e instru es entre a mem ria e o processador O uso de v rios processadores na solu o do problema fac
535. tu ras empresariais mais complexas que podem ser conhecidas como enterprise e com base apenas em tecnologias abertas Algumas caracter sticas que devem ser observadas nesse modelo s o e Escalabilidade do ambiente Capacidade sob demanda para atender os re quisitos de recursos de infra estrutura e Balanceamento de carga Capacidade de realocar as cargas de trabalho no caso de falhas dos sistemas tanto de Hardware como de software e tamb m aumentar o desempenho global do sistema e Permitir separa o de ambientes e ou aplicativos dentro de uma parti o 1Pressup6e se nesse ponto que a institui o det m todo o conhecimento das regras de neg cios do seu ramo de atua o tendo capacidade em modelar os sistemas necess rios a ela VERSAO 0 6 P GINA 60 GUIA CLUSTER 4 3 1 O QUE DEVE SER OBSERVADO para eliminar a conten o e alocar desempenho para sistemas espec ficos e Gerenciamento da carga de trabalho permiss o para estabelecer crit rios de desempenho para cargas de trabalho espec ficas com base em suas regras de neg cios e ajustar os recursos de processamento para atingir estas metas Essas op es n o s estimulam a efici ncia econ mica mas tamb m permitem maior visibilidade de como os recursos de computa o devem ser alocados para apoiar processos de neg cio estrat gicos em tempo real eliminando a subutiliza o e os custos indiretos dela decorrente 4 3 1 O que deve ser
536. tworks http publibl6 boulder ibm com pseries en_US aixbman commadmn nfs_netlock htm Ultima Visita em 20 09 2005 12 12 228 IEC International electrotechnical commission http www iec ch Ul tima Visita em 20 04 2005 12 20 229 Virgilio Jos Martins IGNACIO Anibal Alberto Vilcapona y FERREIRA FI LHO Mpi uma ferramenta para implementa o paralela Pesquisa Opera cional 22 1 105 116 junho 2002 230 Red Hat Inc Gfs nttp www redhat com Ultima Visita em 20 04 2005 12 20 231 Sun Microsystems Inc Rpc Remote procedure call protocol specification version 2 http rfc ref org RFC TEXTS 1057 Ultima Visita em 20 09 2005 12 12 232 Tech Insider An interactive look at how ethernet has evolved http www networkworld com techinsider 2002 1014ethernettime html Ultima Visita em 20 09 2005 12 12 233 ISO International organization for standardization http www iso org Ultima Visita em 20 04 2005 12 20 VERSAO 0 6 P GINA 409 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS 234 Lauro Ivo Grid scheduling Adapting space shared resources to eager schedulers In HP OurGrid Technical Report 2004 235 B Kemme J M Milan Franco Adaptative middleware for data replication 236 R Jain The Art of computer systems performance analysis techniques for expe rimental design measurement simulation and modeling volume 1 John Wiley and Sons Inc 1991 237 M C Jih Li Chi Feng and Ruei
537. u Incluir as informa es recebidas por voc quanto a oferta para distri buir o c digo fonte correspondente Esta alternativa permitida so mente para distribui o n o comercial e apenas se voc tiver recebido o programa em c digo objeto ou formato execut vel com essa oferta de acordo com a letra b acima O c digo fonte de uma obra significa o formato preferencial da obra para que sejam feitas modifica es na mesma Para uma obra execut vel o c digo fonte completo significa o c digo fonte inteiro de todos os m dulos que ela contiver mais quaisquer arquivos de defini o de interface associados al m dos scripts usados para controlar a compila o e instala o do execut vel Entretanto como uma exce o especial o c digo fonte distribu do n o precisa incluir nada que n o seja nor malmente distribu do tanto no formato fonte como no bin rio com os componentes principais compilador kernel e assim por diante do sistema operacional no qual o execut vel executado a menos que este componente em si acompanhe o execut vel P GINA 360 GUIA CLUSTER CAP TULO A LICEN A CC GNU GPL Se a distribui o do execut vel ou c digo objeto for feita mediante a permiss o de acesso para copiar a partir de um local designado ent o a permiss o de acesso equivalente para copiar o c digo fonte a partir do mesmo local ser considerada como distribui o do c digo fonte mesmo que os terceiro
538. u muito em compara o ao PVFS original As novas caracter sticas que est o sendo adotadas permitem que ele seja cada vez mais utilizado o que ajuda os desenvolvedores a entender a real necessidade que os pesquisadores t m de um sistema de arquivos paralelo para suas aplica es A mudan a na forma como o c digo foi implementado facilita sua evolu o atraindo desenvolvedores de plataformas espec ficas a criar m dulos robustos VERSAO 0 6 P GINA 170 GUIA CLUSTER 7 4 2 PARALLEL VIRTUAL FILESYSTEM VERSION 2 PVFS2 para o PVFS2 que permitem usar esse SAP em cada vez mais aglomerados de computadores VERSAO 0 6 PAGINA 171 Capitulo 8 Cluster de Aplica o Um cluster de aplica o um conjunto de servidores que respondem coletiva mente por um servi o Esse conjunto de servidores pode dividir entre si a carga do sistema ou simplesmente aguardar um dos servidores falhar para assumir o servi o Esta tecnologia tem sido muito utilizada na Internet como em sites de portais e commerce e business abrangendo desde situa es onde necess rio tratar milhares de requisi es simult neas at a demanda do servi o que exige 99 99 do tempo on line por exemplo Clusters de aplica o em geral s o tecnologias maduras e est veis para serem utilizadas E se subdividem basicamente em 2 grupos e Alta disponibilidade e Balanceamento de carga Neste cap tulo ser o descritas tecnologias que executam
539. uamente durante um intervalo de tempo t ou seja a proba bilidade de o sistema n o apresentar defeito durante o intervalo de tempo considerado e Seguran a considerada sob dois aspectos contra cat strofes e convencional Con tra cat strofes a probabilidade do sistema apresentar defeito que acarrete consequ ncias catastr ficas para seus usu rios em um intervalo de tempo E seguran a convencional a probabilidade obtida atrav s da combina o dos atributos disponibilidade confidencialidade e integridade ou seja a probabilidade de que n o ocorra acesso ou manipula o indevida no es tado do sistema no intervalo de tempo e Confidenciabilidade a probabilidade de n o ocorrer divulga o indevida de informa o no intervalo de tempo e Integridade a probabilidade de n o ocorrer altera es impr prias de estado em um sistema no intervalo de tempo e Reparabilidade Esta m trica avalia o quanto um sistema pode ser restaurado retornando ao estado de servi o correto em determinado tempo dado que o mesmo apresentou defeito 6 3 Escalonamento Escalonamento um processo de tomada de decis es que se preocupa com a alo ca o de recursos limitados para tarefas ao longo do tempo e possui como meta a otimiza o de uma ou mais fun es objetivo As tarefas podem ser opera es em um processo de produ o execu o de software em um sistema de computa o VERSAO 0 6 P GINA 97 GUI
540. uanto o backup feito O problema da inconsist ncia poderia ser resol vido com o desligamento do sistema mas deixaria os usu rios do sistema sem acesso ao servi o O backup de fato uma medida necess ria mas o desligamento di rio do sistema inaceit vel Um m todo alternativo sim ples para se assegurar backups confi veis mantendo dispon vel o sistema a replica o do MySQL A replica o uma configura o onde um servidor MySQL conhecido neste contexto como master armazena dados e gerencia as conex es dos clientes enquanto outro ou outros servidores mant m uma c pia completa dos dados do master duplicando as declara es SQL executadas no master logo assim que elas aconte am O sistema de replica o MySQL permite que m ltiplos servidores slave mantenham seus dados sincronizados com um nico servidor master En tre as vantagens da replica o est o a facilidade de backup e recupera o al m de dar melhor suporte a grandes aplica es E poss vel se conseguir VERSAO 0 6 P GINA 209 GUIA CLUSTER 9 4 1 REPLICA O EM MYSQL escabilidade linear enviando as requisi es de escrita INSERT UPDATE DELETE para o servidor master e as conex es de leitura SELECT para os servidores slave Replica o oferece robustez velocidade e vantagens administrativas Robustez incrementada com uma configura o master slave caso ocorra algum problema com o master um slave pode assumi
541. udan a ir ocasio nar Esta uma atividade essencial na chamada Sensibiliza o Adotar uma nova tecnologia como a de clusters necessita de um plano de ca pacita o que contenha profissionais especializados para viabilizar a difus o do conhecimento dessa tecnologia entre os funcion rios da institui o para que es tes aceitem mais facilmente a implanta o absorvam o conhecimento nas regras de neg cio do sistema e possam manter todo o ambiente operacional sem a ne cessidade e a depend ncia de agentes externos Identificar os perfis adequados com a tecnologia de clusters que ser implantada como por exemplo sistemas distribu dos sistemas paralelos banco de dados distribu dos Grid e depois for mar uma programa de treinamentos antes da implanta o e de acordo com essas reas que s o necess rios para a forma o e compreens o dos envolvidos 4 2 2 Consultoria A utiliza o de Cluster n o simples e deve ser bem conhecida em todos os n veis da organiza o de TIC da institui o A op o e o projeto utilizando desta tecnologia um estudo complexo que precisa ser bem feito e avaliado por todas as esferas para que possa ter sucesso e trazer benef cios institui o A contrata o de uma consultoria especializada pode diminuir os riscos de erros e gastos excessivos no projeto Consultores especializados podem em conjunto com funcion rios da empresa participar do planejamento da avalia o d
542. ue uma vez mantidos aspectos como conjunto de instru es arquitetura etc o desempe nho efetivo registrado pelos benchmarks tradicionais tais como MIPS MFLOPS SPECmarks n o ir crescer na mesma raz o do clock Outros aspectos precisa riam acompanhar o crescimento do clock como por exemplo a efici ncia largura de banda de acesso mem ria Independente desta posi o n o otimista para a rela o desempenho clock considerando o n vel em que se encontra atualmente a velocidade de opera o dos processadores a mesma j enfrenta entraves tecno l gicos para seu aumento Destacam se os seguintes aspectos como limitadores para o crescimento do clock HWANG 222 O consumo de energia e a conseqiiente dissipa o t rmica os componentes projetados para clocks elevados tais como SRAM ou ECL apresen tam ndices de consumo e dissipa o t rmica bem mais elevados que os similares DRAM CMOS para clocks mais modestos A dimens o do processador e seus componentes acess rios limitados pela velocidade da luz os el trons podem percorrer dist ncias menores medida que a dura o do pulso de clock dimi nui Um clock de 1 GHz 1000 MHz limita a dist ncia m xima de deslocamento dos el trons grandeza de cent metros o valor exato depende das caracter sticas do substrato semicondutor Deste modo para operar nesta velocidade se fa zem necess rios componentes eletr nicos altamente densos bem como cuidados ex
543. ue fora da rede outro fornecer os mesmos arquivos Alguns sistemas de arquivos distribu dos foram criados levando esse conceito s ultimas consequ ncias como o caso do CODA detalhado na sess o 7 3 6 VERSAO 0 6 P GINA 139 GUIA CLUSTER 7 3 3 ALGUMAS CARACTERISTICAS DESEJADAS EM SADS Escalabilidade Os sistemas distribu dos s o em geral projetados e configurados pensando se na configura o da rede naquele momento Por m essa rede pode aumentar ou seja dezenas ou centenas de novos n s podem ser adquiridos e conectados nesse sistema A menos que se tenha considerado essa situa o no momento do projeto da rede dificilmente um sistema de arquivos distribu do apresentar bom desempenho para servir a todos os clientes ap s esse crescimento 246 V rios problemas podem ocorrer dentre eles a inutiliza o da vantagem de se usar cache quando o servidor responde a v rios pedidos de v rios clientes O servidor mant m os dados enviados em cache para permitir uma r pida resposta caso esse mesmo dado seja requisitado novamente No caso de se ter muitos clientes t m se muitos pedidos diferentes fazendo com que as tabelas do cache sejam atualizadas com frequ ncia sem a reutiliza o dos dados l contidos Caso se tenha cache do lado dos clientes ao se alterar um arquivo que est sendo usado por muitas outras m quinas o servidor ter que avis las que o cache local das mesmas est inv lido e todas deve
544. ue permite que pacotes IP sejam coloca dos dentro de outros pacotes IP permitindo que pacotes destinados a um deter minado endere o IP sejam redirecionados para outro endere o IP Neste m todo de configura o de LVS o Director e os Servidores Reais n o necessitam estar no VERSAO 0 6 P GINA 178 GUIA CLUSTER 8 1 3 ALGORITMOS DE ESCALONAMENTO mesmo segmento de rede mesmo estando geograficamente distantes como no caso de mirrors de ftp Dessa forma os Servidores Reais podem usar qualquer endere o de rede e n o apenas endere os privado Resposta direta ao cliente Cliente Requisi o Tunel IP TF Director Rede 1 Tunel IP Servidor Real 2 Servidor Real 3 LvS Tun Figura 8 4 LVS Tun Caracter sticas do LVS Tun Os Servidores Reais n o necessitam estar no mesmo segmento de rede que o Director Os RIP n o necessitam estar de acordo com a RFC 1918 O Director apenas recebe requisi o dos clientes as respostas s o enviadas di retamente dos Servidores Reais O Director n o pode remapear portas Os sistemas operacionais dos Servidores Reais precisam suportar IP tunneling 8 1 3 Algoritmos de escalonamento Existem v rios algoritmos utilizados para a implementa o do LVS e seus m to dos de escalonamento para o balanceamento de carga Os m todos de escalona mento regulam a maneira como a carga distribu da entre os n s que comp em VERSAO 0 6 P GIN
545. uir as informa es que tiverem sido gravadas no disco do servidor primario e replicadas em seu disco Recomenda se utilizar uma solu o baseada em heartbeat drbd mon em siste mas de email servidor de arquivos servidor web e banco de dados Sendo que devem ser tomados os devidos cuidados no sistema gerenciador de banco de da dos para que n o sejam perdidas requisi es de transa o Cen rio 5 Banco de Dados A camada de banco de dados uma das partes cr ticas da maioria dos sistemas Uma falha indisponibilidade ou problemas de integridade na camada de banco de dados pode ser respons vel pela indisponibilidade de um sistema inteiro ou at mesmo pela perda de dados que encontravam se armazenados Por conta desse motivo esta camada deve ser avaliada desenvolvida e implementada com cuidado Existem Diversas tecnologias de cluster para banco de dados sendo que as prin cipais podem ser classificadas em e Alta Disponibilidade Nesta categoria encontram se as tecnologias de re plica o e alta disponibilidade Para replica o normalmente utilizado alguma solu o pr pria ou espec fica para o sistema de banco de dados uti lizado No caso do postgres pode ser utilizado o slony que prov replica o do tipo ativo passivo O mysql possui um recurso pr prio para replica o de tabelas e dados entre servidores Para alta disponibilidade pode ser utilizado por exemplo o Heartbeat DRBD e Paraleliza o de
546. ult3 htm Ultima Visita em 11 09 2006 12 20 136 Mario Dantas Computa o Distribu da de Alto Desempenho Axcel Books 2005 137 Daniel Darlen Utiliza o de ferramenta de minera o de dados em ambi ente cluster http guialivre governoeletronico gov br labcluster tamandua pdf ltima Visita em 11 09 2006 12 20 138 C J Date An Introduction to Database Systems Addison Wesley Reading MA 6 edition 1995 139 T Davis A Chalmers and H W Jensen Practical parallel processing for realistic rendering In ACM SIGGRAPH 2000 140 Escola Regional de Alto Desempenho Caderno dos Cursos Permanente Co miss o Regional de Alto Desempenho Regional do Rio Grande do Sul Sociedade brasileira de Computa o 2006 141 Escola Regional de Alto Desenpenho Primeira Escola Regional de Alto Desem penho Comiss o Regional de Alto Desempenho Regional do Rio Grande do Sul Sociedade brasileira de Computa o 2001 142 Escola Regional de Alto Desenpenho Segunda Escola Regional de Alto De sempenho S o Leopoldo RS Comiss o Regional de Alto Desempenho Regional do Rio Grande do Sul Sociedade brasileira de Computa o 2002 143 Escola Regional de Alto Desenpenho Terceira Escola Regional de Alto De sempenho Santa Maria RS Comiss o Regional de Alto Desempenho Regional do Rio Grande do Sul Sociedade brasileira de Computa o 2003 144 Escola Regional de Alto Desenpenho Quarta Escola Re
547. ulta com a soma de suas taxas de transfer ncia individuais a supera o do Gargalo de Von Neumann Existem diferentes formas de interligar diversas mem rias a v rios processadores na defini o uma m quina paralela Cada estrat gia de interconex o vide item 6 6 2 tem implica es diretas em as pectos operacionais tais como emprego gen rico possibilidade de uso com de sempenho desta m quina paralela a um n mero maior de naturezas de proble mas na sua escalabilidade e no seu custo dentre outros CULLER 128 VERSAO 0 6 P GINA 73 GUIA CLUSTER 5 1 3 PARALELISMO INTRINSECO DO MUNDO REAL 5 1 3 Paralelismo Intrinseco do Mundo Real Os fen menos naturais s o inerentemente paralelos Deste modo seria natural e direto expressar as computa es pertinentes ao mundo real de forma paralela ou ao menos de uma forma que n o impe a o paralelismo Escrever programas sequenciais via de regra implica impor uma ordem as a es que s o indepen dentes e que poderiam ser executadas concorrentemente Na programa o sequencial inevit vel arbitrar uma particular ordem na qual as a es s o colocadas Isto pode tornar o computador um impecilho para a per cep o de novos conceitos Some se a isto o fato que situa es nas quais a ordem de execu o das a es importante para o melhor entendimento do problema real s o dif ceis de diferen ar daquelas nas quais a ordem de execu o pratica mente n o
548. um dispositivo que prov o acesso no n vel de blocos a dispositivos de armazenamento remotos em uma rede TCP IP O GNBD composto por um m dulo no kernel e um conjunto de utilit rios de sistema possuindo uma parte servidora que respons vel por exportar o disco via rede e uma parte cliente que respons vel por mapear localmente um disco remoto A parte servidora do GNBD capaz de exportar qualquer dispositivo de blocos alguns exemplos de dispositivos de blocos s o Disco R gidos Ide ou SCSI Pen drive Volumes l gicos DRBD dispositivos armazenados em storage devices VERSAO 0 6 P GINA 127 GUIA CLUSTER 7 2 5 INTERNET SCSI ISCSI Normalmente um servidor GNBD exporta um dispositivo de blocos local para um n GFS 230 Este dispositivo exportado em rede pode ser acessado local mente e remotamente por v rios servidores simult neamente entretanto para manter a integridade dos dados necess rio utilizar um sistema de arquivos compartilhado como por exemplo GFS ou OCFS2 Tamb m poss vel agregar diversos dispositivos gnbd em um ou mais volumes l gicos LVM utilizando a tecnologia de clusteriza o de volumes l gicos desen volvida pela redhat CLVM Atrav s da utiliza o do GNBD e CLVM poss vel criar uma estrutura de SAN para armazenamento de arquivos em um cluster ou rede de servidores O gargalo de performance para configura es com um grande n mero de cli entes geralmente encontr
549. um n master e v rios slaves e as aplica es devem escrever apenas no master As principais desvantagens do MySQL cluster s o O banco de dados ficar em mem ria somente e isto requer mais recursos que um banco de dados MySQL normal MySQL 5 1 introduz tablespaces com a capacidade de armazenar dados n o indexados em disco VERSAO 0 6 P GINA 212 GUIA CLUSTER 9 4 2 MYSQL CLUSTER Algumas caracter sticas n o est o presentes como procura full text inte gridade referencial e n veis de isolamento de transa o maiores que READ COMMITTED Embora em alguns casos MySQL cluster seja uma solu o perfeita a repli ca o ainda na maioria das vezes a melhor escolha Entretanto replica o tamb m tem seus problemas H a distin o entre master e slaves e as aplica es devem apenas escrever no master Quanto a toler ncia a falhas quando o master cai h os slaves prontos para assumir mas o processo de detec o de falhas e substitui o do mas ter requerem interven o do administrador 9 4 2 MySQL Cluster MySQL cluster tecnologia que habilita clusteriza o de bancos de da dos em mem ria sem depend ncia de hardware ou tecnologia espec fica MySQL Cluster implementa uma arquitetura distribu da altamente tole rante a falhas com nenhum ponto nico de falha SPOF recupera o auto m tica de n s garantindo a confiabilidade de um mainframe em hardware de baixo custo c
550. uma abordagem de m dulo de kernel logo ele pouco relacionado vers o do kernel atual e dinami camente inserido e removido do espa o de kernel Devido sua integra o com o Mosix openMosix o CHPOX se tornou rapidamente aceito pela comunidade openMosix VERSAO 0 6 P GINA 239 GUIA CLUSTER 10 2 4 OPENMOSIX Tecnologia openMosix O openMosix um conjunto de algoritmos para com partilhamento din mico de recursos que s o utilizados para fornecer escalabili dade e performance em um cluster CC Cache Coherent de qualquer tamanho onde o nico componente compartilhado a rede A id ia principal da tecnolo gia do openMosix a capacidade de m ltiplos n s workstations e servidores in cluindo SMP s de trabalharem em coopera o como parte de um sistema nico Com o sentido de compreender o que o openMosix faz devemos comparar mul ticomputador de mem ria compartilhada SMP a um CC Em um sistema SMP m ltiplos processadores compartilham a mem ria As principais vantagens s o o aumento do volume de processamento e a maior velocidade de comunica o entre os processos atrav s da mem ria compartilhada M quinas SMP podem suportar m ltiplos processos trabalhando simultaneamente com eficiente aloca o e compartilhamento de recursos A qualquer momento que um processo seja inicializado finalizado ou mude seu perfil computacional o sistema se adapta instantaneamente ao ambiente de execu o resul
551. uma discuss o sobre a dificuldade e se construir um sistema escal vel para monitoramento de canais de comunica o Aplica es Bag of Tasks Apesar de ser poss vel efetuar escalonamentos eficientes usando informa o so bre o desempenho dos recursos muitas aplica es podem ser escalonadas de forma eficiente sem o uso dessa informa o Isso poss vel devido a algumas caracter sticas da aplica o Em particular aplica es Bag of Tasks s o aplica es que podem ser escalonadas sem o uso de informa o din mica sobre o Grid e g carga de CPU largura de banda Como parte do projeto OurGrid 36 foram desenvolvidas duas heur sticas de escalonamento o Work Queue with Replication WQR 297 um escalonador ca VERSAO 0 6 P GINA 315 GUIA CLUSTER 13 3 3 ESCALONAMENTO paz de obter boa performance para a aplica o no ambiente muito din mico que o Grid sem depender de previs es de performance dos componentes do Grid Isto poss vel devido a dois fatores fundamentais Primeiro WOR usa replica o de tarefas para garantir a boa performance da aplica o A id ia utilizar alguns ciclos extra para compensar pela falta de informa o sobre o ambiente Segundo WOR escalona aplica es relativamente simples A id ia aplicada na heur stica WOR bastante simples e ao mesmo tempo pode rosa Uma fila de tarefas criada na submiss o da aplica o Sempre que h um processador dispon ve
552. uma m quina conforme figura 8 2 Cliente Resposta Requisi o Servidor Real 1 Director Resposta lt Internet Intranet lt l gt Servidor Real 2 Requisi ao Servidor Real N LVS NAT Figura 8 2 LVS NAT Propriedades de LVS NAT Os Servidores Reais devem estar na mesma subrede do Director VERSAO 0 6 PAGINA 176 GUIA CLUSTER 8 1 2 TIPOS DE LVS CLUSTER Os endere os dos n s Servidores Reais normalmente est o em conformidade com RFC 1918 As conex es de entrada e sa da passam todas pelo Director O Director deve ser o gateway padr o dos Servidores Reais O Director pode remapear n meros de portas isto uma requisi o recebida em uma porta dele e pode ser redirecionada para uma porta diferente de um Servidor Real Qualquer sistema operacional pode ser usado nos Servidores Reais O gargalo do ambiente pode ser um nico Director configurado para atender a demanda embora uma rede saturada normalmente seja o problema mais co mum Direct Routing LVS DR Neste modelo baseado no NetDispatcher o Director repassa as conex es para os Servidores Reais e estes respondem diretamente para os clientes que fizeram as requisi es Para isto os Servidores Reais dever o estar no mesmo segmento de rede que o Director assim como todas as m quinas Directors e Servidores Reais que usam o mesmo VIP Todos os Servidores Reais possuem uma interface virtual de loopback
553. unidade Acad mica e de Software Livre para suprir tais lacunas originadas pela complexidade e pela abrang ncia do conte do do Guia de Clus ter O lan amento dessa vers o 0 6 representa a consolida o dos trabalhos de inser o de conte do e a devolu o sociedade do resultado do trabalho at este ins tante o qual j conta com importantes colabora es de membros da comunidade VERSAO 0 6 P GINA IX GUIA CLUSTER acad mica brasileira Colabora es para este documento podem ser feitas atrav s do s tio http guialivre governoeletronico gov br guiacluster e pelo e mail lt guialivre planejamento gov br gt VERSAO 0 6 PAGINA X GUIA CLUSTER Distribui o Secretaria de Log stica e Tecnologia da Informa o Vers o 0 5 e 0 6 Lan amentos P blicos Vers o 0 5 Encontro Mineiro de Software Livre 2006 O Encontro Mineiro de Software Livre 2006 realizado na cidade de Ouro Preto MG entre os dias 10 12 de outubro de 2006 http emsl softwarelivre org Vers o 0 5 ParGov SBAC PAD 2006 The 18th International Symposium on Computer Ar chiteture and High Performance Computing realizado na cidade de Ouro Preto MG entre os dias 17 20 de outubro de 2006 nttp www sbc org br sbac 2006 Vers o 0 5 HI F rum Goiano de Software Livre Realizado na cidade de Goiania GO entre os dias 27 28 de outubro de 2006 Vers o 0 6 IV CONISLI Congresso Internacional de Software Li
554. uras de monitora o 111 89 Uma servi o utilizado por v rias heur sticas de escalonamento o Network We ather Service NWS 389 O NWS um sistema que monitora e dinamicamente prov estimativas de desempenho de recursos computacionais ex processado res e rede O processo de monitora o feito atrav s de sensores que mede periodicamente o estado dos recursos As informa es coletadas pelos sensores podem ser requisitadas diretamente pelas heur sticas que utilizam essa informa o para melhorar a efici ncia do escalonamento gerado Al m da informa o sobre o desempenho de um recurso em um dado instante fornecido pelos sensores as heur sticas podem fazer uso de previs es de desem penho que s o geradas pelo NWS a partir do hist rico obtido com a monitora o Assim atrav s do uso de m todos num ricos e g regress o linear as informa es armazenadas sobre o desempenho dos recursos s o processadas para gerar estimativas do desempenho que os recursos podem oferecer em um determinado intervalo Considerando o benef cio que uma arquitetura de monitora o que forne a in forma es sobre os recursos do Grid o Global Grid F rum 196 mant m grupos de trabalho discutindo sobe quest es relacionadas defini o de uma arquitetura de monitora o Estas discuss es s o em geral baseadas na experi ncia obtida de investimentos j feitos por v rios grupos como NWS 389 e Autopilot
555. uster O sistema de controle de tarefas batch server permite que sejam definidas e implementadas regras para diferentes tipos de recursos e para a quantidade de recursos pode ser usada por diferentes tarefas Este sistema tamb m prov um mecanismo com o qual um usu rio pode assegurar que uma tarefa tenha os recursos necess rios para ser completada Este sistema de controle de tarefas constitu do por um conjunto de componen tes um servidor por clientes e por comandos de usu rios O servidor gerencia um n mero de diferentes objetos como tarefas e filas de execu o Intera es t picas entre os componentes s o baseadas no modelo cliente servidor quando um cliente faz a requisi o para o servidor de uma tarefa o servidor executa o trabalho em um de seus clientes Clientes n o podem criar ou modificar os objetos diretamente eles dependem de uma ordem do servidor que ger ncia estes objetos O servidor de tarefas um processo permanente ou um conjunto de processos um daemon O servidor de tarefas gerencia os objetos trabalhos a serem exe cutados assim como as filas e as tarefas Ele prov servi os como cria o exe cu o modifica o exclus o e roteamento de tarefas para os clientes n s com putacionais respons veis pela execu o dessas tarefas VERSAO 0 6 P GINA 274 GUIA CLUSTER 12 2 TORQUE 12 2 TORQUE TORQUE um gerenciador de recursos de c digo aberto que prov controle
556. utacional Uma plataforma de fornecimento de servi os computacionais que apresenta as caracter sticas acima listadas certamente um Grid Contudo a aus ncia de alguma das caracter sticas n o deve automaticamente desqualifi car uma determinada plataforma como Grid Por outro lado o leitor deve estar atento que o termo Grid Computacional pode ser usado t o e somente como fer ramenta de marketing 180 Devido a sua popularidade e a seu impacto posi tivo o termo Grid Computing tem sido utilizado de forma muito liberal como no passado outros termos j foram como Orienta o a Objetos Sistemas Abertos Downsizing Reengenharia Internet Intranet Extranet entre outros Portanto com o objetivo de desmistificar e posicionar os esfor os atuais na con cretiza o da vis o original dos Grids Computacionais discutiremos v rios as pectos importantes dos Grids de Servi os e tamb m das quest es particulares dos Grids para Alto Desempenho que incluem servi os de execu o remota Este texto est organizado da seguinte forma na sess o 13 2 apresentamos os Grids de Servi os suas principais caracter sticas benef cios desafios que tais ca racter sticas sugerem e os investimentos de padroniza o Na sess o 13 3 ser o apresentados as quest es exclusivas a Grids para Alto Desempenho que envol vem o desenvolvimento de um ambiente de execu o de aplica es paralelas em VERSAO 0 6 P GINA 281 GUIA CLUSTER 13
557. utational power grids In International Confe rence on Parallel and Distributed Processing Techniques and Applications 2000 R Buyya D Abramson and J Giddy A case for economy grid architecture for service oriented grid computing In 10th IEEE International Heterogene ous Computing Workshop HCW 2001 2001 R Buyya D Abramson J Giddy and H Stockinger Economic models for resource management and scheduling in grid computing The Journal of Concurrency and Computation Practice and Experience CCPE Maio 2002 Rajkumar BUYYA High Performance Cluster Computing Architectures and Systems Prentice Hall 1999 Rajkumar Buyya David Abramson and Jonathan Giddy Nimrod g An architecture of a resource management and scheduling system in a global PAGINA 398 GUIA CLUSTER REFERENCIAS BIBLIOGR FICAS computational grid In The 4th International Conference on High Performance Computing in Asia Pacific Region HPC Asia 2000 Beijing China 2000 103 Rajkumar Buyya and Sudharshan Vazhkudai Compute Power Market Towards a Market Oriented Grid In The First IEEE ACM International Sym posium on Cluster Computing and the Grid CCGrid 2001 Beijing China 2000 IEEE Computer Society Press 104 Toni BUYYA Rajkumar CORTES Single system image special issue In Sage Science Press editor International Journal of High Performance volume Volume 15 chapter Pages 124 135 Sage Science Press 2001 105 Philip H Car
558. utras caracter sticas desej veis que n o est o dispon veis facilmente nos SGDBs mais conhecidos Algumas reas de de senvolvimento de bancos de dados mais avan ados est o dispostos a seguir Design de bancos de dados distribu dos O design de banco de dados distribu dos responsivo uma preocupa o b sica para os sistemas de informa o Em redes com grande largura da banda lat ncia e processamento local s o os fatores mais significativos para consultas e atuali za o de dados no que se refere a tempo de resposta do sistema Processamento paralelo pode ser usado para minimizar os efeitos particularmente se for consi derado no momento do design do sistema de banco de dados A replica o e a localiza o dos dados na rede que faz o paralelismo ser efetivamente usado O design de banco de dados distribu do pode ser visto assim como um problema de otimiza o que requer solu es a v rios problemas relacionados fragmenta o VERSAO 0 6 P GINA 195 GUIA CLUSTER CAPITULO 9 CLUSTER DE BANCO DE DADOS de dados aloca o de dados e otimiza o local Processamento de consultas distribu do Em sistemas distribu dos de grande escala frequentemente dif cil achar um plano timo para consultas distribu das sistemas distribu dos podem ficar muito grandes envolvendo milhares de sites heterog neos Como novos bancos de da dos podem ser adicionados removidos do sistema fica mais dificil para o pro
559. vas imprecisas ainda podem significar um escalonamento ineficiente Com isso as conseqti ncias de um mau escalonamento n o s o t o impactantes quanto seriam no caso est tico Assim atrasos ou adiantamentos no tempo de conclus o de uma determinada tarefa podem ser utilizados em tempo real para o reescalo namento das tarefas restantes a serem executadas Uma vantagem adicional do fato de seu processamento ser realizado concorrentemente a execu o da aplica o escalonada e que isso pode significar economia de tempo global com rela o ao caso est tico VERSAO 0 6 P GINA 99 GUIA CLUSTER 6 4 ALTA DISPONIBILIDADE Entretanto os escalonadores din micos possuem seus inconvenientes Em con trapartida aos escalonadores est ticos a implementa o dos escalonadores di n micos trabalhosa e requer a manipula o e ger ncia de estruturas de dados frequentemente complexas Esse fato torna este tipo de escalonador pesado sob o ponto de vista da implementa o e execu o e menos robusto j que na eventual ocorr ncia de uma falha um grande trabalho de recupera o de estado dever ser feito Outro importante aspecto no projeto de escalonadores de tarefas o paradigma de opera o adotado A exist ncia de diferentes paradigmas adv m do fato da implementa o do escalonador de tarefas estar diretamente vinculado s manei ras de como as unidades de processamento do sistema distribu do em quest o estejam conectadas
560. vez que toda a base de Grid Services surgiu das tecnologias para Web Ser vices alguns aspectos da especifica o OGSI precisavam ser refinados devido a evolu o da arquitetura Web Services O principal ponto de cr tica foram os mecanismos de endere amento para os ser vi os i e Grid Service Handler e Grid Service Reference Nesse caso WS Addressing surgiu pra fornecer um mecanismo de endere amento independente da camada de transporte 132 Al m disso outras caracter sticas de OGSI precisavam ser modificadas para acom panhar a evolu o da tecnologia Web Service melhorando assim a especifica o OGSI Assim WSRF Web Service Resource Framework basicamente o resultado do refinamento de OGSI no intuito de aproveitar a exist ncia dos novos padr es que surgiram para para Web Services e g WS Addressing WS Notification e assimilar a demanda da comunidade Web Services O primeiro efeito do refatoramento foi a divis o de OGSI em v rias especifica es separadas por m agrupadas em uma fam lia A id ia reduzir a complexidade de uma especifica o longa que dificulta a ado o incremental de funcionalida des Outra medida importante foi a recupera o da compatibilidade com as ferramen tas existentes para XML e Web Services pois OGSI usa GWSDL a qual prov acr s cimos WSDL 1 1 que estar o dispon veis na WSDL 1 2 2 0 Ao contr rio de OGSI ao inv s de estender a defini o de portType WSDL 1 1 ou
561. vi o de execu o remota dispersos por todo Grid Em contrapartida a introdu o dessa flexibilidade adquirida atrav s do forneci mento de um servi o de execu o gen rico que pode ser convertido em outros servi os mais espec ficos aumenta a complexidade da infraestrutura Portanto novas quest es devem ser consideradas para que seja poss vel fornecer um ser vi o de execu o remota eficiente Por exemplo quais servi os de execu o re mota dispon veis no Grid devem ser usados de forma a obter uma execu o eficiente da aplica o de processamento de imagens Como proteger o servi o de aplica es maliciosas Discutiremos v rias dessas quest es nas pr ximas se es 13 3 3 Escalonamento Um dos aspectos mais importantes para o desenvolvimento dos Grids a im plementa o de estrat gias de aloca o de recursos para as v rias aplica es que usam a infraestrutura Sendo assim tanto poss vel pensar em escalonamento VERSAO 0 6 P GINA 308 GUIA CLUSTER 13 3 3 ESCALONAMENTO de aplica es bem como escalonamento de recursos Em geral os objetivos des sas duas vis es contrastam entre si A primeira procura melhorar o desempenho da aplica o A segunda busca aumentar a utiliza o dos recursos Nesta se o discutiremos essas duas vis es sobre escalonamento bem como heur sticas de escalonamento de aplica o Escalonamento de aplica o vs Escalonamento de recurso Tradic
562. vidades 313 352 implementadas ou ainda a serem implementadas no PVES2 e sua nova arquitetura est o detalhadas nas pr ximas se es No capitulo 5 h mais detalhes sobre o desempenho do PVFS2 Novas caracter sticas Suporte modular para m ltiplos protocolos de rede e armazenamento O PVFS1 foi desenvolvido com a id ia de que seus dados seriam acessados via soquete e armazenados em sistemas de arquivos locais Analisando os aglome rados de computadores existentes hoje nota se que existem muitas tecnologias diferentes em cada um deles sendo que algumas s o mais populares que ou tras O mesmo ocorre com os sistemas de armazenamento de dados locais Dessa forma o PVFS2 foi projetado usando o BMI 214 Buffered Messaging Interface como interface de acesso rede e o Trove como interface de acesso ao sistema de armazenamento f sico O objetivo abstrair do projeto os detalhes do meca nismo de transmiss es e armazenamento Isso permite que um desenvolvedor personalize m dulos espec ficos para seu ambiente sem ter que alterar o n cleo do PVFS2 Acesso a dados estruturados n o cont nuos Muitas aplica es cient ficas possuem estruturas de dados complexas que nem sempre podem ser armazenadas de forma cont nua pois isto certamente impacta o desempenho da aplica o como um todo O Trove uma interface desenvolvida pela equipe do PVFS2 sendo que at agosto de 2005 n o havia um documento p blico descrevendo a
563. vido interface RPC XDR Associado pol tica de cache o NFSv3 n o muito recomendado para aplica es que necessitam de acesso cont nuo aos arquivos O NFSv4 resolve esse problema pois poss vel enviar m ltiplos pedidos ao servidor atrav s da mesma chamada RPC al m do uso do cache ter melhorado por conta do controle de estado no acesso aos arquivos Uma excelente caracter stica a transpar ncia que o sistema de arquivos fornece ao usu rio final que nem sequer percebe estar lidando com arquivos remotos Na vers o 4 onde os controles de bloqueios e estado s o nativos do protocolo isso ainda mais evidente dando a impress o de que se est usando o sistema de arquivos local Al m disso o fato de ter sua especifica o aberta para que qualquer um possa implementar seu servidor ou cliente permitiu que ele se tornasse o sistema de arquivos distribu do mais utilizado no mundo 7 3 5 Andrew File System AFS Projeto Open Andrew Filesystem S tio Oficial http www openafs org Licen a IBM Public License Version 1 0 Responsavel O projeto ANDREW 245 246 comecou na Universidade Carnegie Mellon em 1983 com apoio da IBM Seu objetivo era projetar e implementar um sistema dis tribuido para o ambiente acad mico de ensino e pesquisa que ofereceria a cada professor e aluno uma esta o de trabalho com um sistema operacional compat vel com o UNIX BSD Al m disso a partir de qualquer um desses compu
564. vre IV Congresso Internacional de Software Livre realizado na cidade de S o Paulo SP entre os dias 03 05 de novembro de 2006 http www conisli org VERSAO 0 6 P GINA XI GUIA CLUSTER Direitos Autorais Governo Brasileiro a reprodu o em parte ou totalmente autorizada desde que a fonte seja reconhecida de acordo com as orienta es da CC GNU GPL creative to Commons COMMONS DEED Figura 1 Creative Commons 1General Public License cujo conte do est disponibilizado no Ap ndice A VERSAO 0 6 P GINA XII Sumario Sumario Lista de figuras Lista de tabelas 1 Pref cio 1 1 Abrevia es Terminologia 6 3 4 bse be a l2 PODIEO ger aos rah See ath e aca Mee acide sate SEER ewe Dest ews La MO ss Nose pe PE IDE DEISE NO SER E ace E 1 4 Agradecimentos ce pps dese da mada de de a dep A I Diretrizes Gerais 2 Governo Eletr nico e Novas Concep es Tecnol gicas 2 1 A Inform tica P blica Brasileira 2 1 1 A Sociedade da Informa o e a Inova o Tecnol gica VERSAO 0 6 xii XXV xxix xxxili XXX PAGINA XIII GUIA CLUSTER SUMARIO 22 Governo Eletr nico Brasileiro oaoa bee oR RK Res 9 2 2 1 Diretrizes do Governo Eletr nico Brasileiro 10 2 2 2 Padr es de Interoperabilidade de Governo Eletr nico 11 2 2 3 As Diretrizes do Governo Eletr nico e o Software Livre 15 2 2 4 A Arquitetura de Clu
565. ystems Principles Conference System Support for Worldwide Applications pages 54 59 Connemara Ireland Sep tember 1996 ACM Press 268 Marta Mattoso Geraldo Zimbr o Alexandre A B Lima and Fernanda Bai o Pargres Middleware para processamento paralelo de consultas olap em clusters de banco de dados 269 Tom McNeal and Chuck Lever Linux nfs faq http nfs sourceforge net Ultima Visita em 20 09 2005 12 12 270 Corinto Meffe Software p blico diferencial para o brasil http computerworld uol com br governo corinto meffe idgcoluna 2006 06 09 2677471526 IDGColunaPrint view ltima Visita em 11 09 2006 12 20 271 Corinto Meffe Carlos Castro Anderson Peterle Nazar Bretas and Rog rio Santanna Materializa o do conceito de software p blico Iniciativa cacic http guialivre governoeletronico gov br cacic sisp2 info software_publico html ltima Visita em 11 09 2006 12 20 272 Corinto Meffe Elias O P Mussi Leonardo Mello and Rog rio Santanna dos Santos A tecnologia de cluster e grid na resolu o de problemas de governo eletr nico The 18th International Symposium on Computer Archite ture and High Performance Computing pages 1 8 Outubro 2006 273 P MEHROTRA Data parallel programming The promises and limitations of high performance fortran In Computer Science editor Computer Science volume 734 chapter 1 Springer Verlag 1993 274 Ethan L Miller and Randy H Katz Ram

Download Pdf Manuals

image

Related Search

Related Contents

Hypertec Hyperam AT - Users Manual  Samsung SGH-X660 Instrukcja obsługi  万全を期したサポート体制  Samsung CM1019A User Manual  M0S06247_I - Servizio Assistenza Tecnica Polti  BEARING-MATE Mounting and Carrying Tool  Ultimate Ears Earphone User's Manual  T-136 IM  Clam AntiVirus: User Manual    

Copyright © All rights reserved.
Failed to retrieve file