Rede Aparecida revitaliza Data Center com o apoio da Blue Solutions

A Rede Aparecida

A Rede Aparecida consiste em uma emissora de Televisão e 3 emissoras de Rádio, sendo a Rádio fundada há 64 anos e a TV Aparecida irá completar 10 anos de vida em setembro próximo.

Fonte: Site Rede Aparecida

A Rádio Aparecida, sediada na cidade de Aparecida/SP, foi fundada em 8 de setembro de 1951, e está conectada com os eventos religiosos e culturais realizados no espaço do Santuário Nacional de Nossa Senhora da Conceição Aparecida. A emissora é apoiada por seus inúmeros ouvintes que abraçando o ideal da comunicação tornam-se representantes e associados do Clube dos Sócios, projeto iniciado em 7 de setembro de 1955.

Na trajetória da Rádio Aparecida sempre houve o acompanhamento das mudanças tecnológicas ao longo do tempo a fim de proporcionar uma sintonia de qualidade nas frequências da emissora. Em 2013, aconteceu a troca dos transmissores de Ondas Curtas, o que garantiu de imediato um alcance bem maior da emissora pelo país. Em 2015, foi a vez do sinal pela parabólica voltar definitivamente, proporcionando aos ouvintes sintonizarem o canal de áudio da Rádio Aparecida pela televisão. A Rádio Aparecida também pode ser ouvida pelo portal na internet do grupo “Aparecida” (www.a12.com) e por aplicativo de celular.

A TV Aparecida é uma rede de televisão que apresenta uma programação educativa e conteúdos religiosos. Possui programas culturais, educativos, jornalísticos, esportivos, musicais, femininos, filmes e desenhos infantis, demonstrando seu cuidado e parceria com as pessoas.

A TV Aparecida se destaca entre as 14 maiores redes de televisão do Brasil, segundo a ANATEL. Seu sinal está disponível para todas as antenas parabólicas digitais e analógicas do país. Em canal aberto, opera em 22 estados, no Distrito Federal, sendo 20 capitais e 276 municípios, cobrindo uma população de 70 milhões de pessoas. Atualmente, 50% de sua programação é produzida em HD e seu sinal digital está disponível nas principais capitais do Brasil, proporcionando ao telespectador uma experiência audiovisual mais agradável, com som e imagem de alta definição.

A Blue Solutions 

A Blue Solutions está no mercado de TI há 11 anos e é especializada em serviços de continuidade de negócios e soluções de TI para suprir as necessidades corporativas de ponta a ponta, através da oferta de hardware, software e serviços de TI para empresas de pequeno, médio e grande porte. A Blue Solutions teve a oportunidade de participar, projetar e implementar mais um projeto de revitalização de data center, agora na Rede Aparecida, no Vale do Paraíba/SP.


O Projeto

A revitalização ocorreu no 2° semestre de 2014, a qual contempla a linha de storage Equallogic com capacidade de 39 TB e ainda compõe ao cluster a linha servidores PowerEdge e Switches redundantes, solução de backup em disco com AppAssure. Todo este projeto foi possível através de nosso principal parceiro de negócios, Dell Computadores, fabricante que pelo 10° ano consecutivo é líder brasileiro em venda de servidores.

O objetivo do projeto era substituir equipamentos obsoletos da Rede Aparecida para que pudessem acompanhar a tendência mundial, virtualizando os seus servidores através da plataforma Microsoft Hyper-V.

Michelle Feierabend, Executiva de Contas da Blue Solutions, diz que “essa revitalização foi possível graças a confiança da Rede Aparecida no trabalho da Blue Solutions, e claro do fabricante Dell, por sermos parceiros há mais de 5 anos.  Tivemos diversas visitas comerciais e técnicas com nossos arquitetos, diagnosticando gaps existentes, assim mensuramos/desenhamos o projeto para atender a real necessidade, adequando a solução para o negócio da Rede Aparecida com preço competitivo”.

“Posicionamos a solução Equallogic por ser uma tecnologia confiável, escalável e que permite o crescimento sem comprometer o investimento realizado e performance no armazenamento do cluster, permitindo a Rede Aparecida centralizar gerência e ambiente estável, deixando a TI focada em entregar melhores resultados aos usuários internos”, completa Michelle.

Importância e Resultados do Projeto

A seguir, Júlio César dos Santos, Gerente de Tecnologia da Rede Aparecida, nos fala como foi o projeto e o que este significou.

“Para nós, da Rede Aparecida, esse projeto trouxe uma maior tranquilidade em revitalizar o data center garantindo maior disponibilidade dos serviços aos nossos “clientes internos”. Continuamos a parceria de sucesso com a Dell que já dura quase 10 anos, agora muito bem representada pela sua parceira Blue Solutions, e destaca-se a dedicação dos profissionais da Blue durante a fase de desenho do projeto, pois tivemos várias reuniões e discussões por quase 6 meses até chegar na melhor solução que pudesse contemplar o melhor cenário custos X benefícios para a Rede Aparecida.

Vale destacar também o excelente serviço pós-vendas prestado pela Dell Computadores, que hoje equipa quase 98% da Rede Aparecida de Comunicação, contemplando desde servidores, switches até desktop do usuário final. Diante da grande qualidade dos produtos tivemos uma drástica redução no estoque de peças que tínhamos de manter, reduzimos o consumo de energia com os novos equipamentos mais eficientes e, por consequência, damos condições aos nossos colaboradores de estarem focados no trabalho que precisam realizar.

A Blue Solutions, através de seus profissionais que implementaram o ambiente, destaca-se pela qualidade, seriedade e comprometimento na realização de um serviço de excelente qualidade.

Por fim, manifesto nosso contentamento com as parceiras Dell e Blue Solutions e renovo o desejo de continuar novos projetos e a manutenção deste parque tecnológico, para melhor servir as necessidades da Rede Aparecida que vem crescendo a cada ano.”

Colaboração: Júlio César dos Santos, Gerente de Tecnologia da Rede Aparecida, e Michelle Feierabend, Executiva de Contas da Blue Solutions.

Read More

Sua empresa já usa Shadow IT?

Alguns estudos indicam que num futuro próximo o CMO terá mais verba de TI do que o CIO, enquanto outros indicam que já estamos em período de transição.

Isso se deve principalmente pela falta de capacidade do CIO e da TI como um todo de atender as necessidades dos negócios.

Outros departamentos, além do marketing e até mesmo os próprios usuários, tendem a buscar soluções alternativas dentro de um ambiente corporativo quando a TI não é responsiva ao atender suas necessidades.

Algumas dessas iniciativas até trazem benefícios como o BYOD (Bring Your Own Device), mas junto vem os desafios de gerenciamento dos ativos, suporte aos equipamentos e segurança das informações.

Chamamos de Shadow IT ou Stealth IT todas as iniciativas de TI tomadas pelos próprios usuários ou departamentos, sem conhecimento, análise ou administração pela equipe de TI.

Por exemplo, quando o departamento de marketing resolve adotar uma nova ferramenta para disparo de e-mails pode instalar um software na rede local que prejudique o servidor de e-mail e a conexão da empresa, ou pode contratar um serviço de terceiro e ter problemas para fazer o disparo por falta de configuração de registros no DNS.

Até algumas ações dos usuários, como usar a conta do Gmail pessoal para uso profissional, ou armazenamento no iCloud ou Dropbox para arquivos da empresa são considerados como Shadow IT, e são um reflexo da TI da empresa não ter conseguido atender as necessidades de seus usuários.

Motivos

Isso acontece por diversos motivos, mas o principal é que a TI pode estar muito engessada, não estando preparada para responder as requisições rapidamente ou muito ocupada mantendo os sistemas legados no ar.

Também, se a TI possuir um ambiente onde a adoção de novos serviços e instalação de novos servidores demore meses, pode ser um motivador para que os usuários busquem por si só as soluções e acabem contratando e usando os mesmos serviços que usam na sua vida pessoal para resolver seus problemas corporativos.

Problemas

É de se esperar que essa adoção de tecnologias sem integrações e planejamento gere problemas para o departamento de TI e para a empresa como um todo, os mais críticos são:

  • Quebra de Conformidade – para empresas que tem obrigações legais de conformidade, como financeiras ou de saúde, expor dados sensíveis de clientes pode levar a multas e restrições por órgãos reguladores.
  • Desperdício de recursos – a contratação isolada de recursos na nuvem pode trazer altos custos diretos (como as faturas) e indiretos (como uso de links), sendo que se fosse feita uma contratação em um único fornecedor com um único contrato seria possível ter ganhos de escala, além do planejamento para uso de links e integrações.
  • Risco de perda de dados e vazamento de informações – em muitos serviços na nuvem o backup ou redundância é contratado a parte e o usuário comum pode não ter conhecimento disso. Também, se a transmissão e acesso não for feita de maneira adequada, pode expor dados sensíveis a acesso indevido.
  • Afeta o departamento de TI – no final, quando precisar de algo mais avançado o usuário vai buscar pela ajuda do departamento de TI. Por ser uma iniciativa não estudada e conhecida anteriormente, irá necessitar de mais horas do que o normal para diagnóstico e solução.

Os problemas extremos

Os casos mais extremos que já observamos foi a compra de equipamentos e sua instalação na rede sem conhecimento da equipe de TI.

Alguns casos mais inocentes como a compra de impressoras jato de tinta para atender um determinado departamento ou diretor, afeta os custos com impressão e pode demandar suporte da TI para instalação e manutenção do novo equipamento.

Outros casos extremos, como a instalação de Access Point Wireless, podem habilitar serviços DHCP que afetam o funcionamento das estações nas proximidades, conflitar IP com algum servidor crítico ou até expor a rede da empresa para invasores usando protocolos fracos de autenticação ou mesmo autenticação nenhuma.

Como evitar

A melhor forma de evitar que os próprios funcionários tomem iniciativas de TI é se a equipe de TI tiver tempos de resposta adequados ao negócio e for um facilitador de tecnologias, ao invés de um burocrata ou complicador que só fala em termos técnicos.

Os executivos de TI devem se aproximar de outros executivos e indicar possibilidades de uso da tecnologia para algumas operações. Também devem permitir aos demais executivos serem co-responsáveis pelo uso de tecnologias, permitindo inovação e redução de custos.

As principais sugestões de ações a serem adotadas são:

  • Liberar a TI de trabalhos repetitivos e que não agregam valor ao negócio, permitindo a mesma focar a tecnologia a favor do negócio.
  • Ser um facilitador entre tecnologia e negócios, orientando os usuários na adoção e tomando a frente nas iniciativas para colocar a tecnologia a serviço do negócio.
  • Buscar no mercado e estudar as plataformas sugeridas pelos usuários para realização de tarefas não específicas do negócio, como e-mail marketing, hospedagem, etc.

Desafios

A parte mais difícil é gerir os custos compartilhados. Em muitas empresas a TI tem um orçamento próprio e é visto como centro de despesas apenas. O ideal é a TI conseguir mensurar por departamento seus custos e compartilhar as decisões de investimento com os mesmos.
A segurança também é um fator a ser considerado, devem-se estudar quais dados serão usados fora da empresa, como serão transportados e armazenados.
Se a equipe de TI está sempre ocupada, pode ser a hora de terceirizar algumas operações que não são do negócio e principalmente se exigem alto conhecimento técnico. Empresas de serviços gerenciados de TI ou serviços gerenciados de segurança são uma opção.

Conclusão

Por fim, não recomendamos que a TI seja contra esse movimento, pelo contrário, se você encontrar ações dessa natureza na sua empresa, veja no que é possível ajudar na adoção e integração das mesmas.

É importante também adotar plataformas de gerenciamento, integração e documentação dos processos.

Por exemplo, o usuário do marketing deve usar uma conta corporativa (marketing@empresa.com.br) para cadastro na ferramenta de e-mail marketing e não sua conta pessoal.

Também, fazer o uso de virtualização de servidores com ferramentas de gerenciamento de Cloud integradas é uma boa opção, pois fornece escalabilidade rápida e facilidade, ao mesmo tempo que mantém a gerência centralizada.

No final, garantir a segurança dessas iniciativas, e não baní-las.

Enfim, que venha a mudança.
Sobre o autor
Fernando Ulisses dos Santos
Diretor de Tecnologia na Blue Solutions
Especialista em Segurança da Informação
Certificado VCP-DCV, VCAP-DT, VCP-DT
Fernando Ulisses dos Santos
Read More

Nova versão do Veeam Backup compatível com vSphere 6

A Veeam liberou hoje uma nova versão de seu aplicativo, o Veeam Backup 8 update 2, compatível com o novo vSphere 6, lançado no VMware PEX em fevereiro e liberado para download no final de março de 2015.

Essa nova versão do Veeam traz compatibilidade com os novos recursos do vSphere 6, além da compatibilidade da versão, entre os principais podemos destacar:

  • Integração com as Tags do vSphere, uma nova abordagem para gerenciamento das VMs e do ambiente
  • Suporte ao VMware Virtual Volumes, a nova forma de organizar os discos e volumes apresentados aos servidores ESX
  • Suporte a backup mesmo se fizer migração da VM entre vCenters
Uma funcionalidade interessante é que liberaram o suporte ao PowerShell no Veeam Backup Free Edition, isso permite utilizar um agendador de tarefas externo, com o Windows Task Manager para criar os agendamentos e fazer os backups com o Veeam gratuitamente, substituindo soluções via script como o ghettoVCB.

Mais informações e procedimentos de upgrade no site da Veeam.

Read More

Os 7 Erros Básicos que até Profissionais cometem em Projetos de Virtualização

7 Erros

Tenho trabalhado com projetos de virtualização praticamente desde que surgiram os primeiros hypervisors baremetal, e já encontrei ambientes em clientes de várias formas, alguns muitos corretos, alguns sub-dimensionados, outros super-dimensionados, algumas configurações bobas erradas, até conceitos errados aplicados.

Mas existem alguns erros que são básicos, muitas vezes feitos por falta de entendimento da tecnologia, outros por medo de errar ou por distração.

São esses erros que você deve observar em seu ambiente, tem uma chance de 50% dos ambientes ter esses erros, alguns são muito fáceis de serem corrigidos.

1) Falta de redundâncias

É comum em pequenas empresas, ao chegar um novo servidor, decidirem iniciar o mesmo virtualizado. Até aí tudo ok, mas depois vem a demanda, e como o ambiente já está ali, subir mais 2, 3 ou 4 VMs está fácil. Quando menos percebe, tem 10 VMs rodando no mesmo servidor físico, sem redundância nenhuma.

Pode não ter problema nenhum de performance, as VMs podem ser simples, mas são tudo que a empresa tem e precisa para trabalhar. Na falha desse servidor, vai dar muuuiito trabalho para recuperar o ambiente.

E quando chega nesse ponto, normalmente o ambiente já depende dessas VMs, o backup é inadequado e podem até existir algumas licenças irregulares.

Não é culpa da virtualização, faltou um plano diretor de TI para guiar o crescimento e investimentos. A ferramenta permitiu atender a demanda do negócio, agora é hora do negócio reinvestir na infraestrutura para suportar o crescimento futuro.

Nesse caso, não tem jeito, a saída para a empresa é investir na adequação do ambiente e compra das redundâncias necessárias. Cabe à equipe de TI demonstrar os riscos existentes e a importância da infraestrutura para o negócio, daí uma análise de riscos pode ajudar bem.

2) Super Dimensionamento das máquinas virtuais

É comum em um ambiente novo de virtualização o administrador de redes querer dar todo o desempenho possível para as novas máquinas virtuais. Até numa migração, é comum fazer um P2V de máquinas físicas de 2 gerações de processadores atrás, que já tinham 4 núcleos, para VMs com 4 ou mais núcleos.

Mas é incorreto entregar a mesma quantidade de núcleos em uma VM depois de um P2V; mesmo ao criar uma VM nova, também não é boa prática começar com muitos núcleos.

Só para comparação, um servidor com processadores de duas gerações atrás: Dual Xeon E5520 que roda a 2.27Ghz tem um score de processamento de 7.590, enquanto que um processador moderno Xeon: E5-2630 v2 que roda a 2.6Ghz tem um score de processamento de 15.697, é mais do que o dobro da capacidade de processamento! Sem contar que o mais novo tem 6 núcleos versus 4 do antigo, maior velocidade de transferência para a memória e quase o dobro de cache interno.

http://ark.intel.com/pt-br/products/64593/Intel-Xeon-Processor-E5-2630-15M-Cache-2_30-GHz-7_20-GTs-Intel-QPI

 

http://ark.intel.com/pt-br/products/40200/Intel-Xeon-Processor-E5520-8M-Cache-2_26-GHz-5_86-GTs-Intel-QPI

O processador mais novo já vai deixar a VM mais rápida, por isso a recomendação é que, depois de uma migração de ambiente, seja via P2V ou instalação nova, as VMs sejam iniciadas com o mínimo de vCPUs, memória e disco possível e vá crescendo sob demanda.

Um estudo recente indica que 95% das VMs são superdimensionadas, isso mostra claramente esse problema, e é possível que na sua infraestrutura existam máquinas virtuais superdimensionadas.

O problema que isso gera é que, ao iniciar todas as VMs consumindo todos os recursos ambiente, sobra pouco espaço para manobras, e na prática, não é necessário. Corre até o risco de criar problemas de Ready Time (que será tratado em outro artigo) e falhas no HA (High Avaliability) por falta de recursos.

Por isso vale a pena acompanhar os indicadores de uso de CPU de todas as VMs, principalmente as menos importantes, e o tempo de CPU Ready, para entender se seu ambiente tem gargalho causado por superdimensionamento das máquinas virtuais.

3) Super Dimensionamento dos servidores hospedeiros

Por medo de errar e por não conhecer o ambiente, muitos projetos de virtualização acabam super dimensionados em recursos dos hosts físicos.

Embora não crie problemas diretos no projeto, e, se comprado, irá rodar tudo bem, a grande dificuldade dos projetos superdimensionados são os alto custos de aquisição, que podem inviabilizar o mesmo e manter recursos ociosos por vários anos até o ambiente crescer e ocupar essa capacidade.

Por isso é importante executar ferramentas de análise no ambiente antes de fazer um projeto (como o Dpack), para que o sizing do projeto não seja exagerado e possa apresentar um bom custo X benefício.

Como a virtualização permite o crescimento de Configuração das Máquinas Virtuais, Hosts Físicos, Espaço em Disco e Performance de Disco sem muito esforço, o recomendado é que os investimentos sejam feitos gradativamente, comprando uma parte da capacidade a cada ano.

Isso permite aproveitar a Lei de Moore a seu favor, a cada um ano e meio, cada novo host, storage ou outro componente comprado poderá ter o dobro da capacidade, pelo valor do componente da geração anterior.

Claro que isso não resolve para empresas que já tenham o ambiente muito sub-dimensionado, ou onde o financeiro não vê vantagem em ter compras constantes e prefere uma compra grande financiada, mas se a TI puder programar as próximas compras com o decorrer do tempo, com certeza terá benefícios.

4) Subdimensionamento do ambiente, principalmente de disco

Essa é meio óbvia se pensarmos bem e muitos profissionais alocam CPU e memória em excesso para evitar, mas quando fala-se de disco, é bem comum vermos esse erro.

Existe até um ditado que diz que os projetos de Virtualização tem metade dos discos que precisa, o dobro da memória e 10 vezes a CPU que precisa.

Exageros a parte, depois de acompanhar dezenas de projetos, percebi que isso é a mais pura realidade. Por algum motivo, a CPU é a principal preocupação de muitos profissionais e acaba super dimensionada.

Normalmente a camada de armazenamento (discos e Storage) é subjulgada e é a primeira que acaba. O crescimento de discos frequentemente é calculado como linear, quando na prática é exponencial.

Outro erro básico para os discos é fazer a conta somente em Gigabytes. Olha-se o ambiente atual, por exemplo, 10 servidores com 2 discos de 144Gb em RAID 1 cada, multiplica-se, chega a 1,4Tb de espaço disponível no cenário atual, calcula-se o dobro prevendo o crescimento: 3Tb.

Para fazer 3Tb são necessários apenas 8 discos de 900Gb em RAID 10… mas existiam 20 discos anteriormente, e agora com apenas 8 discos vai ter problema de performance na certa.

Mas também não é correto fazer o projeto com 20 discos como era no ambiente original, vai voltar ao problema de superdimensionamento.

Para não errar para mais nem para menos, é preciso medir os IOPS (quantidade de operações de disco por segundo) usados no ambiente e fazer a projeção.

Talvez nem precise dos 8 discos, ou talvez precise de 16, aí pode-se optar por ter mais espaço em disco (16 discos de 900Gb) ou manter os custos com mais discos de menor capacidade (16 discos de 600Gb).

5) Licenciamento de Aplicações

Não é mais tão comum, mas algumas aplicações podem ter o licenciamento vinculado com a máquina física, independente do ambiente virtual. Outras aplicações podem exigir o licenciamento de todo o Cluster virtual, independente de qual servidor a aplicação está rodando efetivamente.

Esse é um item que deve ter atenção dobrada, até para não pagar exageros de licenças. Às vezes pode ser vantajoso manter uma aplicação, mesmo virtualizada, fora do Cluster, apenas para não pagar as licenças excedentes.

Outras vezes, o uso de licenças de nível Enterprise de um software permitem a instância de múltiplas VMs sem custos adicionais, diferente de licenças básicas que precisam ser licenciadas por VM.

6) Configuração de rede sem redundâncias

Esse é um aspecto bem técnico, e realmente precisa de um especialista para fazer corretamente, mas fico impressionado com a quantidade de implementações que encontro com essa falha, mesmo com tanta documentação existente.

É comum encontrar mais de uma interface de rede conectada, mas cada uma para um propósito diferente, com uma VLAN diferente que foi configurada no Switch físico, ou com um link de Internet fixo em uma porta do servidor ESX.

O problema disso é que não existem redundâncias no ambiente, e no caso de um ambiente com vMotion licenciado, não é possível fazer a movimentação das máquinas virtuais entre servidores hospedeiros sem interromper o serviço.

Essa configuração também limita a performance do ambiente, já que existe apenas um canal de comunicação entre o ESX e cada VLAN, sendo que poderiam existir dois ou mais.

A configuração a ser feita é bem simples, no VMware ESX principalmente, uma configuração recomendada é usar no mínimo duas interfaces de rede conectadas ao Switch, e com essa configuração, adicionar ambos os adaptadores no mesmo Switch Virtual, depois configurar as VLANs como Port Group e conectar as máquinas virtuais que precisam de acesso a essa VLAN no Port Group.

É uma alteração simples, mas que pode fazer toda a diferença para a disponibilidade do ambiente.

7) Não monitorar a infraestrutura adequadamente

O uso de ferramentas de monitoramento que não entendem o ambiente virtual pode levar a diagnósticos incorretos.

Ter os plugins para o ambiente virtual e capacidade de análise do mesmo é fundamental para as ferramentas de monitoramento.

Para isso, ferramentas específicas para o ambiente virtual como o VMware VCenter Operations Manager são fundamentais e devem ser consideradas na aquisição da solução.

Mesmo ferramentas tradicionais já possuem plugins para virtualização, e esses plugins devem ser instalados e configurados corretamente para monitorar todo o ambiente.

Conclusão:

Alguns dos erros são menos óbvios, e podem passar desapercebidos até o ambiente começar a ter problemas de performance. A solução daí será aumentar os investimentos de forma abrupta, quando poderia ser feito de forma planejada e gradativa.

Outros casos, simples configurações podem resolver, mas por falta de conhecimento da ferramenta, pode-se optar até por situações extremas, como um único Host físico com uma única máquina Virtual, ou tirar um determinado serviço da Virtualização.

Por isso recomendamos a contratação de equipes especializadas, capacitadas pelos fabricantes, ou então fazer cursos especializados em ambientes virtuais para a criação e manutenção de um ambiente virtualizado profissional.

E você, já viu esses erros em algum ambiente? Acha que esqueci algum importante?

Read More

Windows Server 2012 com Hyper-V Replica

O Hyper-V do Windows Server 2012 introduz uma nova funcionalidade, o Hyper-V Replica, como um mecanismo de replicação embutido de máquinas virtuais. Hyper-V Replica faz a replicação de forma assíncrona de uma máquina virtual em execução hospedada em um site de produção para um site de DR através da LAN/WAN.
Neste cenário tanto os sites primários quanto os sites secundários deverão utilizar o Windows Server 2012 ou 2012 R2, onde o site primário estará com todas as VMs em produção, enquanto o site secundário irá receber as VMs replicadas (DR) do site de produção. Assim, caso o site principal tenha algum problema ou uma queda de VM planejada ou não, as VMs poderão ser ligadas no site secundário, podendo ser apenas uma VM em pontual, como também todas as VMs do site.
O Hyper-V Replica não necessita de armazenamento compartilhado, nem de hardware de armazenamento específico. Uma vez que uma cópia inicial é replicada para o site secundário a nível de LAN a replicação já estará configurada, assim, com o agendamento da replicação o Hyper-V irá replicar apenas a diferença da VM para o site secundário, ou seja, os deltas, e ocorrerá de forma assíncrona, podendo ocorrer em um tempo de no mínimo 30 segundos.

 

Habilitando a replicação para o Servidor DR

Uma vez que todas as exigências são configuradas, a primeira etapa a se configurar é o servidor de destino (réplica); em seguida configurar as VMs que serão destinadas para a replicação, conforme segue o processo de exemplo para habilitar Hyper-V Replica.
 

 

Primeira Etapa 

Identificar quais os Hosts com Windows Server 2012 Hyper-V que irão receber as réplicas e através do “Hyper-V Settings“, acessar as “Configurações de Replicação” e validar suas respectivas configurações.

 

 

Segunda Etapa 

Através do Hyper-V Manager no site principal, clicar com o botão direito do mouse nas VMs a serem replicadas e acessar “Habilitar Replicação”; em seguida, através do assistente de configuração seguir as melhores práticas para o ambiente.

 

 

 

 

 

A primeira replicação poderá ocorrer na conclusão da configuração, como também pode ser agendado.
A replicação ocorre via LAN. A melhor prática para replicação inicial é
agendar horários menos críticos, pois é neste momento que será replicado o arquivo com o tamanho total de cada VM.
Caso a VM possua um disco com tamanho muito grande temos a opção de armazenar a primeira replicação em um disco físico (HD Externo), em seguida, transportar para o Site DR e armazenar o mesmo. Após esta etapa, a replicação será apenas dos deltas, ou seja, incremental.
Também nesta configuração temos a opção de criar pontos defailover, ou
seja, podemos criar vários pontos. Assim, podemos escolher no failoverem qual momento iremos retornar a VM replicada.
Assim a configuração estará concluída. Esta tarefa deverá ser realizada em todas as VMs que farão parte da replicação.
Obs.: como a replicação ocorre a nível de kerberos é de extrema importância que o ADDC e DNS estejam funcionando corretamente.
 

 

Podemos realizar um teste de failover a partir do site Secundário (DR). Clique com o botão direito do mouse na VM replicada e selecione a opção “failovertest” assim, o Hyper-V cria uma VM com o mesmo nome da VM do site de produção, basta iniciar a mesma.
A VM será iniciada sem IP, ou seja, apenas teste, porém um recurso bastante interessante, na qual temos a possibilidade de configurar IP Failover. Ou seja, quando iniciarmos a VM no site DR podemos iniciar a mesma com outro IP.
Failover Planejado, se destina para um ambiente ou máquina virtual com possível problema, na qual iremos executar a opção “Planned Failover“. Esta opção irá ligar a VM no site DR, ou seja, esta opção apenas deverá ser executada caso a VM de produção esteja com algum problema ou desligada.

 

As informações, a seguir, são retornadas após uma execução bem-sucedida de um evento planejado de Failover a partir do site secundário (DR).

 

 

A execução com sucesso de um failover planejado irá estabelecer automaticamente uma relação de replicação inversa onde, em seguida, o local antes de réplica (DR) torna-se o principal (produção) e o local atual de produção se torna réplica (DR). Verifique a saúde da replicação clicando com o botão direito na VM; com o Hyper-V Replica habilitado, clique em “Hyper-V Manager”, que revela a relação da replicação atual. A seguir, são mostradas informações de saúde da replicação da VM antes e depois de realizar com sucesso um failover planejado, com uma relação inversa (replicação definida automaticamente).

 

O failover sempre deverá ser iniciado manualmente no site DR após a identificação de que uma VM ou o site principal como um todo está com problema.
Caso o problema esteja no Host, deverá ser efetuado o failover de todas as VMs no site secundário. Assim, quando o Host voltar em seu perfeito funcionamento irá desligar as VM e efetuar o failback, do secundário para o primário.

 

 

INFORMAÇÕES

Replicação assíncrona de mudanças

O Hyper-V Replica irá replicar, ou seja, criar uma VM idêntica no Gerenciador Hyper-V do servidor de réplica, e posteriormente, o Hyper-V Replica, irá rastrear, acompanhar os processos e reproduzir as alterações no site secundário.
Esta tarefa irá ocorrer independente dos arquivos VHDs, ou seja, podendo ser de origem de compartilhamento (SMB), Cluster Shared Volumes (CSVs), SANs ou dispositivos conectados diretamente ao Hyper-V.

 

 

Hyper-V Replica com Cluster

Se o ambiente possuir um cluster de failover do Hyper-V como um site DR, deve-se utilizar a função Failover Cluster Manager para realizar todas as configurações e gerenciamento do Hyper-V Replica, sendo que primeiro deve-se criar uma função Hyper-V Replica Broker, conforme demonstrado abaixo.
  

 

O Hyper-V Replica Broker é o ponto selecionado nesta imagem. Ele consulta o banco de dados de cluster associado e redireciona para o melhor nó as VMs e eventos específicos, tais como pedidos de migração ao vivo em um cluster de réplica. 

 

Active Directory

Domínio do Windows Active Directory não é um requisito para o Hyper-V Replica, que também pode ser implementado entre grupos de trabalho e domínios não confiáveis através de uma autenticação baseada em certificado. O Active Directory, no entanto, é um requisito muito importante no host Hyper-V quando o mesmo faz parte de um cluster de failover, nesse caso, todos os hosts Hyper-V de um cluster de failover devem estar no mesmo domínio do Active Directory, com segurança aplicadas no nível do cluster.
Autor: Alex Santos – Especialista Blue Solutions


Read More

E se os equipamentos de TI fossem Veículos?

E se os Equipamentos de TI fossem Veículos?
Confira nesse infográfico o comparativo que preparamos para você!
Clique na imagem para ampliar:

 

Read More

Como funciona a Virtualização de Servidores?

Virtualização de Servidores, como já explicamos nesse outro artigo, é uma forma de dividir os recursos de um servidor físico em vários servidores virtuais, também chamados de máquinas virtuais, de modo que possa executar diversos sistemas operacionais no mesmo hardware físico, isolados entre si.

Funciona da seguinte forma:

1. Aquisição do servidor

Um servidor físico vem com recursos físicos instalados de fábrica, entre eles: CPU, memória, discos, conexões de rede e conexões a SAN:

Servidor

Um servidor moderno tem muito mais recursos do que os softwares são projetados para usar e é comum recursos como CPU e memória ficarem ociosos em alguns servidores, enquanto outros servidores tem gargalos.

Aí que entra a virtualização, no lugar de vários servidores de pequeno porte para diversas aplicações, é melhor investir em um servidor de maior porte e compartilhar os recursos entre os servidores virtuais sob demanda.

2. Instalação do Hypervisor

No servidor físico é instalado um sistema operacional básico, que possui a capacidade de dividir o hardware em pequenas partes. Esse sistema operacional é chamado de hypervisor.

Servidor com Hypervisor Instalado

Quanto menor for o espaço em disco e memória usada por esse hypervisor, mais recursos sobram para as máquinas virtuais, menor é a chance de ter problemas de código no hypervisor e menor são as paradas para manutenção do mesmo.

3. Criar as Máquinas Virtuais

O hypervisor simula dentro de cada “fatia” do hardware um novo hardware, que são chamadas de máquinas virtuais. Os discos ficam armazenados em arquivos dentro do sistema operacional do hypervisor, enquanto que a CPU e memória são alocados sob demanda.

Servidor com Hypervisor instalado e Máquinas Virtuais criadas

Cada máquina virtual pode ter capacidades diferentes de acordo com a necessidade, enquanto uma pode ter mais memória, a outra mais processador e a outra mais espaço em disco, cada uma dividindo uma fração do servidor original.

Na configuração de rede dos hypervisors mais avançados é possível dividir o tráfego e priorizar de acordo com a máquina virtual.

4. Instalação do Sistema Operacional dentro das Máquinas Virtuais

Dentro de cada máquina virtual pode ser instalado um sistema operacional diferente, de acordo com a necessidade. Cada um estará isolado dos demais, enxergará apenas os recursos que lhe foram dedicados e se comportará como se estivesse instalado em uma máquina física comum:

Servidor com Hypervisor e Máquinas Virtuais Instaladas

O hypervisor fica responsável por dividir os recursos entre as máquinas virtuais. Alguns recursos podem ser alocados em maior quantidade do que existe de verdade (over provisioning).

Por exemplo, um servidor com 10Gb de memória pode ter 7 máquinas virtuais com 2Gb de memória cada, o que totalizaria 14Gb, desde que essas não usem todo o recurso ao mesmo tempo; o hypervisor garante que nas situações de disputa, algumas máquinas virtuais tenham preferência de execução (maior prioridade).

5. Conectar a uma SAN (Storage Area Network)

Em um ambiente empresarial com Alta Disponibilidade, as máquinas virtuais ficam armazenadas em uma SAN, que nada mais é do que um local de armazenamento (Storage) compartilhado entre os servidores. A SAN pode ser virtual, nesse caso é chamada de VSAN.

Uma SAN pode ser implementada também com um Storage dedicado, nesse caso, o equipamento possui toda a redundância necessária para garantir a alta disponibilidade do ambiente.

O fato de agregar os discos em um ponto único permite algumas facilidades de gerenciamento, além de poder distribuir a performance mais uniformemente e definir prioridades entre as máquinas virtuais.

Virtualização com SAN em modo de Alta Disponibilidade

 

6. Usando a SAN para manutenção programada de servidores

A SAN armazena os arquivos das máquinas virtuais, sendo assim, as máquinas virtuais podem ser desligadas de um servidor e ligadas em outro servidor sem necessidade de reinstalar o sistema operacional e aplicativos, ou de copiar arquivos entre os servidores físicos.

Também, dependendo da configuração e licenciamento, é possível migrar a máquina virtual entre um servidor e outro sem desligar, esse recurso é chamado de vMotion, Live Migration ou XenMotion de acordo com o fabricante do hypervisor e permite a manutenção de um servidor físico sem downtime (parada) do ambiente.

Manutenção programada com Virtualização

 

7. Crescendo o ambiente

Quando o ambiente cresce, basta adicionar mais servidores ou espaço de Storage e todo o ambiente se beneficia. Pode-se crescer o ambiente em quantidade de máquinas virtuais, capacidade das máquinas virtuais, servidores físicos ou espaço no Storage. Cada servidor físico novo adiciona mais poder de processamento, memória e conectividade com a rede, enquanto que mais discos no Storage adicionam espaço em disco e mais performance de IOPS.

Crescendo o ambiente com Virtualização

 

8. Resiliência do ambiente contra quebras

No caso da quebra física de um dos servidores, as máquinas virtuais podem ser acessadas e ligadas nos demais servidores; se estiver corretamente configurado, esse processo acontece automaticamente, sem necessidade do operador intervir, esse recurso é chamado de HA (High Avaliability) ou Alta Disponibilidade e permite que as máquinas virtuais voltem ao trabalho em poucos minutos.

Alta Disponibilidade (HA) automática com Virtualização

 

Conclusão

Esses são apenas alguns dos benefícios da virtualização de servidores. Para ver mais, leia a matéria sobre os 12 Benefícios da Virtualização no Datacenter.

Read More

10 Benefícios da Virtualização de Desktops

No artigo anterior passei diversos conceitos sobre Virtualização de Desktops, sobre as diferenças entre VDI e RDS, vantagens e desvantagens entre eles e a ideia que um modelo misto pode ser a melhor saída.

O objetivo principal da Virtualização de Desktops são ganhos de gerenciamento, segurança, disponibilidade do ambiente, mobilidade, padronização e diminuição de custos de aquisição e manutenção dos desktops.

Vou tratar dos principais benefícios adotando-se solução de Desktops Virtuais:

1. Menor custo de aquisição dos Desktops

Embora um projeto de VDI normalmente não fique mais barato do que desktops tradicionais, ocorre a migração dos investimentos, ao invés de comprar máquinas de última geração para as pontas, o poder de processamento deve ser concentrado no Datacenter, então o investimento muda para servidores mais poderosos para suportar a infraestrutura, permitindo equipamentos mais simples nas pontas

2. Possibilidade de uso de Thinclients

Um Thinclient por definição é um computador projetado apenas para acesso a um ambiente de virtualização de desktops, com isso, costuma ter uma arquitetura mais simples, com menos complexidade de implantação e manutenção. No conceito correto, eles não possuem peças móveis (não tem HD nem coollers), então suportam ambientes mais hostis, com vibrações e até poeira, e no caso de quebra, a substituição é simplificada, pois não possuem configuração nem dados para serem migrados (toda informação está no datacenter).

Mesmo os Thinclients que fogem da definição, com coollers por exemplo, oferecem vantagens: normalmente são equipamentos bem menores que os Desktops comuns, mais baratos, com baixo consumo de energia, menor dissipação de calor e mantém o conceito de nenhuma configuração e dados locais. Em alguns projetos, os ganhos de espaço físico ou energia elétrica podem justificar os investimentos.

ZeroClient Wyse P25

 

3. Maior performance

Toda a performance depende dos servidores, e aí pode-se usar conexões de 10Gbits (normalmente não disponíveis nos Desktops), discos SSD de alta performance (versus discos SSD básicos nos Desktops), placas GPU e memória para execução dos desktops virtuais.

Um ganho futuro, quando a estrutura crescer, basta investir nos servidores, e todos os usuários terão ganhos de performance, enquanto que numa estrutura tradicional, seria necessário investir em todos os Desktops. Isso costuma trazer o prolongamento da vida dos desktops para até 8 anos, versus 5 anos em uma estrutura tradicional.

4. Facilidade de Gerenciamento

Os Desktops virtuais são criados a partir de templates de máquinas virtuais, que já possuem os softwares da empresa pré-instalados, Windows atualizado, antivírus e configurações de rede. Isso faz com que, para o deploy de um novo desktop para um novo usuário, por exemplo, o trabalho seja extremamente reduzido.

O connection broker também permite algumas facilidades de gerenciamento, como a criação automática de novos desktops, acesso remoto da equipe de TI sobre o Desktop para suporte ao usuário, reciclagem automática de desktops, integração com virtualização de aplicações e virtualização do perfil dos usuários.

5. Padronização das estações

Tanto usando VDI quando RDS, é possível padronizar através de templates os softwares e acessos disponíveis. Assim, a empresa passa a ter uniformidade entre os desktops, facilitando o suporte, a interação entre usuários, o aprendizado e disponibilização de novas aplicações.

6. Alta Disponibilidade dos Desktops

O principal ponto de defeito de um Desktop são os componentes físicos do mesmo e um fator crítico quando um defeito acontece são os dados e configurações locais, que num ambiente de virtualização de desktops são irrelevantes, pois basta trocar o equipamento que os dados estão seguros no datacenter. Assim, quando um usuário tiver um problema na máquina local, basta substituir em poucos minutos para que o funcionário volte a produzir.

Os Desktops rodando no Datacenter podem ser protegidos pelas mesmas técnicas avançadas de proteção dos servidores virtuais, ou seja, podem ser instalados em clusters virtuais e no caso de falha do servidor hospedeiro, o Desktop volta automaticamente no ar em outro servidor.

Também é possível fazer backup e replicação dos Desktops, provendo tempos de recuperação muito rápidos em caso de falha do sistema operacional, ou seja, técnicas que nem se cogita em fazer com Desktops tradicionais.

7. Mobilidade para os usuários

A virtualização de Desktops oferece uma entrega padrão do Desktop para o usuário independente do dispositivo, isso permite que o usuário possa sair da sua mesa de trabalho, logar em outro dispositivo (numa sala de reunião, por exemplo) e visualizar os mesmos aplicativos e arquivos da mesma forma em que está familiarizado.

Também permite a execução em Tablets e Smartphones, entregando a mesma interface e aplicativos, que não estariam disponíveis para as plataformas nativas desses aparelhos.

Mesmo usuários que ficam fora da empresa podem se beneficiar da virtualização de Desktops com recursos como o Local Mode do VMware Horizon View.

8. Desktop sempre ligado

Um recurso bem interessante é que o usuário não precisa desligar seu desktop, ele pode simplesmente desconectar do mesmo e as aplicações que estavam abertas continuarão lá. Quando ele reconectar em outro dispositivo, ele terá acesso aos mesmos aplicativos, com um tempo de reconexão muito mais rápido.

Isso permite, por exemplo, que na quebra do dispositivo de acesso, ao reconectar, o usuário não perca nenhuma palavra digitada, se ele estava redigindo um e-mail por exemplo, ao reconectar estará no mesmo ponto onde parou.

Junto com a mobilidade, é possível abrir a tela de um BI no computador de mesa e continuar depois a partir de um tablet. Ou então, em um hospital, abrir a prescrição de um paciente no posto de enfermagem e depois reconectar no mesmo desktop virtual em um dispositivo a beira leito para lançar os medicamentos utilizados.

9. Segurança dos dados

Como já falamos aqui, os dados dos desktops ficam armazenados nos servidores do Datacenter. Isso permite a execução de backups centralizados, garantindo a disponibilidade dos dados.

Pelo mesmo motivo é mais fácil restringir o acesso aos dados e aplicar políticas contra acesso não autorizado; podem ser bloqueados dispositivos externos como Pendrives, e, mesmo se o dispositivo for roubado, não terá nenhum dado nos discos locais sem estar criptografado.

Além de que, toda a conexão é criptografada, utilizando protocolos padrões de mercado, então o risco de vazamento de informações é mínimo.

10. Escalabilidade e Independência de fornecedor

Num ambiente de Desktops virtuais é possível fazer a distribuição de aplicativos muito rapidamente e com total garantia de compatibilidade. Basta instalar o aplicativo no template padrão e mandar replicar para todas as máquinas virtuais e o aplicativo estará instalado automaticamente para todos os usuários.

Também é possível combinar com tecnologias de virtualização de aplicativos, o que garante ainda mais compatibilidade, é possível, por exemplo, executar duas versões diferentes do Internet Explorer simultaneamente, pode-se configurar que a última versão mais atualizada será usada por padrão e para um site que requer compatibilidade com uma versão anterior, essa será usada automaticamente.

Ainda pensando na facilidade de operação, o upgrade do sistema operacional é facilitado, uma troca de Windows XP para Windows 7 pode ser feita apenas substituindo o template padrão, pode ser feita de forma controlada e previamente testada

Conclusão

Os benefícios da virtualização de Desktops são muitos, nesse artigo apresentei bem resumido os principais conceitos.

Embora os custos iniciais de aquisição sejam iguais ou maiores que um ambiente de Desktops tradicionais, utilizando-se de Desktops virtuais o custo para manutenção e gerenciamento é bem reduzido, somando-se isso aos benefícios para os usuários, como mobilidade, desktop sempre ligado, fácil recuperação de desastres e segurança, é uma opção bem interessante para empresas de todos os portes.

Leia também:
O que é virtualização?
O que é computação em nuvem?
Os 12 benefícios da virtualização no Datacenter
O que é Desktop Virtualization?

Read More

O que é um Virtual Appliance?

Um Virtual Appliance é uma máquina virtual pré-criada, normalmente para um fim específico e com um aplicativo específico. O objetivo é permitir que seja fácil e rápido implantar um novo aplicativo, desde que se tenha um sistema hypervisor compatível.

Com o amadurecimento da virtualização de servidores, muitos fornecedores e clientes tem optado por esse modelo de máquina virtual, do que ficar criando uma máquina virtual do zero, instalando sistema operacional e bibliotecas, para só depois instalar o aplicativo.

Os Virtual Appliances normalmente são distribuídos com a extensão OVF (Open Virtualization Format), em um único arquivo que pode ser feito download direto do fornecedor do software. Esse OVF já contem um sistema operacional instalado e pré-configurado, normalmente só precisando configurar detalhes da rede, usuários e senhas.

Uma vez baixado o arquivo .OVF, basta utilizar o cliente para o hypervisor para fazer o deploy (instalação), o que costuma demorar poucos minutos (versus horas de um deploy comum) e torna a tarefa bem simples.

Um exemplo de Virtual Appliance é o VMware vCenter Server Appliance, responsável por administrar diversos “hosts” em um ambiente virtual simultaneamente. Antes de ser distribuído como Virtual Appliance, era necessário instalar um servidor Windows, atualizar até a última versão, um servidor SQL Server ou Oracle para a base de dados, para só depois instalar o vCenter Server. Depois que passou a ser disponibilizado como Virtual Appliance, sua instalação costuma demorar menos de 20 minutos quando o ambiente tem performance adequada.

Read More

O que é computação em nuvem e quais os principais tipos?

Computação em Nuvem é o termo aplicado para um conjunto de recursos computacionais, normalmente armazenados em um Datacenter remoto, disponível sob demanda.

O termo surgiu por volta de 2009, do original em inglês “cloud computing“, utilizado para designar tecnologia contratada sob serviço (normalmente pagando-se uma mensalidade)

Como é a tecnologia

Computação em Nuvem hoje representa três modelos de negócio e tecnologias, embora alguns fornecedores possam listar mais modelos, são variações dos três modelos básicos oferecidos no mercado:

  • Software As a Service (SaaS)

É considerado SaaS quando uma aplicação para  um fim específico é vendido sob a forma de serviços. Ao contrário da venda de aplicativos como licença de software, que permite o uso do software por tempo ilimitado a partir da aquisição da licença por um único pagamento, a venda como serviço normalmente é feita como um pagamento mensal para que o serviço fique disponível no fornecedor, que providencia infraestrutura de servidores e conexões necessários para a prestação do serviço.

Normalmente é vista com bons olhos pelos fornecedores e clientes, os fornecedores porque garantem uma renda fixa mensal independente de novas vendas, e os clientes porque pagam apenas pela utilização, normalmente medida em quantidade de usuários ou recursos computacionais alocados para ele, dividindo os custos de uma estrutura maior entre múltiplos clientes que se beneficiam.

O principal exemplo de fornecedor de software é a Salesforce, líder mundial em sistema CRM, mas existem diversos serviços mais populares que podem ser classificados como SaaS, como Google Docs, GMail, Office365 e mesmo sites populares como Facebook e Dropbox.

  • Infrastructure As a Service (IaaS)

IaaS é o termo aplicado quando o fornecedor entrega recursos computacionais de infraestrutura, como servidores, espaço de armazenamento e capacidade de rede, sob uma taxa mensal de utilização. O modelo mais básico seria o aluguel de um servidor físico em um datacenter, onde o cliente não precisa se preocupar com garantia e disponibilidade do servidor, contratação de links e disponibilidade de energia elétrica.

Hoje em dia, normalmente é vendido como virtualização de servidores sobre um hypervisor, e os clientes não tem que se preocupar com a camada de drivers, basta contratar uma máquina virtual, indicar o sistema operacional desejado, e receberá o mesmo instalado, com toda a parte de rede, como IP e roteamento configurados e utilizando recursos compartilhados com outros usuários.

Alguns exemplos de fornecedores de infraestrutura são: Amazon S3 e Microsoft Azure, e diversos datacenters pelo mundo.

Quando se utiliza virtualização de servidores dentro da empresa, utilizando algum software de gerência avançado com o vCloud Suite, também pode ser considerado como IaaS.

  • Plataform As a Service (PaaS)

PaaS é o termo indicado quando o fornecedor entrega uma plataforma de desenvolvimento de software, que pode ser usada em diferentes ambientes, ou mesmo em um único fornecedor. Para utilizar PaaS, um software deve ser desenvolvido utilizando as bibliotecas de uma determinada plataforma. Isso normalmente permite escalabilidade do software, com recursos como rodar em múltiplos servidores em grid, alta disponibilidade e resiliência a falhas.

Alguns exemplos de fornecedores de PaaS são VMware vFabric SpringSource, Node.js, embora a Amazon Elastic e Microsoft Azure também possam ser classificados como PaaS se consideramos toda a oferta disponível.

Onde são hospedados

Além da classificação da oferta do serviço, a computação em nuvem também pode ser nomeado dependendo onde estão alocados os recursos, existem três tipos distintos:

  • Public Cloud (Nuvem Pública)

Quando a aplicação ou máquina virtual é hospedada em um fornecedor que atende diversos clientes, e um mesmo host físico pode atender diferentes clientes, e uma camada de software (que pode ser o hypervisor quando for IaaS) isola os dados entre os clientes, para que um não enxergue os dados dos demais.

Tem as vantagens de rápido provisionamento, custo sob demanda e até custos reduzidos frente à Nuvem Privada, mas a principal preocupação é quanto ao sigilo e disponibilidade dos dados.

É comum ser utilizada pelas empresas para aplicações secundárias para o negócio, como e-mail, hospedagem de sites, vídeos e material de marketing, mas também tem sido fortemente adotada devido a alguns aplicativos líderes de mercado só estarem disponíveis nessa forma de comercialização, como o Salesforce e o Office365 (embora possa ser instalado localmente, a Microsoft tem feito ofertas especiais para clientes que utilizem sua plataforma na nuvem).

  • Private Cloud (Nuvem Privada)

Quando a aplicação ou máquina virtual é hospedada dentro da empresa, em uma infraestrutura que a empresa comprou ou alugou para uso exclusivo.

Embora tenha maiores custos, normalmente é a preferida para armazenar dados estratégicos e que precisem de tempo de resposta rápido, pois os servidores estão dentro da empresa, garantindo uma baixa latência de rede, e garantindo maior segurança, pois ninguém fora do perímetro da empresa terá acesso sem passar pelo firewall da empresa.

Normalmente é caracterizada pela virtualização de servidores, mas uma Nuvem Privada só pode ser considerada assim se tiver uma camada extra, que permita o self-service de aplicações sob demanda, como por exemplo, a equipe de Marketing instalar um “appliance” de mercado que faz análise de redes sociais.

  • Hybrid Cloud (Nuvem Híbrida)

É considerado Hybrid Cloud quando a empresa faz uso de ambos os locais de armazenamento: remoto em uma Nuvem Pública e local em uma Nuvem Privada, e tem uma camada de software que permita transferir cargas de trabalho entre ambas.

Seria o modelo ideal, onde a empresa tem uma quantidade de recursos computacionais locais para dar conta do dia a dia, e quando precisar executar tarefas mais intensivas, poderia alocar recursos extras de um fornecedor para tal. O principal desafio para adoção da Nuvem Híbrida são os custos de link e a segurança das informações, já que normalmente uma Nuvem Privada executa softwares com informações críticas e confidenciais, não convém transferir para terceiros esses dados, mesmo que por um curto espaço de tempo.

Conclusão

Diversas ferramentas surgiram para tornar mais fácil a administração desses ambientes, entre elas podemos destacar o VMware vCloud Suite, que permite mover cargas de trabalho (normalmente máquinas virtuais) entre nuvens públicas e privada sob demanda e de forma automatizada, através de políticas pré-estabelecidas.

São funcionalidades normalmente encontradas em computação em nuvem: escalonar recursos computacionais sob demanda e fácil administração.

Computação em nuvem é uma forte tendência nas empresas, pois permite que usuários finais com pouco conhecimento possam utilizar os recursos computacionais sob demanda, sem necessidade de um especialista tomando conta de todos os recursos necessários, e que pequenas demandas possam pagar apenas uma fração da infraestrutura mínima para execução de um aplicativo.

 

 

Read More