Mostrando postagens com marcador virtualização. Mostrar todas as postagens
Mostrando postagens com marcador virtualização. Mostrar todas as postagens

sexta-feira, 27 de abril de 2012

Por que os pequenos negócios devem virtualizar?



A virtualização de servidores está na pauta das empresas há pelo menos dez anos e mesmo que questões como armazenamento ainda causem dor de cabeça para a TI, as vantagens da tecnologia são reais e elas valem até mesmo para as pequenas companhias, que podem encontrar na plataforma vantagem competitiva. A seguir, seis motivos para esse nicho apostar na virtualização.



1. Aumentar a eficiência do servidor
A razão tradicional e mais atraente para a implementação de servidores virtualizados é fazer uso mais eficiente dos recursos computacionais no que diz respeito a ciclos de processamento e memória RAM. Além da redução dos custos de energia e refrigeração, empresas de pequeno e médio portes podem reduzir as despesas de capital já que menos servidores físicos são comprados para substituir um número maior de máquinas ociosas.

Implementar servidores virtuais é uma forma simples para reunir em um host físico muitas máquinas virtuais (VMs). Ainda assim, mesmo que a virtualização de servidores possibilite diversos benefícios, ela não livra a TI das tarefas administrativas necessárias para gerenciamento de servidores físicos. 

De fato, o gerenciamento da virtualização é ainda mais desafiador devido à facilidade com que as máquinas virtuais podem ser criadas. Além disso, é preciso monitorar o tráfego entre as máquinas virtuais na rede e identificar gargalos de performance.

2. Melhorar os esforços de recuperação de desastres
A recuperação de desastres é a capacidade de restabelecer tarefas ao seu estado natural após um desastre. Como é possível imaginar, o backup de uma infraestrutura totalmente virtualizada faz cópias de imagens de máquinas virtuais e é um processo muito mais simples quando comparado à tarefa tradicional.

Além disso, o processo consome apenas uma parte do equipamento original para hospedar uma infraestrutura inteira, usando virtualização. Isso significa que para empresas menores, que não contam com grandes orçamentos de TI, é possível comprar um pequeno número de servidores. Em caso de desastres, esses equipamentos podem ser realocados, se necessário, e configurados com a última versão da máquina virtual, uma movimentação que é mais rápida do que a de muitos fornecedores de TI.

Obviamente, o fato de que mesmo a maior infraestrutura de empresas de pequeno e médio portes pode ser consolidada dentro de algumas unidades de disco rígido, esse cenário tem implicações na segurança. Por exemplo, existe o risco de máquinas virtuais serem perdidas por um erro humano.  

Com isso em mente, usar a virtualização como um meio de recuperação de desastres requer planejamento. Cuidados devem ser tomados para elaborar os processos e procedimentos adequados de 
segurança. A responsabilidade pela guarda de máquinas virtuais deve ser claramente definida.

3. Ampliar a estratégia de continuidade de negócios
Continuidade de negócios é diferente de recuperação de desastres, já que seu objetivo é atingir zero ou o mínimo de interrupções das operações. Sabendo que a fonte mais comum de falha no data center é a do hardware do servidor, esse é o lugar em que um recurso de virtualização de servidor, chamado migração em tempo real, deve entrar para ajudar a preservar a continuidade dos negócios, eliminando o tempo de inatividade.

Usando a migração em tempo real, os administradores são capazes de facilmente mover máquinas virtuais em tempo real entre os hosts do servidor físico. Esse tipo de migração acontece por meio da sincronização do disco e da memória em segundo plano entre dois servidores físicos. 

A migração em tempo real pode facilitar a manutenção do servidor ou a atualização do hardware sem que seja necessário agendar qualquer parada para manutenção.

Embora a virtualização fortaleça a continuidade dos negócios, não faz milagres em caso de inundações ou incêndios. A implementação de failover [outro blade entra em cena automaticamente para ocupar o lugar de uma placa problemática] é, em muitos casos, cara para a maioria das pequenas e médias empresas, enquanto isso, a migração em tempo real somente exige a presença de uma rede Gigabit Ethernet [ou superior] para funcionar.

4. Aditivar desenvolvimento de software
Se sua empresa trabalha com desenvolvimento de software, a virtualização proporciona a oportunidade de reduzir custos, eliminando a necessidade de desembolsar grandes quantias de dinheiro para adquirir hardware adicional. Médias empresas também se beneficiam. Isso porque as equipes de desenvolvimento economizam tempo por não ter de suportar o longo processo de requisição de novos servidores. 

O desenvolvimento de aplicações que não são sensíveis à latência também pode ser feito em versões desktop do software de virtualização, também conhecido como Hypervisor Tipo 2. Esses são tipicamente mais baratos e também oferecem capacidades adaptadas para uma melhor experiência de desktop. Alguns dos tipos mais populares do Type 2 hypervisor são o Oracle VM VirtualBox [código aberto] e VMware Workstation para Windows, bem como o VMware Fusion e Parallels para Mac.

5. Facilitar o teste das atualizações e patches de segurança
A virtualização torna trivial a tarefa de testar novas atualizações de software ou patches de segurança antes da implementação dos sistemas. Além disso, as equipes de desenvolvimento internas poderão testar aplicações n-tier [desenvolvidas em várias camadas] lógicas em uma réplica virtual da infraestrutura atual para testar problemas decorrentes de interações inesperadas entre os vários componentes.

6. Tirar proveito da virtualização de desktop
Uma modalidade cada vez mais popular de virtualização é a de clients, o que implica rodar o ambiente desktop inteiro dentro de um servidor centralizado. Como todo o processamento é feito no servidor, dispositivos clients são tipicamente thin clients que servem como um nó de extremidade para conectar periféricos como teclado, mouse, um monitor, conectores de áudio e até mesmo portas USB por meio da rede LAN. 

Embora haja semelhanças entre virtualização de servidores e de desktop em infraestrutura básica necessária, as empresas não devem cometer o erro de misturá-los porque os objetivos são diferentes e as considerações técnicas também. O termo Virtualization Desktop Infrastructure ou VDI é usado para descrever componentes de hardware e de software necessários para suportar uma implementação de virtualização de desktop.
Ingressar nesse universo requer uma análise detalhada dos fornecedores da tecnologia para que a implementação não se torne uma frustração para as empresas.

quarta-feira, 20 de julho de 2011

A cada dez servidores quatro são virtuais, diz estudo


De cada dez servidores, pelo menos quatro não são físicos, aponta estudo sobre a adoção de tecnologias de virtualização. Foram entrevistas grandes empresas em quatro países: Reino Unido, Estados Unidos, França e Alemanha.
A pesquisa, realizada pela consultoria Vanson Bourne sob encomenda da empresa de gerenciamento de virtualização Veeam, mostra que cerca de 39% dos países pesquisados possuem servidores virtualizados. As grandes empresas rodam, em média, 470 máquinas virtuais e 113 hosts.
Ao mesmo tempo que 90% das companhias utilizam a virtualização em algum grau, quatro entre dez empresas enxergam problemas de confiabilidade como barreira para apostar na virtualização, ao passo que uma proporção similar afirma que pensa primeiro em renovar o hardware.
O método mais utilizado é o VMware, que aparece em 84% das empresas; 60% delas também utilizam o Microsoft Hyper-V, 55% utilizam o Critrix e 12% apostam em alternativas.
Os resultados foram obtidos a partir de dados de 544 companhias. A Veeam planeja conduzir o estudo a cada trimestre e construir uma comunidade em torno do site V-Index, no qual as empresas possam compartilhar suas experiências em relação a virtualização.
Os dados mostram que a virtualização se tornou uma tecnologia padrão na maioria das empresas, mas fica claro que ainda há espaço para uma penetração ainda maior.

sábado, 22 de janeiro de 2011

Cinco tecnologias de virtualização com código aberto


Agora que a virtualização ganhou o status de tecnologia dominante na maioria das grandes empresas, os maiores fornecedores do mercado, como EMC/VMware, IBM e Microsoft estão investindo pesadamente em soluções proprietárias para a execução de sistemas operacionais de múltiplos clientes em uma única máquina.
O mercado, no entanto, não é feito só de produtos comerciais. Existe um ecossistema latente de soluções de virtualização de código aberto que podem ser consideradas pelos CIOs para suas infraestruturas de nuvem públicas ou privadas.
Entre as opções, cinco se destacam pelo potencial de cumprir a missão de consolidar infraestrutura sem prejudicar as economias que virtualização proporciona:
KVM
Abreviação para Kernel-based Virtual Machine, a solução não é tão amplamente implementada como outros hypervisors de código aberto, mas sua estatura está crescendo rapidamente. Ele tem a possibilidade de rodar clientes Windows e Linux, mas o sistema operacional do pinguim leva vantagem, pois os Linux desde o kernel 2.2.20 possuem um componente do KVM incluído.
A principal validação do KVM veio no final de 2008, quando o fornecedor Red Hat comprou a desenvolvedora da ferramenta, Qumranet. Agora a Red Hat baseia sua estratégia corporativa de virtualização na ferramenta.
Site: http://www.linux-kvm.org
Licença: GPL
Xen
O hypervisor Xen começou a ser criado por uma startup financiada pela Microsoft na Universidade de Cambridge e logo se tornou padrão no universo Linux.
O Xen dá suporte à virtualização (modalidade na qual o sistema operacional sofre modificação para ser rodado em máquina virtual) e virtualização assistida por hardware para clientes modificados e não modificados.
Os clientes podem ser Linux ou Windows, mas a maioria absoluta dos clientes é variante Linux, principalmente no universo de hosting.
Alguns anos atrás, fornecedores comerciais, como Novell e Oracle, adotaram Xen, antes que a startup fosse comprada pela Citrix. Empresas importantes já adotaram o sistema de código aberto como plataforma de nuvem privada.
Site: http://www.xen.org
Licença: GPL 

OpenVZ
A ferramenta OpenVZ é um sistema de virtualização para Linux que se tornou bastante popular nos mercados de host de massa, já que usar Linux é a forma mais barata de fornecer servidores privados virtuais. Ela promete oferecer performance de máquina virtual semelhante às de máquinas nativas.
Uma das vantagens do OpenVZ é a compatibilidade com Parallels Virtuozzo Containers, solução comercial oferecida pela empresa Suiça Parallels 
Site: http://openvz.org 
Licença: GPL 
VirtualBox
VirtualBox é uma tecnologia de virtualização especializada em desktops, que foi adquirida pela Sun em fevereiro de 2008, e logo passou para as mãos da Oracle, que manteve o desenvolvimento e anunciou o lançametno da versão 4.0 em dezembro de 2010.
VirtualBox tem a vantagem de rodar em Windows, Linux, Solaris e Mac OS X, suportando também todos esses sistemas operacionais como clientes. 
Apesar de ter mais apelo para desktops, o VirtualBOX também pode ser usado em servidores.
Site: http://www.virtualbox.org 
Licença: GPL e CDDL 
 
Lguest
Criado por um desenvolvedor independente australiano, o Lguest é voltado para Linux, permitindo múltiplas cópias do mesmo kernel, rodando simultaneamente. Mesmo não sendo um hypervisor de virtualização pura, o Lguest se orgulha da facilidade de uso e da utilização do mesmo kernel para o sistema operacional do host e do cliente.
Ainda não existe muito registro sobre o uso do Lguest como sistema corporativo em ambientes de produção, mas dependendo do que a empresa espera de uma ferramenta de virtualização, vale a pena testar.
Site: http://lguest.ozlabs.org/
Licença: GPL 

sexta-feira, 27 de agosto de 2010

Os desafios de migrar para a nuvem privada

Quando o mercado começou a falar em cloud computing (computação em nuvem), a maior parte das atenções do setor estava concentrada no conceito de nuvem pública. Uma situação estimulada pela divulgação do modelo por parte dos grandes fornecedores, como a Google e a Amazon. Hoje, no entanto, a prioridade dos departamentos de TI que estudam a adoção de cloud é investir na arquitetura de nuvem privada, principalmente, por conta de questões relacionadas à segurança.

Em seu blog, Tom Bittman, vice-presidente da consultoria Gartner, afirma que, de acordo com um levantamento realizado com executivos de TI, as questões de segurança e de privacidade são as principais barreiras para a adoção de computação em nuvem. Ainda segundo outro estudo conduzido por ele, 75% dos profissionais que planejam adotar cloud computing, até 2012, dão prioridade para a nuvem privada.
Bittman deixa claro, no entanto, que as nuvens privadas também têm sua dose de desafios e que eles não estão restritos apenas às questões de segurança. A dificuldade de gerenciar e de identificar processos operacionais ainda é uma barreira para muitos projetos, sem contar com os investimentos e a preparação necessários para migrar os ambientes tradicionais de TI para cloud computing.
De fato, trocar um data center convencional – mesmo aquele com servidores virtualizados – para uma arquitetura de nuvem privada não constitui uma tarefa fácil. Para piorar a situação, ainda não existem no mercado fornecedores de soluções completas para esse tipo de ambiente e a própria indústria diverge sobre os conceitos básicos de cloud computing.


Virtualização é apenas um dos itens


Na perspectiva de muitos gestores de TI, a nuvem equivale a uma solução de virtualização. Normalmente, aquilo que descrevem como um projeto de cloud computing nada mais é do que uma estrutura virtual, ou seja, com os equipamentos e sistemas compartilhando recursos sob demanda.
“Virtualização e nuvem, no entanto, não são a mesma coisa”, explica o vice-presidente e analista sênior da consultoria Ideas International, Tony Iams. Para ser considerada cloud, a arquitetura precisa ter a camada de administração e de automação virtualizada. Isso significa oferecer uma variedade de recursos – como processamento, armazenamento e rede – como serviço.
Na nuvem, Iams destaca que um único comando ou requisição dispara uma série de ações “e a sequência em que elas ocorrem é fácil de especificar e de coordenar”, detalha.


Comparação com data centers tradicionais


Em um centro de processamento de dados convencional, a cada vez que um novo servidor é implementado, um profissional precisa fazer todas as configurações necessárias e integrar o equipamento à infraestrutura já existente. No caso de nuvens privadas, esse tipo de intervenção humana é mínima, de acordo com o diretor de cloud computing da Verizon, Jeff Deacon.
“Nesse ambiente, é possível fazer as configurações por um console único”, afirma Deacon. “Dessa forma, a equipe de TI se livra da tarefa de se 'logar' em diferentes terminais para ajustar as configurações de segurança, de rede e de funções do sistema”, detalha.


Outra diferença entre cloud privada e data centers tradicionais envolve os processos de TI. Para tirar vantagem da nuvem, muitas vezes, as empresas precisam readequar a arquitetura de dados e revisar alguns processos. Um exemplo clássico é o das regras para buscar investimentos para adquirir mais capacidade de storage, rede ou servidores. "De forma geral, os departamentos de TI têm de cumprir uma série de requisitos", cita o presidente da empresa de pesquisas New Riber Marketing Research, Bill Claybrook. Ele considera que esse tipo de burocracia não combina com o modelo de cloud, “no qual a decisão de compras não pode demorar semanas, mas deve ser coisa de minutos”, informa.


As empresas precisam também rever todo o legado de aplicações para tirar vantagem da cloud privada. Isso porque, as organizações têm muitos sistemas rodando em mainframes e plataformas Unix, enquanto que, no ambiente da nuvem, a maior parte das soluções roda em x86.