terça-feira, 24 de maio de 2011

Quatro tendências que vão desenhar o novo data center



Graças a vitualização de servidores x86 e as tecnologias que seguiram esse movimento, o melhor Data Center (DC) que uma companhia consegue manter é muito diferente do que era um ano atrás.
No entanto, migrar do antigo para o novo não se restringe apenas a mudanças de hardware e software. É necessário ter uma nova forma de pensar, de entender o novo data center. Isso acontece por conta de questões atuais, como replicação, sincronização para recuperação de desastres e máquinas virtuais sendo capazes de manipular e transportar dados entre diferentes fontes de armazenamento, entre outros elementos.
E, para se preparar para o que está para ouvir, nada como entender as principais tendências e o que cada uma vai representar para o universo dos data centers:
1- Virtualização de I/O (entrada e saída de dados)
A virtualização de I/O, também conhecido como agregação de I/O, divide interconexões entre links InifiniBand de 10 gigabits e links Ethernet para o tráfego de dados. Switches específicos são conectados, permitindo uma série de conexões virtuais para as atividades da rede.
O que acontece, de fato, é a simplificação do cenário de hardware no data center de forma considerável, reduzindo o número de conexões rodando em cada dispositivo e aumentando a flexibilidade.
Levando em consideração as melhores práticas de recomendações da VMware, que pede a atribuição de 1 giga por porta por máquina virtual. Com os novos servidores de 24 núcleos, a empresa consegue, teoricamente, rodar cerca de 50 máquinas virtuais em um único hardware, demandando 50 portas de 1 gigabit.
De forma realista, mesmo que o gestor disso tudo conseguisse seis placas Ethernet de quatro portas, a quantidade de máquinas virtuais ficaria limitada a 24. Mas, com a virtualização, todas poem compartilhar o mesmo link InfiniBand ou uma conexão Ethernet 10G em diversas conexões virtuais de 1 giga.
A empresa Wholesale Electric Supply está capitalizando com a habilidade de virtualizar entrada e saída de dados. De acordo com o diretor de tecnologia da companhia, Bill Fife, isso permitiu a construção de uma nuvem própria, uma vez que é possível provisionar processador, RAM, disco e I/O de acordo com a necessidade e deixar disponível para outras aplicações quando não é mais necessário. “Não temos mais rigidez na forma de operar a infraestrutura. Somos extremamente flexíveis”, diz.
2 – Convergência entre dados e armazenamento
O data center de hoje tem distinção entre redes de dados e storage, situação que incomoda muitas pessoas. “Assim que possível, as pessoas vão combinar essas duas redes”, disse o consultor sênior da Opus One, Joel Snyder.
A crença de Snyder é que as empresas vão se livrar do Fibre Channel puro e vai migrar para o Fibre Channel over Ethernet (FCoE).  “Mas eu ainda vejo muita gente usando Fibre Channel porque disseram para elas fazerem dessa forma, mesmo com testes mostrando que a rede frequentemente não é o gargalo”, diz. “O que você pode fazer com Fibre Channel você pode fazer com rede Ethernet 10G, tendo desempenho equivalente ou menor, mesmo que os fornecedores ou compradores de SAN sigam o contrário”.
Os dias do FCoE estão só começando, mas muita gente já observa a tecnologia com carinho. O presidente da organização Network Test, David Newman, acredita que o custo de capital do equipamento é a única despesa operacional. “Em pouco tempo, será mais barato rodar FCoE do que infraestruturas separadas”, diz.
Hoje, as fabricantes Brocade e Cisco têm switches com essa capacidade, suportando priorizações e novos mecanismos em redes Ethernet para a entrega de serviços no nível da Fibre Channel, com outros fornecedores preparando a mesa oferta. Logo, já é possível realizar a convergência, diz Newman. O que ainda deve ser provado é a interoperabilidade.
O diretor de infraestrutura de TI da Transplace, Scott Engel, identifica a FCoE como uma das maioires mudanças de rede e infraestrutura no próximo ano. Ele diz que aoutra é o uso de 10G em servidores. Para Newman, o ponto de virada ocorrerá entre 12 e 18 anos.
3 – Processadores mais rápidos, consolidação maior
O poder da virtualização impressionou muitas empresas, ao cortar custos e consolidar as infraestuturas de forma nunca antes vista. Mas, para alguns, isso está apenas no começo.
A maturidade e os níveis de conforto com a virtualização está crescendo, o que significa que as empresas mostram-se dispostas a colocar mais máquinas virtuais em um hardware físico, diz o gerente de sistemas de energia da IBM, Steve Sibley.
A possibilidade de suportar mais máquinas virtuais em um único servidor é amparada por processadores mais rápidos. No caso da IBM, a empresa introduziu recentemente o Power7, um servidor com chip de oito núcleos que promete quatro vezes mais capacidade de virtualização, escalabilidade e desempenho que seu antecessor.
A Intel, do seu lado, preparou um chip de oito núcleos, o Nehalem-EX, que vai ajudar a aumentar nos níveis da consolidação. “É o chip que permite o aumento de servidores em uma única plataforma sem sacrificar desempenho ou capacidade dos sistemas”, diz Sibley. “Isso resulta em consolidação maior e menores preços para o cliente.”
4 – Otimização da infraestrutura
Algumas empresas criaram uma estratégia de colocar um data center em um trailer transportável, estacionado em algum lugar selecionado de acordo com as condições de refrigeração e energia. Esse conceito exige uma otimização significativa de infraestrutura, incluindo recursos de distribuição de servidor, armazenamento, rede, refrigeração e processamento.
Isso não quer dizer que o data center se transformará em um estacionamento cheio de trailer, mas o fato é que as empresas estão sem espaço, eletricidade, refrigeração e capacidade para mover esse conceito para as instalações tradicionais. E juntar peças de infraestrutura para formar um data center é bem mais barato que a abordagem tradicional, no qual se cria uma superinfraestrutura pensando em atender uma série de necessidades futuras.
Com isso, o data center monolítico está fadado a desaparecer, em benefício de pequenos blocos de data centers focados em otimização de recursos.

Nenhum comentário: