Mostrando postagens com marcador Cloud Computing. Mostrar todas as postagens
Mostrando postagens com marcador Cloud Computing. Mostrar todas as postagens

quarta-feira, 27 de maio de 2020

Comunidade BrazilClouds


Convido-os a conhecerem a pagina do BrazilClouds - https://www.brazilclouds.com/ - a comunidade brasileira de cloud computing, associada a outras comunidades em torno do mundo. Venha compartilhar conhecimento. Estamos também no linkedin, onde o convidamos para também participar de nossa comunidade https://www.linkedin.com/groups/12394520/

terça-feira, 17 de junho de 2014

Cloud Collection

Desde que começamos esse negócio de fazer sistemas para a Indústria de Cobrança muita coisa mudou, a Indústria se sofisticou, novos níveis de necessidade foram atingidos...

Criamos a muito tempo a primeira solução de cobrança para o Mercado Brasileiro, eram os anos 80. Fizemos a primeira integração entre um CRM de Cobrança e uma Solução de Discagem, eram os anos 90. Construímos a primeira solução para rodar na nuvem, 2001... Criamos a primeira plataforma integrada de soluções para a Indústria ... 2012/2013.


Esta plataforma esta fazendo um ano... De muito trabalho, revisão de códigos e processos...melhoria de níveis de segurança, performance elevada... 


Esta é a estória que vou contar nos próximos posts...


Luciano Basile

CEO de i-Coll Soluções Telemática e OMNI COLL Soluções Integradas

sábado, 3 de agosto de 2013

Continuidade de operações

Nos últimos anos, as discussões sobre perda de dados e tempo de inatividade aceitáveis mudou de horas e minutos para segundos e, para muitas organizações, o assunto mudou para disponibilidade contínua. Na i-Coll pensamos nisto o tempo todo. As empresas não precisam mais só de sistemas, precisam que esses sistemas, seus dados e informações estejam disponíveis em qualquer lugar, em qualquer mídia, de forma continua. Para entender mais sobre estas mudanças Clique aqui 

terça-feira, 25 de junho de 2013

Antigas rivais Oracle e Salesforce se juntam para parceria em nuvem


BOSTON - A gigante da tecnologia Oracle, que está perdendo espaço no mercado para empresas mais novas que vendem softwares pela Web, assinou uma parceria de longo prazo com a arquirival e pioneira na computação em nuvem Salesforce.com.
As duas empresas disseram nesta terça-feira que a Oracle irá integrar alguns de seus programas de software baseados em nuvem com produtos da Salesforce. As empresas deram poucos detalhes sobre a parceria inédita, que também exige que a Salesforce expanda seu próprio uso de produtos Oracle.
A Oracle, que revelou uma outra parceria para nuvem com a antiga rival Microsoft, na segunda-feira, está buscando acelerar o crescimento através da expansão das vendas de produtos de computação em nuvem, uma das poucas áreas em rápido crescimento no setor de tecnologia.
A aliança representa uma mudança dramática do co-fundador e presidente-executivo da Oracle, Larry Ellison, em relação a Salesforce e seu presidente-executivo, Marc Benioff, que Ellison menosprezada há mais de uma década.
A rivalidade remonta a 2000, quando Benioff demitiu Ellison do conselho de administração da Salesforce, depois que a Oracle começou a vendersoftwares competitivos.


sexta-feira, 26 de abril de 2013

10% dos sistemas corporativos estarão na nuvem até 2015



Se o armazenamento, servidores e até mesmo
 desktops estão migrando para a nuvem, sistemas de segurança não seria uma exceção. Previsões do Gartner para esse setor, indicam que uma em cada dez empresas estarão processando os recursos de segurança em cloud computing até 2015.

Com foco especial em áreas como segurança de e-mail, gateways, vulnerabilidades remotas e gerenciamento de acesso de identidade (IAM), o Gartner espera que este mercado alcance uma receita global de 4,2 bilhões de dólares em 2016.
"É grande a demanda de empresas por serviços de segurança baseados na nuvem para enfrentar a escassez de mão de obra especializada, reduzir custos ou cumprir as normas regulatórias de forma rápida e facilmente", explica Eric Ahlm, diretor de pesquisas do Gartner. 
O analista destaca que a mudança no comportamento de compra das aplicações de segurança para modelos de entrega baseados em nuvem oferece oportunidades para os fornecedores de tecnologia e serviços. Ele afirma que os que tiverem que melhores capacidades de fornecimento de soluções em nuvem têm chances de fazerem bons negócios. Já os que não têm essas capacidades precisam agir rapidamente para se adaptar a esta ameaça competitiva. 
Uma outra pesquisa do Gartner publicada em janeiro passado confirmou que os gastos com serviços de segurança em nuvem aumentará significativamente nos próximos 12 meses. De acordo com estudo, 74% dos executivos e gestores de segurança entrevistados em todo o mundo estão pedindo prioridade no aumento de soluções para segurança de e-mail em nuvem.
Outra área que deverá experimentar um crescimento substancial com oferta de serviços na nuvem é o gerenciamento de eventos de informação. No entanto, muitos clientes no segmento empresarial continuam cautelosos sobre a entrega de informações confidenciais para os provedores de nuvem, algo que será fundamental para superar a relutância das organizações mais tradicionais.
Além disso, 27% dos entrevistados indicaram que estavam considerando a implantação de autenticação de tokens como serviço em nuvem. O Gartner acredita que fatores como medidas para conformidade com o Payment CardIndustry Data Security Standard (PCI DSS) exigido pelas administradorasa de cartão de crédito para transações eletrônicas, por exemplo, estão dirigindo a maior parte do crescimento do interesse na segurança de tokens como serviço. 
A segurança de token como serviço permite que as ermpresas transfiram deixem de armazenar em seus datas centers internos informações de identificação pessoal ou outros dados confidenciais. O serviço permite que organizações migrem para nuvem sistemas de compliance no âmbito do PCI.

Em resumo: Se você ainda não está na nuvem, tenho certeza que estará em no máximo 2 anos. Talvez você não saiba como, nem porque. Mas estará. Algumas empresas tem projetos bem elaborados, a maior parte não tem nem projeto. Mas serão levadas de alguma forma a esta nova frontera do mundo de negócios. Quem resistir, protelar, poderá não ter tempo para reagir. 
Luciano Basile
 

terça-feira, 12 de março de 2013

Empresas mineiras de call center avançam rumo ao Nordeste


Já comentei o assunto algumas vezes aqui no Blog. A tendência é irreversível, cada vez mais empresas do setor de call center (vendas e cobrança) estão transferindo suas operações para a região nordeste do país. Depois do VOIP e da Internet as barreiras geográficas estão definitivamente quebradas. O seu call center pode estar em qualquer lugar do planeta. Nosso serviço OMNI-COLLECTION veio para atender a esta demanda. Uma suíte de soluções perfeitamente integradas entre si, na nuvem, e de fácil implementação.
O Post abaixo foi originalmente publicado no Blog Televendas & Cobrança Empresas-mineiras-de-call-center-avancam-rumo-ao-nordeste-televendas-cobranca
A associação de mão de obra barata, ritmo menor na rotatividade de funcionários e incentivos fiscais tem criado uma onda de migração de empresas de telemarketing da Região Sudeste do Brasil para capitais e cidades-polo nordestinas, num fluxo comparável ao que ocorreu com empresas norte-americanas rumo à Índia na década passada. De olho nesse mercado, empresas do setor invadiram da Bahia ao Ceará, passando por Pernambuco e Paraíba. Em 2013, um investimento de R$ 30 milhões deve ser feito em João Pessoa para a construção de duas novas unidades da mineira AeC, criando 4,5 mil vagas.
A companhia tem atualmente duas unidades em Campina Grande (PB), com 4,8 mil contratados. Ainda no primeiro semestre, os dois novos sítios (como são chamadas as centrais de atendimento) devem ser inaugurados, quase dobrando o número de funcionários e aproximando o de carteiras de trabalho assinadas ao de Belo Horizonte. Na capital mineira está o maior número de funcionários da empresa. Fundada em 1992, hoje são 12 mil pessoas empregadas. Mas se considerada a Região Nordeste inteira, o total de empregados deve superar o de BH. A empresa negocia a abertura de quatro centrais em cidades com mais de 200 mil habitantes. Três delas devem ser inauguradas ainda este ano e uma no ano que vem.
A expansão faz parte do ambicioso projeto da empresa de quase dobrar o faturamento até 2014. No ano passado, a companhia fechou o balanço com R$ 530 milhões, enquanto a expectativa para este ano é atingir R$ 730 milhões, crescimento de 37,7%. Para 2014, a meta é superar a marca simbólica de R$ 1 bilhão. “É um número que perseguimos. No ano passado, crescemos 42%, superando a marca de R$ 500 milhões”, afirma o presidente da AeC, Alexandre Moreira. Antes de concluir o plano, no entanto, a empresa deve estar listada na bolsa de valores. Segundo Moreira, ela cumpre todos os requisitos, como ter o balanço auditado e governança corporativa. “A companhia já tem uma imagem muito bem projetada”, avalia. A listagem é uma das primeiras etapas para a abertura de capital, que ainda não tem data para ser efetivada.
A Contax, maior empresa de call center no país, com instalações em Belo Horizonte, também está presente no Nordeste, com atendimento direto de Fortaleza, Salvador e Recife. A unidade pernambucana é tida como a maior central da América Latina, com capacidade para 15 mil funcionários, e foi criada basicamente para aproveitar a maior permanência dos funcionários no emprego em comparação com os empregados da Região Sudeste. As regiões metropolitanas de Salvador e Recife lideram o ranking de desemprego, segundo o Instituto Brasileiro de Geografia e Estatística (IBGE), com 6,5% e 5,7% da população desocupada em novembro, respectivamente.
Em Minas, as duas maiores cidades (Belo Horizonte e Uberlândia) concentram empresas importantes do setor.

quarta-feira, 13 de fevereiro de 2013

Como trabalho em casa pode reduzir custos para a empresa


A seguradora americana Aetna Inc. temia perder talentos quando fechou algumas filiais depois de adquirir a U.S. Healthcare Inc., em 1996. Assim, decidiu deixar alguns funcionários trabalharem em casa. Dez anos depois, apenas 9% de seus empregados trabalhavam em casa em tempo integral.
Mas em meados dos anos 2000, a seguradora começou a ver que trabalhar em casa era mais que um favor aos funcionários. "Houve um momento em que percebemos que havia aí uma oportunidade para reduzir os custos, em particular com imóveis", disse Elease Wright, vice-presidente sênior de recursos humanos, que trabalha na sede da Aetna em Hartford, no Estado de Connecticut.
Hoje, quase metade — 47% — dos 35.000 funcionários da Aetna nos Estados Unidos trabalha em casa. Não estamos falando em responder e-mails depois do jantar ou trabalhar em casa às sextas-feiras. Estamos falando em ficar em casa todos os dias: nada de ter um computador ou mesa em algum escritório da empresa.
Dan DeLucia, vice-presidente da unidade da Aetna que negocia acordos com médicos e hospitais, trabalha em sua casa em Syracuse, no Estado de Nova York, há nove anos. "Fiquei indeciso no começo", disse ele. "Eu me preocupava em saber como iria administrar as coisas de longe. Na época, não havia mensagens instantâneas nem vídeo com a velocidade de hoje.
"Mas logo percebi que, na verdade, eu falava mais e me comunicava mais [...] do que quando estava presente num escritório", acrescentou, lembrando os velhos tempos em que trocava e-mails com colegas a dois cubículos de distância.
Muitos empregadores nos EUA incentivam o trabalho em casa. Cerca de 20% dos funcionários da Cigna Corp., outra seguradora da área de Hartford, trabalham em casa. Uma pesquisa do Escritório do Censo dos EUA indica que 9,4 milhões de americanos, ou 6,6% dos trabalhadores, trabalharam exclusivamente em casa em seu emprego principal em 2010, contra 4,8% em 1997. Mas poucas firmas foram tão longe como a Aetna.
A extensão com que a Aetna moveu o trabalho do escritório para a casa dos funcionários reflete o esforço incessante das grandes empresas americanas de serviços para cortar custos, bem como o efeito que a disseminação de comunicações baratas, confiáveis e rápidas, em especial a internet, exerce sobre a economia.
No passado, o trabalho e a casa ficavam no mesmo lugar — fosse a fazenda ou a loja. O conceito de trabalhar fora de casa surgiu no início do século XIX, diz Ellen Hartigan-O'Connor, historiadora da Universidade da Califórnia em Davis. As fábricas da região da Nova Inglaterra, no nordeste dos EUA, empregavam moças, e depois imigrantes, para trabalhar nas máquinas e os alojavam em dormitórios. Escritórios se proliferavam e contratavam funcionários, que se mudavam para as cidades e moravam em pensões. "Essa separação dava apoio a uma fantasia da classe média de que o lar era um refúgio seguro no mundo cruel do trabalho", disse ela.
Hoje, trabalhar em casa é principalmente para aqueles cujo emprego gira em torno de computador, telefone e internet. A Aetna requer dos funcionários que tenham um lugar sossegado para trabalhar. Ela exige e paga por móveis de escritório se necessário, assim como um arquivo e um triturador de documentos, mais computador, telefone e internet.
"Transformei um dos quartos em escritório", disse Susan O'Donnell, enfermeira de Northfield, no Estado de Connecticut, que há 12 anos saiu de um hospital e se tornou analista de seguros na Aetna; já faz 7 anos que ela trabalha em casa. Ela valoriza a flexibilidade ("Posso dar um pulo no mercado, se precisar"), o fim das incômodas viagens diárias até o trabalho e mais tempo para a família.
E a empresa economiza. A Aetna estima que seus gastos com imóveis e custos relacionados sejam de 15% a 25% mais baixos com esse arranjo — uma economia anual de uns US$ 80 milhões. O trabalho em casa reduziu o espaço total de escritórios da Aetna em 250.000 metros quadrados, calcula a empresa. Algumas unidades pedem que o funcionário passe um ano no escritório antes de trabalhar em casa. Outras demandam uma produtividade acima da média.
A mudança transformou a cultura empresarial da Aetna. Há esforços deliberados para que funcionários remotos participem nas teleconferências. Algumas unidades marcam reuniões só para que empregados se conheçam pessoalmente. Supervisores dão dicas sobre como separar o horário de trabalho do resto do dia.
Há uma desvantagem: quem trabalha em casa tende a engordar. A Aetna agora oferece personal trainers on-line para que o pessoal de casa se manter em forma.

Gigantes da tecnologia partem para a guerra na nuvem


A Google Inc., a Microsoft Corp. e a Amazon.com Inc. estão brigando entre si pela liderança do mercado de dispositivos móveis e de buscas na internet. A última frente de batalha nessa guerra é invisível: poder de computação.
A Microsoft e a Google estão tentando cada vez mais derrubar a Amazon no lucrativo negócio de aluguel de armazenamento de dados e processamento para milhares de empresas.
A Amazon domina o mercado por meio da sua unidade Amazon Web Services, ou AWS, que ajuda as empresas a lidar com tarefas digitais, como as transmissões pela internet dos filmes sob demanda da Netflix Inc. e as análises de registros de acidentes automobilísticos da Validus, uma consultoria de seguros.
[image]
Agora, a Amazon está tentando vender os serviços da AWS para muitas grandes empresas que são o ganha-pão da Microsoft, enquanto a Microsoft e a Google procuram tomar da AWS as empresas iniciantes que têm sido as melhores clientes dela.
Pelo caminho, elas estão roubando funcionários umas das outras, baixando preços, criticando as rivais e subvertendo velhas estratégias para controlar uma das áreas de maior crescimento do setor de tecnologia, conhecida como "serviços na nuvem".
"As grandes guerras tecnológicas estão se expandindo para quase todas as áreas de negócios e os serviços na nuvem são o campo de batalha mais recente", disse Bill Coughran, ex-vice-presidente de engenharia da Google que hoje trabalha na Sequoia Capital, empresa de capital de risco. "A Amazon conquistou os corações e as mentes dos desenvolvedores, mas a Google e a Microsoft vêm ganhando terreno."
A Firebase, uma empresa iniciante de software de San Francisco, têm se beneficiado com essa batalha. Quando a Firebase saiu do papel, a Amazon lhe ofereceu US$ 12.000 em créditos de serviços na AWS. Outra concorrente, a Rackspace Hosting Inc., ofereceu US$ 36.000 em serviços gratuitos. A Firebase também recebeu propostas da Microsoft e da Amazon através de um dos investidores dela, a New Enterprise Associates, caso ela ou outra empresa apoiada pela NEA escolhesse seus serviços na nuvem.
James Tamplin, um dos fundadores da Firebase, disse que a sua firma optou pela AWS "em grande parte porque a Amazon tem uma infraestrutura mais avançada".
Reuters
Jeff Bezos.
A Firebase hoje paga à Amazon mensalmente. Assim, quando as pessoas navegam no site de serviços da Firebase, são os computadores da AWS — e não os da própria Firebase — que fazem o processamento. Tamplin não quis revelar quanto paga para a AWS. Mas a consultoria McKinsey & Co. calculou recentemente que a compra e a manutenção de um pequeno servidor custaria à empresa cerca de US$ 31,55 por mês, enquanto uma estrutura semelhante no serviço na nuvem da AWS ou de suas rivais custaria em média US$ 16,06 por mês.
A Amazon, a Microsoft e a Google não revelam a receita obtida com seus produtos na nuvem, mas a empresa de pesquisa IDC estima que os serviços "na nuvem pública" estão entre as áreas de tecnologia da informação de crescimento mais rápido, com um mercado total de US$ 40 bilhões no ano passado.
A Amazon possui uma participação de cerca de 70% da fatia do mercado de serviços de aluguel de capacidade e processamento de dados na nuvem pública, estima a Forrester Research. A AWS gera US$ 2 bilhões ou mais em faturamento anual com esses serviços, de acordo com estimativas de Wall Street.
Há mais do que dinheiro em jogo. Com os serviços na nuvem, a Amazon, a Microsoft e a Google estão também competindo para ganhar a lealdade dos desenvolvedores de software e atrair empresas que comprem mais serviços delas ao longo do tempo.
Por anos, a Amazon reinou praticamente sozinha no setor de computação em nuvem depois de ter lançado a AWS, em 2006, dando a ela a chance de construir liderança num mercado em ascensão. O crescimento da AWS também foi ajudado pelo boom de novas firmas de tecnologia como a Zynga Inc., que concluiu que seria mais simples e barato deixar a Amazon administrar os softwares e os servidores que precisava para operar.
Em meados do ano passado, entretanto, a guerra na nuvem esquentou. Em junho, a Microsoft reformulou seus serviços na nuvem, chamado Windows Azure, e acrescentou alguns pequenos atrativos semelhantes aos da AWS, como a possibilidade de alugar mais computadores flexíveis "virtuais", que adicionam uma potência extra a custo baixo.
No mesmo mês, a Google, que já havia se aventurado antes no mercado de serviços na nuvem, lançou o serviço Google Compute Engine para permitir que as empresas rodem seus aplicativos de internet em computadores administrados pela gigante de buscas na internet.
As empresas começaram imediatamente uma guerra de preços. Dentro de uma semana, no ano passado, a Google anunciou que estava baixando os preços de armazenamento de dados em cerca de 20%, para uma tarifa inicial mensal de nove centavos e meio por gigabyte. A Amazon rapidamente equiparou a oferta inicial à da Google, induzindo esta a anunciar mais cortes.
A Microsoft imitou suas concorrentes alguns dias depois e anunciou que estava cortando as tarifas do Azure para níveis parecidos aos das suas rivais.
A Amazon afirmou que reduziu os preços do AWS 25 vezes na sua história.
De sua parte, a Google se baseia em seu histórico de sucesso. "Nossos serviços contam com toda a infraestrutura que desenvolvemos ao longo dos últimos 14 anos e que é usada pelo Google, pelo YouTube [...] e nós estamos disponibilizando isso para outros", diz Shailesh Rao, que comanda a equipe de "plataforma na nuvem" da Google.

terça-feira, 12 de fevereiro de 2013

O futuro da nuvem é híbrido


por: Tullio Christianini em 29 de janeiro de 2013 - Reproduzido do blog DUALTEC - http://www.dualtec.com.br/blog/2013/01/29/o-futuro-da-nuvem-e-hibrido

Muitas previsões e tendências têm sido divulgadas sobre qual será o futuro da computação em nuvem. Não é novidade que, a cada dia, cresce a adoção de aplicações e plataformas em nuvem, sejam corporativas ou para uso pessoal incentivada pela aparente facilidade de entrada.
No ambiente corporativo, o ecossistema de nuvens fica cada vez mais complexo devido a diversidade de informações disponíveis internamente, seja em nuvem pública ou em nuvem privada. A medida que as empresas migram para a nuvem, ainda resta uma grande quantidade de ativos e sistemas on-premisse e realizar a integração com a infraestrutura existente passa a ser um fator crítico para a adoção da nuvem.
O modelo interno de TI tradicional é isolado, repleto de particularidades e não foi pensado visando agilidade e elasticidade, por isso há um movimento natural que leva as empresas a estarem dispostas a colocar o que puder em nuvem, desde que haja a interação com o que “ainda” não pode ser levado para a nuvem.  Por esse motivo, digo que as nuvens híbridas são o futuro.
Existem muitas formas de se compor a núvem híbrida, seja uma mistura de recursos físicos e virtuais, uma mistura de vários provedores, uma mistura de contratações de softwares como serviços (SaaS) ou uma mistura de rede privada e pública.
As composições de nuvens híbridas mais encontradas atualmente são:
• Infraestrutura interna combinada com nuvens externas em um provedor de nuvem;
• Infraestrutura interna combinada com nuvens públicas e
• Nuvens privada, totalmente estabelecida em provedores de nuvens, combinadas com nuvens públicas.
Em muitas arquiteturas, os requisitos impõem o uso de uma infraestrutura interna associada a serviços de cloud privado em provedores de nuvens.  Tal uso é interessante porque oferece a adoção completa aos requisitos necessários, tais como a segurança e a privacidade ou por protegerem os dados prioritários, mantendo a conformidade e assegurando níveis de serviço mais elevados.
Em contra partida podem carregam as desvantagens: Baixa elasticidade, alto grau de sofisticação no dimensionamento, capacidade e custos de Capex mais elevados.
As arquiteturas de nuvens privada, totalmente estabelecidas em provedores de nuvens, combinadas com nuvens públicas do próprio provedor, tem sido uma das melhores opções de resolver as questões de elasticidade, custos e gerenciamento.
O caminho natural da adoção é totalmente dependente da maturidade tecnológica da empresa e, normalmente, passa de uma estrutura tradicional para uma virtualização, indo para uma nuvem privada e, em seguida, com a extensão dos recursos, para a nuvem pública, formando a nuvem híbrida.
Devemos considerar que uma abordagem híbrida é a chave para equilibrar os benefícios e os riscos de nuvens públicas e privadas. É a melhor forma dos gestores de TI tirarem proveito dos benéficos de uma nuvem privada e pública, e um dos maiores ganhos é a transferência para o modelo de pagamento dos serviços baseados em “pagar-para-uso”, sendo este um benéfico que impacta diretamente no planejamento financeiro e nas estimativas de custo.

sexta-feira, 25 de janeiro de 2013

Risco de apagão obriga data centers do Brasil a investirem em contingência


A possibilidade de o Brasil vir a ter um apagão de energia por conta da redução dos reservatórios e crise do setor elétrico preocupa os empresários dos data centers brasileiros, mas eles garantem que têm contingência para manter suas operações, caso aconteçam novos blecautes no País em 2013.

Os data centers estão entre os maiores consumidores de energia elétrica por operaram com infraestrutura de alta densidade. Mesmo com adoção da virtualização e processamento em nuvem, que permitem compartilhar servidores, essas empresas ainda são grandes puxadoras de eletricidade. Como são responsáveis pela operação de muitos sistemas críticos de TI de diversos segmentos da economia que não podem parar, essas companhias  precisam investir pesado em sistemas de contingência.
Caso fiquem fora do ar por falta de energia ou qualquer outro incidente, muitas empresas terão seus negócios impactados, principalmente agora que as companhias estão terceirizando mais serviços de tecnologia e aderindo às aplicações que rodam na nuvem. Para elas, ter esquemas de energia alternativa e redundância é vital para manutenção das operações.
"Nossas operações estão preparadas para funcionar independente do fornecimento das distribuidoras de energia", garante Fabiano Agante Droguetti, CTO da Tivit, que processa aplicações de 1,2 mil empresas, sendo 300 das 500 maiores do País. Um de seus clientes é a Cielo, que processa meios de pagamentos eletrônicos com cartão de crédito e de débito.
Droguetti observa que a distribuição de energia no Brasil é instável e apresenta micro interrupções com muita frequência, o que obriga os data centers a terem planos robustos de contingência e evitar que as operações sejam suspensas. 

No caso da unidade de São Paulo, localizada em Santo Amaro, por exemplo, ele informa que a empresa conta com cinco geradores, sendo que dois funcionam como backup. Esses equipamentos são alimentados por óleo diesel e estão preparados para manter as operações da Tivit em operação por até sete dias, sem precisar de reabastecimento, segundo Droguetti. 

"Nosso gerador leva cinco minutos para entrar em operação. Nesses cinco minutos, nossos sistemas são alimentados por nobreaks que oferecem uma autonomia de até 30 minutos", conta Droguetti. Como a energia da distribuidora é instável e apresenta custos elevados no final da tarde, ele afirma que o data center chega a utilizar os geradores praticamente todos os dias por algumas horas, o que faz com que os equipamentos passem por manutenção constantemente. 

Ainda como parte do plano de contingência, Tivit se abastece de energia convencional por meio de duas subestações da AES Eletropaulo. Embora a distribuidora seja a mesma empresa, Droguetti informa que essa forma de contratação dá mais segurança, pois se uma das redes cair a outra assume a operação do data center automaticamente.

Segundo o CTO da Tivit, o negócio de data center exige contingência. O investimento é alto, mas ele diz que uma parada arranha a imagem da empresa. Assim como a Tivit, o executivo acredita que todos os grandes centros de processamentos de dados estejam preparados para enfrentar um eventual apagão. "Em 11 anos de operação nunca ficamos fora do ar", afirma. "Existe apreensão, mas o risco de apagão não é um problema", diz o CTO.

Na Ativas, data center localizado em Belo Horizonte (MG), o risco de um apagão preocupa, mas a empresa investiu pesado em esquema alternativo. Antônio Phelipe CTO da Ativas explica que a companhia já nasceu preparada para enfrentar esse tipo de ameaça.
A empresa foi a primeira do seu segmento na América do Sul a obter a certificação Tier III, concedida pelo Uptime Institute, que garante disponibilidade de 99,98% de suas operações. O grupo também é credenciado pela TÜV Rheinland, que comprova que seus processos seguem as boas práticas.

A exemplo da Tivit, o data center da Ativas é abastecido por duas subestações diferentes da Cemig, distribuidora de energia de Minas Gerais, que detém 49% do seu capital, o que segundo a empresa, é uma vantagem competitiva ter um sócio do setor. "Às vezes não é nem o blecaute que gera falta de energia. A queda de uma árvore pode interromper o fornecimento e ter dois caminhos alternativos aumenta a redundância", explica Phelipe.  

"Usamos duas redes distintas de energia e a troca é automática", garante o CTO da Ativas, mencionando que a companhia conta um esquema alternativo com dois geradores, sendo um backup ligado por um sistema de barramento para subir imediatamente, caso o primeiro falhe.

Ter uma subestação própria de energia aumenta a contingência e dá mais segurança para o data center. É para  ter mais tranquilidade que a Level 3 está investindo nesse tipo de projeto para alimentar o data center de São Paulo, que hoje é atendido pela AES Eletropaulo.

Além da unidade de São Paulo, a Level 3 conta com outras duas, uma localizada no Rio de Janeiro e outra em Curitiba. Vagner Moraes, diretor da unidade data center da companhia explica que a energia fornecida pela distribuidora oscila muito. Ele contabiliza que em 2012 ocorreram cerca de mil registros de interrupções da rede convencional, o que motivou a companhia a investir na construção de uma subestação própria, que ficará pronta dentro de 24 meses.
"Apesar de termos um data center construído nos padrões de alta disponibilidade, nos preocupa diretamente a possibilidade de um apagão", admite Emerson Ferreira, gerente de compliance da Algar Tecnologia. Segundo ele, o data center do grupo mineiro, que conta com unidade em Uberlândia e Campinas (SP), está equipado com geradores com abastecimento garantido por 48 horas. Entretanto, ele observa que outros serviços podem não ter plano de contingência, como é o caso de transporte para reabastecimento de diesel.
 
Problema com a legislação
De acordo com a legislação brasileira, as empresas não têm opção de contratar dois fornecedores de energia, uma vez que há apenas uma distribuidora por região. Essa situação obriga os data centers a recorrerem aos planos alternativos como construção de usinas próprias e contratação de duas linhas da mesma fornecedora.
"Temos que construir sites prevendo que não podemos depender do fornecimento externo de energia para manter nossas operações em funcionamento. Os mais modernos data centers são desenhados para ser autônomos. Temos que ter geradores a mais", explica Paulo Sartório, gerente de marketing de produtos da Terremark.
Sartório garante que o data center da Terremark tem um plano contingência que permite que a empresa se mantenha até 72 horas em funcionamento em caso de apagão. "Estamos tranquilos porque nossas instalações foram construídas, levando em conta esse tipo de ameaça", afirma ele. 
"Temos uma pequena usina hidrelétrica porque energia é crítica para nosso negócio. Todo mês há uma queda. A energia do Brasil não é de boa qualidade e oscila muito", informa Marco Fonseca, diretor de operações da Locaweb, justificando a necessidade de essas empresas terem esquemas alternativos.
"Se tivéssemos a opção de termos duas concessionárias, não seria preciso investir tanto", diz o executivo, que acha que energia deveria ser como links de telecomunicações e internet, que é possível terem rotas redundantes com diferentes fornecedores. 
Falhas podem acontecer
Outros data centers como T-Systems, Uol Diveo, Embratel, Telefônica e Oi também estão reforçando seus planos de contingência. Entretanto, nem sempre ter esquemas alternativos de energia garantem que as empresas se mantenha no ar em caso de blecaute.
Segundo os especialistas, elas precisam ter pessoal treinado e fazer manutenção constante dos geradores e ter bancos de baterias de qualidade. Os equipamentos devem ser ligados constantemente e os planos precisam ser revisados sempre para funcionarem em caso de incidentes.
Prova disso, foi que no último apagão que o Brasil sofreu em 15 de dezembro do ano passado que afetou cidades de nove estados do País. Um grande data center bem equipado, localizado em São Paulo, ficou fora do ar e prejudicou clientes que tinham aplicações de missão crítica hospedadas em suas unidades.
Segundo especialistas, o motivo da falha não foi ausência de tecnologia, mas dificuldade para colocar os sistemas em operação e mantê-los em funcionamento após a queda do fornecimento de energia da distribuidora. Os geradores e nobreaks foram ativados, mas entraram em pane e o data center interropeu operações.
"Mesmo que não sejam usados, os geradores precisam passar por testes smenais para que funcionem corretamente quando falta energia. É preciso fazer a manutenção do óleo diesel", relata Peter Catta Preta, diretor de infraestrutura da Alog. Ele observa que essas máquinas são como um grande motor de caminhão que têm que ser revisados constantemente e ficarem pré-aquecidos para darem partida no momento certo.
A Alog conta com três data centers, sendo dois em São Paulo e outro no Rio. O localizado no centro da capital paulista conta com cinco geradores e o de Tamboré (Barueri) tem dois equipamentos desses, enquanto o do Rio possue oito equiopamentos para situações de emergência. Essa quantidade, segundo Catta Preta é suficientes para garantir as operações em caso de incidente por até uma semana.
Exigências de SLAs e boas práticas
Com a popularização do modelo de cloud computing, mais empresas estão recorrendo aos data centers para terceirizar serviços de TI. Para que essas companhias tenham garantias de que suas aplicações não vão ficar fora do ar com eventuais quedas de energia, especialistas recomendam que fiquem mais atentas com os acordos de nível de serviço (SLA) e que contratem parceiros que sigam as melhores práticas do mercado.

Uma das formas de avaliar se o prestador de serviço está em conformidade com as regras do mercado são as certificações que exigem que os data centers estejam instalados em locais adequados e se têm planos de contingências. 

O Uptime Institute é uma das organizações internacionais que auditam data centers e atesta se eles oferecem alta disponibilidade com credenciais Tier III e IV. Essa última ninguém possui no Brasil, mas alguns prestadores de serviço comerciais já alcançaram a segunda que são Ativa, T-System, Alog e Embratel.

A Vivo e Petrobras também obtiveram esse selo para seus data centers para uso interno. A certificação Tier III, audita os sites que foram construídos para oferecer disponibilidade de 99,98% 24 horas aos sete dias da semana, avaliando planos de contingência. Outros prestadores de serviço afirmam que atendem aos requisitos dessa norma, mas ainda não passaram pelo crivo do Uptime Institute.

Ivan Semkovski, COO da Globalweb Outsourcing, conta que fez a lição de casa de conferir SLA e certificações quando a empresa decidiu atender seus clientes por meio de terceiros. "Fizemos um estudo para verificar se teríamos data center próprio ou usaríamos infraestrutura de um parceiro. Constamos que não justificava fazer esse investimento", explica o executivo.

Hoje a Globalweb atende seus cerca de 95 clientes ativos por meio de três data centers. No Brasil, a empresa utiliza a infraestrutura da Oi e Terremark. No exterior, a empresa tem acordo com o CoreSite, localizado em Miami (EUA). Segundo Semkovski, todos eles possuem planos de contingência para manter as operações em caso de 
falta de energia ou outras ameaças.
"Um possível apagão regional não nos preocupa porque se a Terremark cair, vamos para os data centers da Oi e vice-versa", diz o COO da Globalweb, que considera ser uma vantagem usar a infraestrutura da operadora com sites distribuídos pelo País. Ainda segundo ele, há alternativa de ir para o CoreSite, caso essas empresas sejam derrubas por blecautes.

Presidente do Santander anuncia investimentos em data center no Brasil


O Santander vai investir 3 bilhões de reais no Brasil em 2013 em ampliação de sua operação no País. Uma parte desses recursos será destinada à construção de um centro de dados em Campinas (SP), que deverá ser inaugurado até 2014.


Os novos investimentos do banco Santander no mercado brasileiro foram anunciados pelo presidente mundial do grupo, Emilio Botín, durante encontro com a presidente Dilma Rousseff. Botin esteve na última terça-feira (22/01), no Palácio do Planalto, em Brasília.

Segundo Botin, os 3 bilhões de reais incluem a ampliação do número de escritórios e agências no País, de terminais de autoatendimento e a construção do centro de dados. 

Durante conversa com Dilma, o executivo falou sobre a situação econômica da Espanha e da Europa. Ele disse que o quatro hoje está “bem melhor” que em junho de 2012, quando se encontraram pela última vez.
Data center verde
Santander anunciou em abril de 2010 o projeto de um centro de tecnologia, pesquisa e processamento em Campinas, onde abrigará dois data centers. A obra está localizada no parque tecnológico da Companhia de Desenvolvimento do Pólo de Alta Tecnologia de Campinas (CIATEC). 

De acordo com o banco, o complexo foi planejado com base nos conceitos de TI verde e promete uma economia de 30% de energia em relação aos tradicionais.
*Com informações da Agência Brasil 

Os 10 melhores provedores de armazenamento na nuvem, segundo o Gartner


Aproximadamente 19% das organizações ao redor do mundo estão utilizando a computação na nuvem para produção de aplicações, enquanto outros 20% contratam serviços públicos de armazenamento na cloud, segundo estudo do Gartner.


Os resultados mostram que a nuvem oferece grandes oportunidades de negócios, especialmente para serviços de armazenamento. O instituto de pesquisas estima que as empresas gastaram 109 milhões de dólares com a computação na nuvem em 2012, um crescimento de 20% em comparação com o ano anterior.  

Ao mesmo tempo, a indústria de serviços de nuvem é grande e conta com muitos provedores com estratégias agressivas para conquistar clientes. Para orientar as companhias na hora de selecionar seu parceiro, o Garnter elegeu os dez principais fornecedores de serviços de armazenamento, levando em consideração a capacidade deles de atendimento aos clientes.

Veja a seguir essa listagem com prós e contras da oferta de cada um em ordem alfabética.

Amazon Web Services
Como em muitos outros aspectos da computação em nuvem, a Amazon Web Services é considerada um líder no mercado de armazenamento em nuvem. A empresa é um player precoce e agressiva no mercado. Sua oferta acaba movimentando a concorrência, segundo o Gartner. Seu preço é "benchmark da indústria." A oferta Simple Storage Service (S3) é o serviço básico de armazenamento, enquanto que Elastic Block Storage é para grandes volumes.

A AWS também inova. No início deste ano, anunciou o Glacier, um serviço de armazenamento de arquivos de longo prazo a baixo custo. Apresentou também recentemente na sua primeira conferência de usuários o Redshift, oferta de armazenamento baseado em dados na nuvem.

Mesmo assim, AWS tem desafios. Apesar de contar com uma ferramenta para vincular os dados que estão nas instalações das empresas em nuvem, chamada de AWS Storage Gateway, a capacidade de criar arquiteturas híbridas com essa funcionalidade ainda está em andamento, diz o Gartner. 

A AWS continua lançando produtos e serviços inovadores para manter sua liderança no mercado. Conta também com ofertas orientados para determinados setores como de governo com o seu serviço GovCloud.

AT&T
O serviço da AT&T Synaptic está alinhado com o de armazenamento EMC Atmos, utilizado como instalações de sistemas de armazenamento. Isso cria uma oportunidade para a AT & T vender soluções para a base sólida de clientes da EMC e oferecer recursos de nuvem híbrida.

O Gartner observa que este produto tem focado principalmente pequenas e médias empresas (PMEs). O AT & T Synaptic já abrange várias regiões e a companhia planeja expandir o serviço globalamente. A Europa é a sua próxima parada. Os clientes que utilizam os serviços de VPN da AT & T são liberados dos custos de entrada na nuvem.

Google Cloud Storage
Lançado em 2010, Google Cloud Storage  é o produto de armazenamento subjacente para outros produtos e serviços de nuvem do Google. A oferta inclui o Google App Engine, plataforma de desenvolvimento de aplicativos, Google Compute Engine e BigQuery, que são máquinas virtuais baseadas em cloud e uma ferramenta de análise para Big Data. Os clientes acessam o Google Cloud Storage através de uma API . O serviço está disponível nos EUA e Europa.

Porém, o que está impedindo a plataforma de armazenamento em nuvem do Google de ganhar mais presença no mercado é a falta de suporte direcionado a clientes corporativos, afirma o Gartner. Isso faz com que o Google Cloud Storage seja ideal para clientes sofisticados que querem criar e gerenciar a implantação, bem como para desenvolvedores que procuram alta capacidade de armazenamento para aplicativos do Google.

HP
A HP anunciou a versão beta pública de sua plataforma para armazenamento em nuvem e estreou em maio de 2012. O projeto foi concebido para trabalhar com a rede de computadores e distribuição de conteúdo (CDN) e se associou recentemente com a Akamai. A tecnologia é baseada em OpenStack e a HP oferece suporte via chat 24/7 com garantia de disponibilidade de 99,95%. 

"Entre os fornecedores de armazenamento na nuvem com base em OpenStack, a HP está bem posicionada para entender as necessidades de TI dos clientes. Isso em razão de a fabricante ter uma extensa linha de hardware, software e opções de serviço", avalia o Gartner. 

Mas como o Object Storage Cloud é novo, a HP deve evoluir e aperfeiçoar as ofertas de arquitetura e serviços. O sistema replica automaticamente os dados através de três zonas de resiliência disponibilidade (os clientes podem escolher o que fazer na nuvem da Amazon), e a HP processa as informações em seu hardware e em nuvem pública nas instalações de clientes, possibilitando que a configuração de rede híbrida se torne mais fácil.
 
IBM
O armazenamento em nuvem da IBM é parte de sua oferta empresarial SmartCloud, que inclui outros serviços, tais como o desenvolvimento de aplicativos baseados em nuvem e infraestrutura. 

Para o Gartner, a desvantagem principal da IBM é a falta de integração entre os vários aspectos da oferta SmartCloud. Por exemplo, a IBM vende sua solução de backup em nuvem e de recuperação, mas esses serviços não utilizam o Object Storage SmartCloud em seu servidor

Talvez essa integração não aconteça porque a IBM está associada com a Nirvanix, outro fornecedor de armazenamento em nuvem para executar o armazenamento de objteto do SmartCloud armazenamento. 

O Gartnert acredita que a heterogeneidade desses serviços sob o guarda-chuva da IBM SmartCloud poderia criar "silos de capacidades" para vários serviços.  Porém, observa que a IBM está comprometida em integrar seus produtos e serviços. Sua experiência em vender para departamentos de TI de grandes empresas dá uma vantagem significativa para que se torne um player importante no mercado de armazenamento corporativo na nuvem.
 
Internap 
A história da Internap é de um provedor de serviços gerenciados que recentemente tornou-se também um player em nuvem. Seu sistema de armazenamento na cloud é o AgileFiles, baseado em plataforma OpenStack Swift e está disponível nos EUA, Europa e Ásia, com planos de expansão futura. 

Para diferenciar seu serviço, a Internap tentou separar os recursos avançados de rede em serviço como Manager Internet Route Optimizer (MIRO), que analisa o desempenho das formas possíveis de fornecer e escolher melhor conteúdos. Sua maior limitação, de acordo com o Gartner, é ainda a tímida presença no mercado. 
 
Microsoft
Depois da Amazon Web Services, o Windows Azure Blob Storage da Microsoft, é segundo previsões do Gartner, o segundo serviço de armazenamento mais utilizado. Atualmente, a tecnologia conta com mais de um bilhão de objetos e cresce 200% ao ano. O produto dá suporte para uma ampla gama de recursos, incluindo armazenamento de objetos, tabela, SQL Server e uma rede de entrega de conteúdo (CDN).

O armazenamento Blob Azure está numa verdadeira corrida para oferecer o menor preço, já que a Amazon e Google baixaram seus custos constantemente no ano passado. Seu objetivo é ser o mais competitivo entre os três. O Gartner chama a Microsoft de "rápida seguidora" das características da AWS. Suas opções de suporte atraem clientes de grandes empresas, de acordo com a consultoria, oferecendo uma equipe de apoio prático, baseado em prestações. 

A Microsoft recentemente expandiu sua oferta com a compra da StorSimple, fornecedor de  armazenamento em nuvem.
 
Nirvanix
O fornecedor de armazenamento em nuvem Nirvanix é dedicado exclusivamente a este mercado. O Gartner avalia que o provedor é ideal para empresas que procuram as necessidades de armazenamento de dados intensivos. Entretanto, a consultoria considera inconvenientes para os clientes que procuram um provedor que oferece todos os cálculos em uma plataforma de armazenamento. 

Mas o Nirvanix tem algumas características atraentes, segundo o Gartner. O instituto de pesquisa destaca a capacidade do provedor de ter serviços de armazenagem público e ofertas mistas para instalações em companhias com opções suporte de alta qualidade. Apesar disso, pode não ser a opção para as PMEs, que preferem preços sobre a demanda.
 
Rackspace
O Rackspace é outro player importante no ecossistema de armazenamento em nuvem, com sua oferta Cloud Files, que conta com um robusto conjunto de serviços de apoio, incluindo infraestrutura e rede uma CDN alimentada por Akamai. 

Para atender as companhias que necessitam de armazenamento de alto desempenho, o produto do provedor é o Cloud Storage Block. O Rackspace trabalha duro no projeto de código aberto OpenStack e o andamento de seus projetos estão sendo monitorados de perto.

Por causa de seu trabalho no ambiente OpenStack, o Gartner avalia que os serviços públicos de armazenamento em nuvem do Rackspace integram muito bem com nuvens movidas pelo OpenStack, podendo criar cloud híbrida para os clientes.

Softlayer
O sistema de armazenamento CloudLayer da Softslayer é baseado na plataforma OpenStack Swift. O serviço acompanha uma variedade de outros oferecidos pelo Softlayer, incluindo computação e CDN.  

O Softlayer também tem uma oferta SAN com presença internacional. Possui centros de dados em sua sede em Dallas (EUA) em Amisterdã e Cingapura. Mas a falta de ciclos de implementação e suporte turnkey faz com que o produto não seja ainda muito procurado pelo mercado empresarial, afirma o Gartner.

quinta-feira, 20 de dezembro de 2012

Estudo revela que 60% das PMEs no Brasil devem adotar cloud

O estudo avalia que existe um enorme potencial para venda de serviços (Foto: Divulgação)


Uma pesquisa realizada no Brasil pela Parallels revela que 60% das PMEs (pequenas e médias empresas) estudam adquirir soluções que estejam associadas ao modelo de computação em nuvem, mesmo que algumas não conheçam o serviço. A expectativa é que os recursos na nuvem movimentem R$1,2 bilhão no país anualmente.
No topo do ranking dos serviços mais procurados está o de infraestrutura hospedada, que devem corresponder R$ 649milhões ao total. Os serviços de infraestrutura hospedada complementam as ofertas de servidores dedicados, servidores privados virtuais e hospedagem gerenciada.
Já os serviços de internet aparecem em seguida, com R$ 326 milhões anula, e incluem soluções de websites, registros de domínios, blogs e comércio eletrônicos. Em terceiro lugar vem comunicação de colaboração hospedada com R$ 186 milhões.
O estudo avalia que existe um enorme potencial para venda de serviços que vão da hospedagem de sites à venda de aplicações ou servidores virtualizados.
Mesmo que apenas 30% das empresas no Brasil possuam páginas na internet, se comparado com os últimos quatro anos, houve um aumento de 26% de home pages corporativas.

Leia mais sobre a pesquisa AQUI

segunda-feira, 10 de dezembro de 2012

Quer ser arquiteto de infraestrutura de cloud? Saiba como


Fonte: Computerworld  -  DÉBORAH OLIVEIRA


A nuvem está fisgando empresas de diferentes setores e a temporada de caça por profissionais de cloud já começou e deve ser intensificada em 2013, de acordo com analistas do setor de Tecnologia da Informação (TI). Números comprovam a movimentação. Os gastos com cloud deverão gerar cerca de 14 milhões de empregos no mundo até 2015, segundo a consultoria IDC. Mas o que é necessário para conquistar um lugar ao sol nesse mercado?
Visão de gestão, opina Sandro Melo, coordenador do curso de Rede de Computadores da BandTec, entidade educacional localizada em São Paulo. “Ele também tem de dominar o lado técnico”, completa Melo. O conhecimento em virtualização vale ouro nesse profissional, acredita. “Afinal, essa tecnologia é ponte para a nuvem.”
Além disso, o velho discurso da fluência em inglês também vale para o arquiteto de cloud, já que muito material disponível sobre o tema está disponível na língua.
Segundo Jairo Okret, sócio-sênior da Korn/Ferry, empresa de recrutamento, o profissional tem de entender do tradicional 'bits e bytes', mas saber falar a linguagem dos negócios. “Temos dificuldade para encontrar esse profissional. Essa conexão é o tempero que falta”, relata.
Para Antonio Couto, estrategista de cloud computing da HP no Brasil, o arquiteto de cloud computing é uma evolução natural do arquiteto de soluções. O primeiro passo para o profissional que quer seguir carreira na área, diz, é deixar de enxergar TI como um conjunto de silos e passar a vê-la como provedora de serviços. “Parece uma questão óbvia, mas essa mudança é crucial”, constata.
Esse talento, prossegue, deve reunir características multidisciplinares. “Normalmente, o profissional de TI especializa-se em uma determinada tecnologia. O de cloud precisa ter visão holística. Ele deve enxergar o que há atrás da nuvem”, assinala.
Couto lembra que esse profissional está em falta no mercado e existe uma tendência de capacitação dentro de casa. “O desafio é sair da zona de conforto e buscar multidisciplinaridade. Conhecer mais sobre rede, storage, virtualização etc. A aprendizagem em nuvem vai exigir dedicação”, aponta. O preparo consome, segundo ele, de um a dois anos. “A partir daí, o profissional passa a falar a língua da nuvem”, acredita.
O estrategista da HP afirma que investir em certificações será diferencial importante na carreira. Por aqui, começam a chegar treinamentos na área. A HP, explica Couto, tem uma série de especializações no setor. Ele afirma que o profissional tem de seguir uma trilha de cursos para tornar-se arquiteto de cloud, que incluem aulas para passar a ser administrador de nuvem, integrador de nuvem e, por fim, arquiteto de cloud.
Os treinamentos em cloud da HP estão sob o guarda-chuva HP ExpertOne e são ministrados pela HP Education Services e empresas parceiras como Cybertron, INDC e NSL. Os materiais de estudo são fornecidos pela HP e as companhias de treinamento. Couto lembra que os interessados também podem comprar livros para estudar e depois realizar a prova aplicada pela Pearson VUE. “O HP ASE Cloud Architect Official Exam Certification Guide (Exam HP0-D14) pode ser encontrado em diversas lojas virtuais, como a Amazon”, indica.
Reportagem recente publicada no site Infoworld nos Estados Unidos listou quatro competências que os profissionais devem ter para se tornarem uma arquiteto de cloud de sucesso. Veja abaixo.
1. Compreender a maior parte das tecnologias de computação em nuvem, tanto privada quanto pública
Tente acompanhar o assunto por pelo menos um mês. É cansativo. Contudo, aqueles que criam soluções em nuvem precisam ter uma compreensão holística da tecnologia disponível, incluindo sua função e uso corretos. Isso significa compreender todos os produtos OpenStack e CloudStack, as ferramentas de gestão, as soluções de segurança em nuvem e, é claro, onde os Amazon Web Services – AWS se encaixam nessa mistura.
2. Saber as melhores práticas arquitetônicas de até 20 anos atrás
A habilidade de projetar soluções em nuvem é baseada em procedimentos arquitetônicos e métodos antigos. Caso você compreenda o que eles são e tenha experiência na utilização dessas abordagens, não correrá o risco de reinventar a roda no mundo da computação em nuvem. Isso inclui conhecer arquitetura orientada a serviço (SOA) e outras arquiteturas corporativas mais tradicionais.
3. Repensar o que não funciona e buscar o que funciona
Grande parte do trabalho do arquiteto de computação em nuvem é testar coisas novas, ver se elas funcionam e, caso não funcionem, encontrar alternativas. Os melhores arquitetos são abertos em relação à utilização da tecnologia e estão sempre buscando a melhor solução. Mas lembre-se: só porque algo funciona não significa que seja a solução correta.
4. Vontade de compreender e trabalhar com o negócio
Soluções de computação em nuvem bem-sucedidas são aquelas que atendem diretamente as necessidades do negócio e os arquitetos da nuvem precisam compreender o negócio e trabalhar diretamente com as partes interessadas. Muitos profissionais da tecnologia tendem ficar presos a uma tecnologia e não chegam a compreender os problemas centrais do negócio que precisam ser solucionados. Isso não leva a algo bom.