terça-feira, 10 de agosto de 2010

Pisando com cuidado na virtualização 2.0

Por Arthur Cole
Até agora, a maioria das empresas está no caminho certo em busca do pleno funcionamento em um ambiente virtual. A exteriorização de servidores já se iniciou, alavancando um processo de terceirização de armazenamento, redes e infraestrutura de PCs.

O objetivo inicial, é claro, é a consolidação financeira. Foi um golpe de sorte que a tecnologia tenha vindo a tempo de as empresas economizarem custos no provisionamento de orçamento para novos hardwares e com a armazenagem de dados.

Mas mesmo que mais empresas estejam ampliando suas infraestruturas virtuais, as taxas de utilização permanecem obstinadamente baixas em muitas organizações. Os fornecedores se aplicam na obtenção da capacidade de consolidar centenas de máquinas virtuais em um único servidor.

E, embora esses números devam aumentar progressivamente ao longo dos próximos anos, o fato é que a maioria das empresas que adotaram a virtualização dizem que essa tecnologia tem sido aplicada a pouco mais de um terço de sua infraestrutura de data center, segundo a empresa de soluções de negócios CDW . Há ainda muitas pessoas desconfiadas de que o processo de mudança não seja tão sutil quanto se acreditava.

"Existem alguns fatores que nós vemos como inibidores de uma adoção mais generalizada", diz Nathan Coutinho, gerente de soluções de virtualização da CDW. "Primeiro, você tem que levar em consideração os custos. Os tempos são difíceis e as empresas estão optando por períodos de análise mais longos e duros antes de assumirem novos custos com tecnologia. Embora a virtualização tenda a poupar dinheiro no longo prazo, algumas empresas evitam os custos de transição.

Liderança de Alta Performance!



"Em segundo lugar, você tem o nível de conforto com a tecnologia atual. As novas tecnologias exigem dos funcionários o conhecimento para manutenção".

Há também o fato de que muitas organizações decidiram implementar ambientes virtuais como parte do ciclo normal de atualização de hardwares postergando o processo.

Ainda assim, a adoção da virtualização poderia ter sido ainda mais lenta, se não fosse o objetivo de diminuir o consumo de energia dos data centers, que impactam diretamente o resultado final da empresa e foram revistos no processo de renovação de hardwares. Isto se torna ainda mais crítico quando se imagina que algum dia, as empresas terão talvez 15% de seus servidores e outros recursos consumindo considerável quantidade de energia mesmo quando não estão realizando nenhum trabalho significativo.

"Há duas maneiras de medir a utilização do servidor", diz Mark E. Stumm, vice-presidente de marketing de produtos da desenvolvedora de software de gestão de desempenho nlyte. "Existem servidores que ficam ociosos esperando por trabalho útil, e há servidores que executam aplicativos que não são mais necessários ou utilizados por uma organização e são consideradas órfãs ou abandonados. Esses aplicativos abandonados podem ser movidos para uma máquina virtual, desativando o servidor e recuperando o espaço e a capacidade de refrigeração para suportar um crescimento necessário de uma outra estratégia. Os CIOs devem se esforçar para manter uma porcentagem abandonada do servidor na faixa de 1% a 2%."

A necessidade de empregar a virtualização como parte de uma ampla estratégia de utilização e eficiência também pode, de fato, estar dificultando as implantações de virtualização. Em vez de simplesmente adicionar uma camada virtual na parte superior das atuais infraestruturas físicas, as organizações têm reformulado os seus sistemas de gestão global, criando novos sistemas de gestão multicamadas, que podem se estender pelas arquiteturas, física, virtual e em nuvem. Estes sistemas estão muito longe das tecnologias de gestão anteriores, que se limitam a rastrear o caminho onde os dados e aplicações residem e racionalizar o processo de provisionamento de novos recursos. As plataformas de hoje combinam monitoramento e análise em tempo real com a habilidade de procurar dinamicamente a capacidade disponível e o poder de computação para ser dinamicamente virtualizado e de uso imediato.

Liderança de Alta Performance!



Com a virtualização oferecendo a capacidade de alocar recursos de forma mais estreita em sintonia com as necessidades dos usuários, a gestão desses recursos torna-se mais orientada por uma política, do que por um hardware e software, de acordo com Stephen Elliot, vice-presidente de estratégia de gestão de infraestrutura e automação da CA.

"Estamos ouvindo dos clientes que os próximos anos se basearão em como otimizar os serviços de negócio em arquiteturas virtuais e integrá-los a sistemas físicos," diz ele. "Empresas e provedores de serviço estão pedindo uma visão integrada dos serviços de negócio, buscando a capacidade de ver o serviço em níveis de profundidade e, em seguida, verificar potenciais problemas de storage, servidores, aplicativos, redes e sistemas. Os clientes também estão procurando fazer estudos e análises de causa raiz para agilizar o tempo de identificação e resolução de problemas, visando o uso racional do esforço de trabalho nesse novo ambiente."

Embora o desenvolvimento da capacidade de gestão, eventualmente produzirá uma arquitetura mais eficiente e simplificada, é fácil entender porque muitas empresas adotaram um ritmo mais lento na mudança para uma infraestrutura virtual. O velho paradigma da ideia de um-usuário-para-um-PC-para-um-servidor foi simples de entender, embora um pouco pesado no sentido físico. Mas quando você entra em um mundo de constante transferência de recursos, aplicações e cargas de dados, muitos executivos de TI se portam da forma correta ao ter cautela, certificando-se que os usuários podem lidar com o novo ambiente antes de colocá-lo em situações reais de trabalho.

Uma das chaves para dominar a virtualização é a compreensão da nova relação entre hardware e software. Agora que as duas entidades estão amplamente separadas no âmbito da infraestrutura global, o truque é assegurar que os aplicativos sejam dirigidos ao conjunto adequado de recursos - em suma, torna-se mais uma tarefa de gestão e políticas ao invés de questões propriamente físicas.

"A virtualização apresenta dois principais desafios que se aplicam à gestão de aplicações - a compreensão do impacto do compartilhamento de recursos e a garantia de que os recursos adequados sejam fornecidos para suportar cargas de trabalho existentes e novas aplicações," diz John Newsom, vice-presidente e gerente geral de gestão de aplicativos da Quest Software.

"A chave para racionalizar ambientes de aplicações é primeiro determinar como os quatro principais recursos - CPU, memória, disco e rede – suportam aplicações no âmbito de objetivo de níveis de serviço, desempenho e disponibilidade. Em seguida, as organizações precisam compreender as relações e interações entre todos os componentes da infraestrutura virtual e suas relações com as aplicações. Finalmente, com estas dependências compreendidas, as equipes de TI precisam acompanhar o desempenho de cada componente de suporte às aplicações e correlacionar esses dados de modo que sejam compreensíveis pelos proprietários de serviços e de outros na gestão de TI."

Não é uma surpresa que o que inicialmente parecia uma utilização de recursos relativamente simples acabou sendo algo mais complicado e mais benéfico no geral para a funcionalidade dos data centers, do que a maioria das pessoas imaginavam.

No final, a virtualização é como uma barra de chocolate: O sabor é muito doce e ela fornece alguns benefícios significativos à saúde. Mas se você comer muito rápido terá uma dor de barriga.

Liderança de Alta Performance!



Faça parte do grupo do maior instituto de Service Desk/ suporte do mundo!



Saiba das últimas novidades do mercado de Service Desk/ suporte

Nenhum comentário:

Postar um comentário