Existe um lado obscuro no mundo das máquinas virtuais. É um segredo que os grandes centros de TI conhecem bem, mas que não é muito divulgado
Poucas áreas da tecnologia têm recebido mais atenção nos últimos dez anos do que a virtualização de servidores. E por uma boa razão. Dez anos atrás, as empresas em geral estavam sofrendo sérios problemas com servidores dispersos. "Uma aplicação, um servidor", era o grito de guerra nos departamentos de TI. Segurança e desempenho previsível tinham prioridade sobre a eficiência e a utilização dos equipamentos.
Os hipervisores e máquinas virtuais ajudam a colocar a casa em ordem ao permitir que múltiplas aplicações compartilhem memória, poder de processamento e outros recursos, no mesmo servidor físico. A virtualização reduziu os custos e fez com as áreas de TI se tornassem mais ágeis.
Mas existe um lado obscuro na virtualização. É um segredo que os grandes centros de TI conhecem bem, mas que não é muito divulgado na mídia, e isso certamente não é culpa dos vendedores que oferecem soluções de virtualização. E o segredo bem guardado consiste no seguinte: as tecnologias de virtualização tradicionais são excepcionais para lidar com o trabalho de base, mas são inadequadas para aplicações críticas para as organizações executarem processos corporativos mais importantes e sensíveis, como aqueles que regem o relacionamento com os clientes, as transações financeiras e as cadeias de suprimentos.
Os motivos têm a ver, em grande medida, com desempenho e segurança. A virtualização trabalha com o princípio de compartilhar recursos, que são agrupados em um ambiente virtual. Este princípio funciona bem para aplicações que não requerem muito poder de processamento e memória, mas isso não se aplica para aquelas de maior criticidade e risco. Os ERPs, por exemplo, são conhecidos pelo uso intensivo de recursos. Insira-os em um ambiente compartilhado e, de repente, você terá um cenário darwiniano, no qual as aplicações de maior porte consumirão todos os recursos e criarão gargalos de desempenho para as demais.
A segurança e a conformidade são a segunda grande área de preocupação quando se trata de rodar aplicações críticas em ambientes virtualizados. Uma vez que os servidores virtuais compartilham recursos, é mais difícil (se não impossível) isolar ou reverter aplicações e cargas de trabalho específicas para segurança. Promover auditoria nessas aplicações quanto à sua conformidade, portanto, torna-se um problema.
Por todas essas razões, a virtualização chegou ao auge no mundo das aplicações de missão crítica. O Gartner estima que cerca de 70% dos ambientes de servidores foram virtualizados a partir de 2013. Os 30% restantes, que representam em sua maioria cargas de trabalho complexas e com transações intensas, permanecem intocadas pela virtualização.
Particionamento seguro: uma terceira via
Até recentemente, os CIOs que buscavam reduzir os custos e aumentar a flexibilidade de suas aplicações de missão crítica vinham enfrentando uma dicotomia: correr o risco de virtualizar essas cargas de trabalho e esperar que elas não se deparem com contenção de recursos, ou manter suas aplicações complexas trancadas em servidores proprietários dedicados, caros e subutilizados?
Mas com o advento do fabric computing, que utiliza interconexões de alta velocidade para reunir livremente recursos de computação em ambientes flexíveis, as organizações estão vendo uma nova alternativa à virtualização, que oferece redução de custos e flexibilidade de servidores virtualizados sem sacrificar o desempenho e a segurança.
Essa opção envolve a criação de partições seguras e dedicadas dentro de um ambiente fabric com base no padrão de processadores Intel x86. Essas partições são dedicadas a servir a uma aplicação crítica específica, fornecendo a ela toda memória, poder de processamento, armazenamento e outras funcionalidades necessárias para que as cargas de trabalho operem de forma segura e em níveis críticos de desempenho e confiabilidade. Essa abordagem elimina a competição por recursos.
Em essência, essas partições atuam conectadas diretamente em um servidor físico, mas, como elas são baseadas em software e residem em um ambiente fabric de alta velocidade, possuem a vantagem de uma flexibilidade extrema. Partições seguras podem ser disponibilizadas em poucos minutos, removidas ou rapidamente potencializadas para lidar com cargas de trabalho sensíveis. Também podem servir a usuários finais e a unidades geograficamente dispersos. Tudo isso é feito com base em software, e não em hardware.
Para os 30% restantes dos ambientes de TI que não foram virtualizados, estas são boas notícias. Os CIOs não devem fazer concessões em relação às suas aplicações de missão crítica. Eles podem usufruir os benefícios da virtualização a um custo razoável e sem comprometer a segurança e a performance.
Fonte: ComputerWorld