8 dicas para melhorar a performance da rede corporativa
Uma boa gestão dos ambientes pode refletir na melhoria do desempenho. Confira algumas medidas simples que podems ser adotadas pela TI.
Encontrar e resolver problemas na rede não é tarefa fácil. A questão vai além de identificar e prever possíveis gargalos. Para não correr riscos, o departamento de TI precisa conhecer profundamente a infraestrutura e a dinâmica de tráfego de voz e dados.
Acompanhe oito dicas de especialistas voltadas a trazer ganhos significativos de performance nas redes corporativas, em especial, para acompanhar a velocidade de crescimento das organizações:
1 – Atualização
Não são raros os casos em que os departamentos de TI têm a ingrata tarefa de adaptar plataformas velhas às infraestruturas de última geração demandadas pela empresa. O resultado é um sistema de virtualização ultra moderno rodando em meia dúzia de máquinas com WinNt4.
Ficar preso ao passado custa caro em termos de tempo e velocidade, além de fragilizar as decisões de negócio. Não fique noites e mais noites remoendo a melhor maneira de transferir um sistema septagenário para a nova estrutura. Sim, modernizar custa mais caro, mas o retorno é garantido.
2 – Testes e ensaios
Não tem desculpa. Pelo preço de um servidor é possível criar uma estrutura monstruosa para ensaios de performance de sistemas. Por 1.500,00 dólares pode-se comprar um equipamento com processador dual core e, no caso das aplicações, para fugir de custos com licenças, há a opção do VMware em Linux ou o VMware ESXi.
Combine uma estrutura nesses moldes com ferramentas como GSN3 e qualquer teste de rede ou infraestrutura de sistemas poderá ser realizado. Uma excelente solução para identificar gargalos e encontrar a configuração de memória e recursos ideais para o servidor.
3 – Esteja sempre alerta
O monitoramento de rede e de sistemas é essencial para localizar mazelas que atrasam o andamento das coisas. Normalmente, o problema de lentidão não é culpa da rede, e, sim, do usuário, mas, a não ser que seja possível encontrar os potenciais erros, sua empresa estará entregue às dores causadas por reclamações.
Se a opção for por sistemas proprietários ou software livre, não importa. Existe uma base de recursos quase infinita para observar todos os aspectos essenciais, de latência e de carga até a performance da área de armazenamento em rede (SAN - Storage Area Network) e a requisição de discos. Desenvolva gráficos para otimizar a interpretação dos dados colhidos.
Já que a empresa decidiu usar ferramentas de monitoramento, a sugestão é ficar de olho em todos os processos: utilização da CPU dos roteadores e switches, análise do log de erros nas interfaces Ethernet e problemas de endereçamento IP.
4 – Auto-conhecimento
Monitoramento é uma parte da gestão eficiente da rede. Mas, o que fazer quando os aplicativos comem os recursos disponíveis? Para muitos profissionais de TI, o funcionamento detalhado de como os processos se dão dentro de um ambiente de software beira a mistura entre magia negra e astrologia.
Muitos fornecedores de software se dão por satisfeitos depois de vender e implementar um sistema na rede do cliente, e, sinceramente, deixar que isso aconteça significa menos trabalho para a indústria de TI. O problema está na hora em que o sistema.
Invista algum tempo em ensaios com os aplicativos e mantenha o olho aberto às possíveis falhas do programa. Execute todos esses testes antes de investir na aquisição do aplicativo. Prevenir ainda é melhor que remediar.
5 – Capacidade é rei. Desempenho, imperador
Agora existem no mercado discos rígidos SATA de 2TB de capacidade. É fácil partir desse pressuposto para a conclusão apressada de que basta espremer o máximo de discos rígidos em um rack, e pronto, seus problemas acabaram. Cuidado. Se por um lado a capacidade dos discos de 2TB é uma mão na roda, eles herdam de seus antecessores, os discos de 1TB, uma importante característica: a velocidade de 80 IOPS (operações de entrada e de saída por segundo).
Partindo do princípio que os dados nos discos da empresa não são estáticos, a performance com discos de 1TB irá prover muito mais satisfação que seus primos com o dobro da capacidade.
Servidores de e-mail e bases de dados são um exemplo clássico de discos que necessitam de alta performance. Deixe os discos mais robustos para as tarefas de armazenamento.
6 – Cuidado com a matemática
A empresa resolve virtualizar um conjunto de 100 computadores, munidos com processadores de clock 1GHz, 1 GB de RAM e tráfego de discos na casa dos 250 IOPS. O ábaco diz que uma máquina com oito processadores de seis núcleos cada, armada até os dentes com 128MB de RAM, deveria dar conta dessa tarefa com relativa tranquilidade, não é? Quase. Lembre que haverá necessidade de 140 discos Fiber Channel a 15mil RPM ou SAS (Serial Attached SCSI) instalados no sistema para prover o tráfego de dados esperado. Não reduza tudo à performance de processamento.
7 – Desduplicação ou não, eis a questão
Com o aumento exponencial do volume de dados, a melhor solução é partir para a procura por recursos que economizem os caros terabytes. Uma das modalidades que podem ajudar nisso é chamada de desduplicação. Equivale a eliminar toda a "sujeira" que, automaticamente, é armazenada no processo de backup dos dados, e salvar apenas o que interessa. Há excelentes soluções para backups "limpos" rodando em estruturas que possibilitam o resgate automático de eventuais dados perdidos.
Mas, como toda grande ideia, existem os pontos falhos nesse esquema. O principal entrave é o volume de trabalho necessário para manter as engrenagens lubrificadas. Não é de espantar que a NetApp, um dos grandes no segmento de comercialização de discos SAN, inclua em sua oferta a desduplicação de discos primários e o upgrade de performance de controladores de disco com base em módulos de aceleração. O trabalho de identificar e consolidar blocos duplicados em dispositivos de armazenamento é absurdo, bem parecido com o preço.
8 – Turbine o backup
O processo de backup é, normalmente, mais lento do que se gostaria, e acelerar esse isso remete mais à arte do que à técnica. E existe um problema que tira o sono dos profissionais responsáveis por esse trabalho.
Se o processo de backup se dá diretamente na fita, é bastante provável que os drives estejam subnutridos. A geração de drives atual, baseada em LTO4 - que deverá, em breve, ser substituída por LTO5 -, possui, teoricamente,capacidade de tráfego de dados igual a 120Mbps, coisa que praticamente ninguém viu acontecer ainda. Ocorre que dificilmente o resto do conjunto está à altura de tal velocidade de gravação.
Em ambiente de ensaio, um par de discos SAS dispostos num modelo RAID1 pode ser capaz de produzir muito além dos 120Mbps, mas, de volta a realidade, uma cópia de arquivos via rede em um ambiente Windows, com raras exceções irá ultrapassar os 60MBps.
Ocorre que a performance dos drives de fita cai radicalmente quando os buffers não estão ocupados. Trocando em miúdos: o problema não está nos drives de fita, e, sim, nos dispositivos de armazenamento. Parece não haver solução a não ser um investimento expressivo em backup entre discos, mas sempre haverá a opção por um SAN.
Fonte: computerworld