Otimizando o gerenciamento de TI – Parte 2

Gerenciamento de Desktops

Esta é a parte mais conhecida pela maioria dos usuários de informática.


Em algumas empresas o esforço se concentra quase que exclusivamente nesta
etapa sendo o papel da equipe de TI, manter em funcionamento todo o aparato
de informática, abrindo chamados, realizando manutenção preventiva e corretiva.
É a famosa equipe de apagadores de incêndio. Neste tipo de empresas não raro
encontramos gestores que encaram a TI e suas variantes como um mal necessário,
não sendo a mesma(TI) utilizada como diferencial na cadeia de valor do produto
ou serviço oferecido.

Até bem pouco tempo atrás, esta atividade era bastante simplificada, pois
“havia poucos fornecedores no mercado.“ NEXTG(2005) Hoje porém “novas empresas
fornecedoras de Hardware e Software ampliaram consideravelmente
a oferta de opções, tornando mais complicado o processo de escolha.“NEXTG(2005).

Devido a isso, é bem comum encontrarmos nas empresas de pequeno e médio porte,
uma grande diversidade de equipamentos de diferentes marcas, modelos e configurações
num mesmo local. Quando não, os equipamentos são integrados por pequenas empresas,
que montam suas configurações baseadas no preço do mercado. É fácil encontrar
computadores comprados no mesmo lote que deveriam possuir o mesmo Hardware,
mas que, possuem Hardware diferente em cada micro. Ademais, encontramos
múltiplos sistemas operacionais e Softwares rodando no mesmo local.
Corriqueiro é o fato de se utilizar sistemas inadequados no setor empresarial.
“O mercado brasileiro, entretanto, não entendeu esta distinção entre a linha
doméstica e corporativa de desktops, adotando o Windows 9X como sistema
para estações de trabalho. Este fato diminuiu bastante o nível de confiabilidade
da família Windows percebido pelo mercado, já que produtos criados para o
mercado doméstico foram (e ainda são) utilizados no mercado corporativo.”
BADDINI (2004)

Toda esta enorme sopa de tecnologia tem causado um elevado custo no gerenciamento
de desktops. Vamos analisar o porquê, utilizando um exemplo fictício,
mas que ocorre muitas vezes no dia-a-dia. O micro do usuário fictício José
sofre uma pane. O pessoal do suporte se dirige até o local. O técnico responsável
pelo chamado percebe que houve uma queima no processador do micro. Ele retira
a máquina do local e vai para o departamento atrás daquele processador. (Um
micro backup não é instalado pois o técnico logo voltará com a máquina
e um novo processador.) Chegando no departamento o técnico descobre que não
existe nenhum processador igual a aquele para substituir, não há nenhuma máquina
igual parada para que seja canibalizada. O técnico busca com os fornecedores
do equipamento o material para reposição. Logo descobre que o fornecedor (empresa
integradora) não disponibiliza material para reposição, pois seus produtos
são importados. É escolhida uma máquina backup para o usuário. Como
a aquisição de um novo processador precisará passar por autorização(O que
geralmente não é rápido), o técnico decide então realizar um backup
das configurações do disco antigo e passar para o computador de backup.
Após toda esta tarefa, o computador de backup é devolvido ao usuário.
Isto parece pouco, mas para um usuário mediano, que possui seus 3GB´s de informação,
sendo na sua grande maioria e-mail´s, todo este processo pode demorar
até 4 horas, sem contar as horas em que o usuário José ficou sem seu equipamento.
Isto tudo causado devido a não existir padronização dos equipamentos utilizados.

“Estudos do Instituto de pesquisa Gartner mostraram que as empresas que
não mantém um gerenciamento adequado de Hardware e Software
distribuídos podem registrar um aumento anual da ordem de 7% a 10% no custo
total de propriedade.” NEXTG(2005).

Os custos não estão apenas embutidos no gerenciamento dos PCs, que por sinal
é fase conhecida por todos, mas por todo o ciclo de vida dos mesmos. Segundo
NEXTG(2005) o ciclo de vida dos PCs pode ser dividido em quatro fases principais:
avaliação, distribuição/migração, gerenciamento e desativação/renovação.

Vamos analisar algumas delas mais detalhadamente.

Avaliação

Esta é a fase que antecede a aquisição de qualquer equipamento. É necessário
conhecer as reais necessidades de cada usuário. Tratando-se de corporações,
as necessidades dos usuários podem ser agrupadas por departamentos ou funcionalidades.
Isto tem de ser feito visando atender as reais demandas dos usuários. Assim,
logo perceberíamos que os usuários do departamento comercial, não precisariam
de tanto processamento e memória RAM quanto os usuários que trabalham com
aplicações CAD/CAM da área de desenvolvimento de produtos. Este dimensionamento
e planejamento da capacidade dos desktops é chamado de “Sizing
NEXTG(2005). Também é preciso “verificar a necessidade de mobilidade dos profissionais
de campo e que costumam participar de reuniões externas com clientes e fornecedores,
ou os que viajam com grande freqüência.”NEXTG(2005). Este levantamento pode
ser realizando, habilitando os LOGs de desempenho dos sistemas utilizados
pelos usuários, e verificando o uso de processador, memória e armazenamento.
A partir de um histórico do dia-a-dia, é possível elaborar projeções futuras
quanto ao uso do equipamento e escolher um equipamento base para todos usuários
que realizam aquelas mesmas tarefas.

O importante desta fase, é justamente entender as reais necessidades do
usuário, para que se possa disponibilizar um equipamento adequado e que possa
acompanhar os avanços tecnológicos em um determinado período.

“Optar pela adoção de um ambiente padronizado (com produtos de um único
fabricante ou de poucos fornecedores) são outras atitudes que podem trazer
grandes benefícios, entre os quais facilitar o suporte, agilizar a resolução
de problemas, facilitar a atualização de antivírus e programas aplicativos
e otimizar o treinamento de usuários, além de reduzir custos.” NEXTG(2005)

Distribuição
/ Migração

DISTRIBUIÇÃO

É aqui onde a maioria dos problemas ocorrem! O trabalho de distribuição
e migração exige um preparo especial da equipe que irá realizá-lo, pois terá
de lidar com problemas de ordem tecnológica e comportamental (dos clientes).
Alguns usuários influentes, são capazes de afundar projetos, se não existir
um tratamento especial para com suas necessidades. Os usuários “acabam requerendo
horas do pessoal técnico da área de suporte e help desk para configurar
Software nos seus equipamentos.“ NEXTG(2005)

Algumas empresas realizam a instalação de seus Softwares(distribuição),
um a um. Esta não é uma boa opção, devido ao tempo necessário para realizar
esta tarefa. O uso de imagens pré-definidas com todas as necessidades dos
usuários, pode “melhorar os níveis dos serviços e remover riscos”SYMANTEC(2005)
pois todo o processo terá a menor intervenção humana possível e isto trará
“facilidade de uso, funcionalidade integrada, adaptabilidade e a segurança
” SYMANTEC (2005)de que os gestores precisam.

Um comparativo pode ajudar a esclarecer o diferencial que esta metodologia
agrega.

Para se instalar um sistema operacional como o Windows 2000, XP ou Linux
Conectiva 8 em diante, gasta-se:

Tabela 1: Implementação de sistemas manualmente

Tempo em Min

Tarefa

20

Preparação do armazenamento.

75

Instalação e cópia do
sistema operacional.

15

Config. de opções comuns(rede,segurança,antivírus)

30

Instalação de utilitários
(Editor de texto, planilhas, etc)

TOTAL

2 horas e 20 minutos

Fonte: Levantamento realizado pelo autor na Hesselbach Company

Se o equipamento já vier do fabricante com sistema operacional, teremos
um total de 45 minutos por equipamento. Isto pode ser um valor irrisório para
uma empresa que possui 10 computadores. Mas em empresas que possuem 100 destes,
já teríamos uma soma considerável.

O fato é que este trabalho de distribuição dos Softwares pode ser
facilitado, por meio do uso de imagens padrão. O trabalho fica reduzido a
aproximadamente 20 minutos por computador. Mas isso só é possível a partir
do momento em que existe uma padronização do Hardware que irá receber
a imagem. O processo é realizado da seguinte forma: Um técnico escolhe um
desktop que seja igual aos que serão distribuídos. Neste desktop
instala-se o sistema operacional, antivírus, Softwares (aplicativos,
utilitários, etc). Com a matriz pronta e funcional, inicia-se o processo de
duplicação da mesma. Utilizando um Software de clonagem(como o Ghost
da Symantec) realiza-se uma cópia de todo o conteúdo do disco. Está concluída
a instalação do sistema e todos outros aplicativos. Assim teríamos a seguinte
situação:

Tabela 2: Implemetação de sistemas usando imagens padrão

Tempo em Min

Tarefa

10

Replicação da imagem padrão

10

Configurações de rede
e outros

TOTAL

20 minutos

Fonte: Levantamento realizado pelo autor na Hesselbach Company

Este processo em si já se mostra bastante vantajoso, mas ainda é possível
“criar uma imagem de um PC ou servidor Windows, utilizando a tecnologia de
criação de imagem de arquivo ou setor e, simultaneamente, implantar centenas
de PCs em toda a rede em questão de minutos” SYMANTEC(2005)

O uso de imagens trás inúmeras vantagens, pois “esse trabalho pode ser feito
de forma remota por meio de ferramentas específicas baseadas em rede. A configuração
automatizada reduz os riscos de erros humanos e estabelece maior padronização
e confiabilidade.” NEXTG(2005). Para a INTEL(2005) existem ainda outros benefícios
na padronização e uso de imagens padrão como: Facilidade na implementação
de correções (fixes) e pacotes de atualizações (patches). Facilidade
na resolução de problemas. Diminuição de custos na requalificação da plataforma.
Possibilidade de realizar manutenção pró-ativa.

Segundo a INTEL(2005), é possível melhorar o gerenciamento das configurações
nos desktops por reduzir a complexibilidade e por diminuir a variabilidade
das plataformas instaladas.Talvez algumas variáveis não possam ser modificadas,
como por exemplo a localização geográfica, onde as plataformas estão instaladas.
A INTEL(2005) sugere que seja minimizado o número de configurações de Hardware
e Software implementadas por toda a empresa. Assim, o pessoal de TI
poderá remediar os problemas mais rapidamente devido a pequena quantidade
de imagens necessária para manter e atualizar.

Em algumas empresas utiliza-se plataformas RISC, CISC, UNIX, Windows, LINUX
e cada uma delas possui uma equipe especializada para suporte e manutenção.
Isso dificulta a integração, aprendizado, manutenção, suporte e aumenta em
muito os custos.

Um levantamento do grupo Giga information apud INTEL(2005) diz que os custos
em uma organização média, que implementa a padronização de sua plataforma
pode gerar a diminuição de $ 1,586 por PC.

->Continuar artigo

Back To Top