Baixe o app para aproveitar ainda mais
Prévia do material em texto
Gestão de Tecnologia da Informação Fundamentos de Gestão de Infraestrutura de TI Material Teórico Responsável pelo Conteúdo: Prof. Ms Fábio Peppe Beraldo Revisão Textual: Profa. Ms. Selma Aparecida Cesarin 5 • Introdução • Componentes de Infraestrutura • Plataforma de Software e Tecnologias Emergentes Este guia de estudo demonstra a forma de organizar suas atividades para cumprir os propósitos da Disciplina online e objetiva salientar algumas informações importantes sobre esta Unidade, bem como sobre o estudo online em si. Primeiramente, é necessária a conscientização de que a exigência – tanto de estudo quanto de avaliação – da disciplina online é, no mínimo, a mesma que a presencial. Assim, é necessário organizar seu tempo para ler atentamente o material teórico e assistir os vídeos, se houver, inclusive do material complementar. Organize-se também de forma a não deixar para o último dia a realização das atividades de sistematização (pontuada) e fórum (não pontuado). Podem ocorrer imprevistos e, encerrada a Unidade, encerra-se a possibilidade de obter a nota relativa a cada atividade. Especificamente quanto à Unidade 5, o objetivo são os fundamentos de gestão de infraestrutura de tecnologia da informação e governança de tecnologia da informação com COBIT®, além dos fundamentos da TI verde e de como este conceito está mudando o mundo de forma permanente e economizando milhões de dólares em recursos. Falaremos bastante sobre a Gestão da TI, seus objetivos e tarefas. Nesse contexto, a unidade apresenta uma introdução aos Fundamentos da TI e também à Sustentabilidade na Gestão da TI. Para total aproveitamento, leia atentamente o conteúdo teórico e participe de todas as atividades – sem perder o prazo de fechamento da Unidade. Fundamentos de Gestão de Infraestrutura de TI • TI Verde • Virtualização • Planejamento de TI – PDTI 6 Unidade: Fundamentos de Gestão de Infraestrutura de TI Contextualização Fundamentos de Gestão de Infraestrutura de TI Em uma pesquisa realizada pela IDC e Accenture, conforme escreve Giardino (2009), em uma escala de 1 a 5, as 150 maiores companhias instaladas no Brasil receberam nota 2,4 no quesito de melhores práticas em gestão de infraestrutura em tecnologia da informação – contra uma média mundial de 4. “Esse cenário é preocupante, já que o Brasil desponta como uma das economias que mais crescem em investimentos de TI e telecomunicações, superando os países da América Latina e deixando para trás Coréia e Índia, entre os emergentes”, explica Roberto Gutierrez, diretor da IDC. Isso ocorre por várias causas, uma delas é porque as empresas estão utilizando suas verbas orçamentárias concentradas em atividades de manutenção do parque de equipamentos existentes nas suas corporações e não em novas tecnologias e processos ou em inovação. Outro ponto está nas formas de se implementar políticas, que em nosso país estão em fase embrionária. Como se o consumo de energia atual fosse adequado. Recursos de hardware antigos incluindo aí seus processadores, fontes e partes móveis, possuem consumo energético inadequado frente a novas formas disponíveis atualmente, o que acarreta entre outras coisas em ambientes mais quentes, que exigem maior potência dos equipamentos de condicionamento de ar gerando custos que elevam o valor do rateio da área de tecnologia da informação frente ao negócio, fazendo com que as margens de rentabilidade do negócio caiam, ou seja, insuficientes frente à competição por preço entre as empresas globalizadas. Sustentabilidade da Gestâo de TI A TI verde é a nova maneira de pensar em tecnologia não apenas na produção, mas também nas soluções para problemas como lixo tecnológico e impactos ambientais. Da Silva (2012) escreve ainda que, de acordo com o Greenpeace, as grandes potências mundiais já aderiram não somente no desenvolvimento de legislação sobre sustentabilidade, mas também no que tange à filosofia de reduzir custos empregando soluções mais limpas quanto à fonte de energia, equipamentos mais econômicos, que geram menor calor entre outras técnicas. Nosso país também já adotou, mas empresas admitem que o atrativo principal para as políticas verdes ainda é a redução dos custos, o posicionamento da marca e a reputação. Mais de 70% das empresas brasileiras adotaram os benefícios da TI verde; um exemplo é a AmBev, que implantou o sistema da TI verde e reduziu custos, evitou o descarte de mais de 15 mil máquinas no período de 2002 a 2010 e aumentou a vida útil dos computadores. Vamos entender o que isso significa e ver como empresas como, Unilever, Cemig, Fleury, Natura, Banco Bradesco, Banco do Brasil e Petrobrás fazem. 7 Introdução Para a tecnologia da informação de uma organização, a gestão da infraestrutura trata da gestão dos componentes essenciais para sua operação, tais como políticas, processos, equipamentos, dados, recursos humanos e os contatos externos para a sua eficácia global. A gestão de infraestrutura é dividida em categorias de gerenciamento de sistemas, gerenciamento de rede e gerenciamento de armazenamento. Produtos de gerenciamento de infraestrutura estão disponíveis a partir de um número de fornecedores, como por exemplo, a HP-Hewlett-Packard, DELL, IBM, Microsoft e Oracle. Entre outros fins, a gestão de infraestrutura visa a: » Reduzir a duplicação de esforços; » Garantir a adesão aos padrões; » Melhorar o fluxo de informações em todo um sistema de informação; » Promover a adaptabilidade necessária para um ambiente mutável; » Garantir a interoperabilidade entre as entidades organizacionais e as entidades externas; » Manter eficaz a mudança de gestão de políticas e práticas. Apesar de todas as atividades comerciais dependerem da infraestrutura, planejamento e projetos, a gestão efetiva é normalmente desvalorizada ou posta em segundo plano, em detrimento da organização. A Infraestrutura de TI fornece a fundação para servir os clientes, trabalhando com fornecedores e gerenciamento de processos de negócios. Ele define as capacidades da empresa hoje e no futuro próximo. Figura 1: Conexão entre a empresa, os recursos de ti, infraestrutura e business. Adaptado de http://intranet.ibat.ie/ 8 Unidade: Fundamentos de Gestão de Infraestrutura de TI Os serviços que uma empresa é capaz de fornecer aos seus clientes, fornecedores e funcionários é uma função direta de sua infraestrutura de TI. Idealmente, esta infraestrutura deve suportar os negócios da empresa e estratégia de sistemas de informação e as novas tecnologias da informação têm um forte impacto sobre negócios e estratégias de TI, bem como os serviços que podem ser prestados aos clientes. A infraestrutura pode ser vista como a tecnologia ou como grupos de serviços e podemos entender como serviços aquilo prestado pelo hardware e software, plataformas de computação, telecomunicações, gerenciamento de instalações físicas, software de aplicação, gerenciamento de dados, gestão de TI, padrões de TI, TI educação, treinamento, pesquisa e desenvolvimento. A infraestrutura vista como uma perspectiva de plataforma de serviços destaca o valor para o negócio fornecido. Observe: Figura 2: Histórico evolucionário da Infraestrutura de TI 9 Podemos perceber 5 estágios na evolução da infraestrutura. Na primeira figura, vemos um conceito típico da máquina eletrônica de contabilidade entre os anos 30 e 50 do século XX, que era a utilização de grandes máquinas pesadas com software residente no hardware para classificação, inclusão e comunicação de dados. Na figura seguinte, vemos grandes máquinas de propósito geral, conhecidas como mainframes e mais adiante microcomputadores, a partir do final da década de 50 do século passado e vigente até os dias de hoje. Os mainframes foram os primeiros computadorespoderosos que poderiam fornecer compartilhamento de tempo, multitarefa e memória virtual e com poder suficiente para suportar milhares de terminais remotos. A era do mainframe foi um período de computação altamente centralizado, controlado por programadores e operadores de sistemas. Minicomputadores poderosos e mais baratos começaram a mudar esse padrão, permitindo a computação descentralizada customizável para departamentos ou unidades de negócios. A terceira figura mostra um computador pessoal cujo início remonta aos anos 80 do século XX, com o PC da IBM amplamente utilizado pelas empresas americanas. Foram criados para serem sistemas autônomos e somente na década de 1990 é que puderam ser conectados em rede. A quarta figura refere-se à era cliente/servidor, com computadores que usam dados do computador servidor e com clientes em rede, estes servidores proveem os clientes com serviços e capacidades. O trabalho de processamento do computador é dividido entre estes dois tipos de máquinas. O cliente é o ponto de entrada do usuário, enquanto o servidor normalmente processa e armazena dados compartilhados, serve páginas da Web ou gerencia as atividades de rede. O O termo servidor refere-se tanto à aplicação de software quanto ao computador físico no qual o software de rede é executado. O servidor pode ser um mainframe, mas servidores hoje normalmente são versões mais poderosas de computadores pessoais. Distribuir o trabalho por meio de uma série de pequenas máquinas baratas custa muito menos do que os minicomputadores ou mainframes. Por fim, a última figura mostra que em uma rede cliente/servidor com várias camadas, pedidos de clientes para o serviço são manipulados por diferentes níveis de servidores. A partir daí, podemos imaginar uma variação dessa figura, que seria o que chamamos de modelo empresa da internet que usa a tecnologia de rede para internet como o TCP/IP, que permite às empresas vincular diferentes dispositivos e também as redes locais LANs. Ambientes computacionais integrados permitem reunir e distribuir muito mais rápido os dados. Há cinco características importantes de tecnologia da informação, hoje, que atuam como direcionadores à expansão e desenvolvimento de tecnologia. Estes incluem: Lei de Moore e Poder Microprocessamento feita em 65 do século passado e diz que o poder de processamento dobra a cada dois anos. 10 Unidade: Fundamentos de Gestão de Infraestrutura de TI Isso foi possível porque numa CPU construída nos dias de hoje cabem muito mais transistores que as anteriores; fora isso, o custo baixou drasticamente. Para se ter uma ideia, um processador Intel pode conter até 1 bilhão de transistores e pode ser fabricado em grandes volumes com transistores que custam menos de 10-4 centavos a unidade. Isso é um pouco menor do que o custo de um caractere impresso num livro. No futuro, a nanotecnologia, usará átomos e moléculas para criar chips de computador milhares de vezes menores do que as tecnologias atuais permitem. Os nanotubos, que são minúsculos tubos, cerca de dez mil vezes mais finos que um cabelo humano, consistem folhas enroladas de hexágonos de carbono. Foram descobertos na década de 90 do século passado por pesquisadores da NEC, com usos potenciais como fios minúsculos ou em dispositivos eletrônicos e o potencial de servirem como condutores muito poderosos de corrente elétrica. O postulado do armazenamento digital em massa é um tipo de “lei” que demonstra que enquanto a quantidade de informação digital produzida no mundo dobra a cada ano, o custo de armazenamento de informação digital está caindo a uma taxa exponencial. Para termos ideia, entre os anos de 80 e 90 do século XX, as capacidades dos discos rígidos para PCs cresceram a uma taxa de 25% de crescimento a cada ano; porém, depois dos anos 90, o crescimento acelerou para mais de 65% a cada ano. Outro fato está associado ao fator custo de armazenamento de dados, que vem declinando exponencialmente desde os anos 50 do século passado. Desde o primeiro dispositivo de armazenamento magnético, que foi utilizado em 1955, o custo de armazenamento de um kilobyte de dados caiu de forma exponencial, dobrando a quantidade de armazenamento digital para cada unidade monetária gasta a cada 15 meses em média. A Lei Metcalf e Economia de Rede, na década de 1970, descrevia que o valor de uma rede crescia exponencialmente conforme ocorria o aumento na adesão à rede. A demanda por tecnologia da informação tem sido impulsionada pelo valor social e de negócios das redes digitais, que rapidamente multiplicaram o número de ligações reais e potenciais entre os membros da rede. Outro fator complementar à lei Metcalf diz respeito aos custos em declínio, tanto das comunicações, quanto da Internet. Uma das razões para o crescimento da população da Internet é o rápido declínio na ligação entre ela e os custos de comunicação em geral. O custo por kilobit de acesso à Internet caiu, e modems a cabo agora entregam um kilobit de comunicação por um preço de menos de 2 centavos. Por fim, há o fator normas e efeitos de rede, que são padrões de tecnologia, especificações que estabelecem a compatibilidade dos produtos e a capacidade de se comunicar em uma rede, proporcionar poderosas economias de escala. Algumas das normas, arquiteturas e empresas importantes que moldaram a infraestrutura de TI incluem ASCII, UNIX, o TCP/IP, Ethernet, Apple, IBM, Microsoft, Intel, o computador pessoal, e a www. 11 Componentes de Infraestrutura A infraestrutura é composta por sete componentes principais: » Plataformas de hardware de computador, que incluem máquinas, cliente e servidor, bem como mainframes modernos destinados a um único aplicativo dedicado; » Plataformas de sistema operacional, que incluem plataformas para computadores clientes, dominadas por sistemas operacionais Windows e servidores, dominadas por várias formas de UNIX ou Linux. Sistemas operacionais são softwares que gerenciam os recursos e as atividades do computador e atuam como uma interface para o utilizador; » Aplicativos de software empresariais que incluem SAP, Oracle, PeopleSoft, e software para middleware, que são usados para ligar os sistemas de uma empresa aos aplicativos existentes; » Gestão de dados e de armazenamento, que são tratados pelo software de gestão de dados e dispositivos de armazenamento que incluem métodos tradicionais de armazenamento, tais como arrays de disco e bibliotecas de fitas e tecnologias mais recentes, baseadas em rede de armazenamento, como redes de área de armazenamento SANs, que permitem conectar vários dispositivos de armazenamento dedicados em redes de alta velocidade; » Plataformas de redes e telecomunicações, que incluem sistemas operacionais Windows Server, Novell, Linux e UNIX, quase todas as LANs e muitas redes de longa distância WANs que usam os padrões TCP/IP para a rede; » Plataformas de Internet, que se sobrepõem e têm de se relacionar com a infraestrutura da empresa, a rede geral e plataformas de hardware e software. Infraestrutura de Internet inclui o hardware, software e serviços para manter sites corporativos, intranets e extranets, incluindo serviços de hospedagem e software web e ferramentas de desenvolvimento de aplicativos. Um serviço de hospedagem mantém um servidor Web grande, ou uma série de servidores; » Serviços de integração de sistema e consultoria são invocados para a integração de uma empresa que possua sistemas legados com novas tecnologias e infraestrutura e que precise de conhecimentos técnicos para implementação de novas infraestruturas, juntamente com alterações relevantes nos processos de negócios, treinamento e integração de software. Sistemas legados são geralmente sistemas mais antigos de processamento de transações, criados para computadores mainframe ou emtecnologia que sofreu sucessivas atualizações ou mudanças graves, que continuam a ser usados, todavia, para evitar o alto custo de substituí-los ou redesenhá-los. 12 Unidade: Fundamentos de Gestão de Infraestrutura de TI Figura 3: Ecossistema de Infraestrutura de TI Tendências contemporâneas da plataforma de hardware Embora o custo da computação tenha caído, as despesas de infraestrutura de TI têm crescido devido ao aumento do custo de serviços de computação, softwares, e do aumento da intensidade e sofisticação da computação. Plataformas de telecomunicações e computação têm convergido: no nível do cliente, com a fusão de PDAs e telefones celulares, e no nível do servidor e de rede, com a ascensão da telefonia via Internet. Computação em Grid utiliza os recursos ociosos computacionais separados, os computadores geograficamente distantes para criar um único supercomputador virtual. Neste processo, um computador servidor quebra de dados e aplicações em pedaços discretos que são divididos entre as máquinas do grid. A computação em grid ofereceu redução de custos, aumentaram a velocidade computacional e a agilidade. Computação sob demanda, ou computação utilitária, refere-se a empresas que podem atender o pico de demanda de outras pelo poder computacional que possuem e grandes centros de processamento de dados. 13 Isso permite às outras, que usam este serviço, a reduzirem seus investimentos em infraestrutura de TI, investindo apenas em poder de computação, tanto quanto necessário, em média, e pagando por energia adicional. Este acordo oferece às empresas agilidade muito maior e flexibilidade na sua infraestrutura. Computação autonômica é um esforço da indústria para desenvolver sistemas que podem configurar, otimizar, reparar e se proteger contra invasores e vírus. Software de proteção com atualizações de vírus automáticas é um exemplo de computação autonômica. Computação de Borda é um multi-tier, esquema de balanceamento de carga para aplicações baseadas na Web, em que partes do conteúdo do site e de processamento são executadas por servidores menores e mais econômicos. Em uma computação de borda, o cliente solicita o fornecimento de conteúdo como apresentações estáticas, códigos reutilizáveis, enquanto componentes de lógica de banco de dados e de negócios são entregues pelos servidores localizados na empresa. Empresas implantando centenas ou milhares de servidores, muitas descobriram que estão gastando mais em eletricidade para alimentar e resfriar seus sistemas do que quando adquiriram o hardware. O consumo de energia pode ser reduzido por meio da virtualização e de processadores multicore. Virtualização é o processo de apresentação de um conjunto de recursos de computação (como poder de computação ou armazenamento de dados), para que possam ser acessados de forma que não se restrinjam à configuração física ou localização geográfica. Virtualização de servidores permite às empresas executarem mais de um sistema operacional ao mesmo tempo, em uma única máquina. A maioria dos servidores é executada em apenas 10% a 15% da capacidade, e virtualização pode aumentar as taxas de utilização do servidor para 70% por cento ou mais. Um processador de vários núcleos é um circuito integrado que contém dois ou mais processadores. Essa tecnologia permite que os motores de processamento de dois ou mais processadores com as necessidades de energia e dissipação de calor reduzidos para realizar tarefas mais rapidamente do que um chip de recursos simples, com um núcleo de processamento. Plataforma de Software e Tecnologias Emergentes Há cinco grandes temas da evolução contemporânea plataforma de software: » Software de código aberto é um software produzido por uma comunidade de centenas de milhares de programadores ao redor do mundo e está disponível gratuitamente para ser modificado por usuários, com o mínimo de restrições. A premissa de que software livre é superior à de software comercial baseia-se na capacidade de milhares de programadores modificando e melhorando o software a uma taxa muito mais rápida. Em troca de seu trabalho, os programadores recebem prestígio e acesso a uma rede de outros programadores, e adicionais pagos em consultoria e oportunidades de trabalho. 14 Unidade: Fundamentos de Gestão de Infraestrutura de TI O processo de melhoria de software de código aberto é monitorado e auto-organizado por comunidades de programação profissionais. Milhares de programas de código aberto, que vão desde sistemas operacionais até suítes de escritório, estão disponíveis a partir de centenas de sites. Linux, um sistema operacional relacionado com Unix, é um dos mais bem conhecidos softwares de código aberto, e é o S.O. mais rápido do mundo para cliente e servidor; » A ascensão do software de código aberto, particularmente o Linux e as aplicações que ele suporta, tem implicações profundas para plataformas de softwares corporativos como a redução de custos, confiabilidade e resiliência e de integração. Por causa de sua confiabilidade, baixo custo e recursos de integração, o Linux tem o potencial de quebrar o monopólio da Microsoft nos computadores desktop; » Java, uma linguagem de programação orientada a objetos, tornou-se o ambiente de programação principal para a Web e seu uso migrou para telefones celulares, carros, tocadores de música e muito mais. Para cada um dos ambientes de computação em que o Java é utilizado, a Sun criou uma máquina virtual Java que interpreta o código Java de programação para essa máquina. Desta maneira, o código é escrito uma vez e pode ser usado em qualquer máquina para a qual não existe uma máquina virtual Java. Um PC Macintosh, um IBM PC com o Windows, um servidor Sun executando Unix, e até mesmo um telefone celular inteligente ou assistente pessoal digital pode compartilhar o mesmo aplicativo Java. Java é normalmente usado para criar programas pequenos da Web chamados applets, mas também é uma linguagem robusta projetada para lidar com textos, dados, gráficos, som e vídeo e permite que os usuários de PC manipulem dados em sistemas de rede usando navegadores da Web, reduzindo a necessidade de escrever software especializado; » Um navegador da Web é uma ferramenta de software fácil de usar, com uma interface gráfica de usuário para exibir páginas da Web e para acessar a web e outros recursos da Internet; » Software para integração empresarial é uma das prioridades mais urgentes hoje que precisam integrar o software legado existente com a mais recente tecnologia. Substituição dos sistemas isolados que não podem se comunicar com o software da empresa é uma solução; no entanto, muitas empresas não podem simplesmente descartar aplicativos de mainframe legados essenciais. Alguma integração pode ser alcançada por middleware, software que cria uma interface ou uma ponte entre dois sistemas diferentes. Figura 4: Software de Integração Empresarial – EAI contra a Integração Tradicional 15 » Software EAI usa middleware especial que cria uma plataforma comum com a qual todos os aplicativos podem se comunicar livremente uns com os outros. EAI exige programação muito menor do que a integração ponto a ponto tradicional; » Serviços web, componentes de software de baixo acoplamento que usam padrões de comunicação Web, podem trocar informações entre diferentes sistemas independentemente do sistema operacional da linguagem de programação; » Tecnologia de serviços Web é fundada em XML, que foi desenvolvida como uma linguagem de marcação mais poderosa do que a HTML, uma linguagem de descrição de página especificando como o conteúdo aparece em páginas da web. Ao marcar dados com tags XML, os computadores podem interpretar, manipular e trocar dados de diferentes sistemas. Serviços Web se comunicam por mensagens XML via protocolos padrãoda Web, tais como: • SOAP que é um conjunto de regras para a estruturação de mensagens que permite que aplicativos passem dados e instruções para o outro; • WSDL é um framework para descrever as tarefas realizadas por um serviço Web e os comandos e dados que ele vai aceitar, de modo que ele possa ser usado por outros aplicativos; • UDDI permite que um serviço Web para ser listado em um diretório de serviços da Web de modo que possa ser facilmente localizado. Usando estes protocolos, um aplicativo de software pode se conectar livremente para outras aplicações sem programação personalizada para cada aplicação diferente com o qual deseja se comunicar. A coleção de serviços da Web usados para construir sistemas de uma empresa de software constitui uma arquitetura orientada a serviços SOA, que é uma maneira inteiramente nova de desenvolvimento de software para uma empresa. No passado, as aplicações eram separadas e foram escritas para diferentes divisões e tarefas e não podiam se comunicar umas com as outras. Em um ambiente SOA, um único aplicativo pode ser usado e reutilizado como um “serviço” que pode ser usado por outros serviços. Por exemplo, um “serviço de fatura” pode ser o único programa escrito que a empresa responsável para calcular as informações de fatura e relatórios utiliza. TI Verde Também chamada de computação verde, descreve o estudo e a utilização de recursos de informática de uma forma eficiente. TI Verde começa com fabricantes produzindo produtos ecologicamente corretos e incentivando os departamentos de TI das corporações a considerar opções mais amigáveis como virtualização, gerenciamento de energia e hábitos de reciclagens adequadas. 16 Unidade: Fundamentos de Gestão de Infraestrutura de TI O governo também propõem novas regras de conformidade que funcionarão para os centros de dados com a futura certificação verde. Alguns critérios incluem a utilização de materiais de baixa emissão de calor em sua produção (energia) e poluentes, reciclagem, uso de tecnologias alternativas de energia e outras tecnologias tidas como verdes. Todas as empresas estão cada vez mais dependentes da tecnologia e as empresas de pequeno porte não são exceção. Nós trabalhamos em nossos computadores, notebooks e smartphones durante todo o dia, conectados a servidores rodando 24 horas por 7 dias. Por ser o ciclo da tecnologia tão rápido, estes dispositivos tornam-se obsoletos e, em algum momento – mais frequentemente, mais cedo do que mais tarde – dispomos de equipamentos antigos e substituímos por novos. Nós usamos grandes quantidades de papel e tinta para imprimir documentos. Nesse processo, a maioria das empresas desperdiça recursos, na forma de energia, papel, tempo e dinheiro, recursos que poderiam investir para desenvolver novos produtos ou serviços ou para contratar e treinar funcionários. Mesmo que você não seja um ambientalista, é um bom negócio para o seu ambiente de TI verde e cultura. Em poucas palavras, TI Verde é composta de duas coisas: » Minimizar o impacto negativo do uso de tecnologia da informação no ambiente; » Utilizar a tecnologia de informação para ajudar a resolver problemas ambientais. Como você pode ver, estas são quase duas áreas em polos opostos. Em nossa vida, a tecnologia nos ajuda a fazer de tudo, desde enviar uma piada para nossos amigos por email, ou avisar cidades sobre tsunamis e terremotos. Nós precisamos dela, e ela não vai desaparecer tão cedo. Por outro lado, um computador típico é composto de milhares de produtos químicos e se colocássemos todos os computadores do mundo juntos, eles usariam grandes quantidades de eletricidade. O computador contém mais de um Kg de chumbo e um verdadeiro coquetel de produtos químicos, incluindo antimônio, arsênio, boro, fósforo, ácido nítrico, ácido fluorídrico e fluoreto de hidrogênio, só para citar alguns. Seu computador também é rico em recursos minerais: a eletrônica consome dez por cento da produção mundial de ouro, dos quais apenas trinta por cento é recuperado a partir da sucata; também usa muito cobre. Este coquetel tóxico e ineficiente é de onde o lixo eletrônico vem. Isso é muito preocupante e tem a ver, principalmente, com a fome contínua da nossa sociedade globalizada para novos componentes eletrônicos que nos lembra de que a Terra têm recursos finitos. Quando usamos minerais como ouro e prata e não recuperamos, esses minerais são deduzidos da nossa oferta global. Eventualmente, as reservas vão ficar tão baixas que não vamos ter mais esses recursos disponíveis, caso não reciclemos o que usamos. Conforme estudos feitos pela Green IT, um computador desktop típico usa 868 kW de eletricidade por ano. E praticamente todas as empresas no mundo desenvolvido tem um computador de algum tipo. Muitas organizações têm milhares de computadores. Imagine o seguinte: uma empresa com 20.000 computadores. 17 Se calcular as emissões de carbono de 20 mil computadores usando 868kW de eletricidade por ano, equivale a 12.467 toneladas métricas de CO2, lembrando que a matriz energética preponderante no mundo é carvão, que quando queima nas usinas gera esse gás também conhecido como gás do efeito estufa. Essas emissões equivaleriam a: » Emissões anuais de gases de efeito estufa de 2.384 veículos de passageiros; » Emissões de 28.994 barris de petróleo; » Emissões do uso de eletricidade de 1.619 casas por um ano; » Carbono sequestrado por 2.658 hectares de florestas de pinheiros ou eucaliptos. Trocando Ideias Trata-se de apenas uma empresa. Em casa, a maioria das pessoas, nos países desenvolvidos, é suscetível a ter um computador, uma console de jogos ou uma TV. E muitas vezes eles vão ter todos os três, ou mesmo vários computadores e várias TVs. Se tomarmos a população de um país de vinte milhões de pessoas e assumirmos que três quartos dela têm pelo menos um computador, teremos 15.000.000 computadores usando 13.020.000.000 KW por ano. Essa eletricidade custa o equivalente a 935.049 toneladas métricas de CO2. Virtualização Quando as pessoas falam sobre virtualização, elas geralmente estão se referindo à virtualização de servidores, o que significa o particionamento de um servidor físico em vários servidores virtuais, ou máquinas virtuais. Cada máquina virtual pode interagir de forma independente com outros dispositivos, aplicações, dados e usuários, como se fosse um recurso físico separado. Diferentes máquinas virtuais podem executar sistemas operacionais diferentes e múltiplas aplicações ao compartilhar os recursos de um único computador físico. E, vez que cada máquina virtual é isolada a partir de outras máquinas virtuais, se uma falha ocorrer, não afetará as outras. Hypervisor É um software que torna a virtualização possível. Este software, também conhecido como gerenciador de virtualização, fica entre o hardware e o sistema operacional, e desacopla o sistema operacional e os aplicativos do hardware. 18 Unidade: Fundamentos de Gestão de Infraestrutura de TI O hypervisor atribui a quantidade de acesso que os sistemas operacionais e aplicativos têm com o processador e outros recursos de hardware, como memória e disco para operações de I/O. Além de usar a tecnologia de virtualização de uma partição em diversas máquinas virtuais, você também pode usar as soluções de virtualização para combinar múltiplos recursos físicos em um único recurso virtual. Um bom exemplo disso é a virtualização de armazenamento, na qual os recursos de armazenamento de múltiplas redes são agrupados em algo que aparecerá como se fosse um único dispositivo de armazenamento para o gerenciamento mais fácil e eficiente desses recursos. Outros tipos de virtualização podem incluir também: » A virtualização de rede, que divide a largura de banda disponível na rede em canais independentes que podemser atribuídos a servidores ou dispositivos específicos; » A virtualização de aplicativos que separa aplicativos do hardware e do sistema operacional, colocando-os em um recipiente que pode ser realocado sem interromper outros sistemas; » A virtualização de desktops que permite que um servidor centralizado possa fornecer e gerenciar desktops remotamente individualizados. Isso dá aos usuários uma experiência de cliente completo, mas permite que a equipe de TI possa gerenciar, atualizar e corrigi- los virtualmente, em vez de fisicamente. A virtualização foi introduzida pela primeira vez na década de 60 do século XX, pela IBM, para impulsionar a utilização de grandes sistemas de mainframe, dividindo-os em máquinas lógicas virtuais separadas que podiam executar vários aplicativos e processos ao mesmo tempo. Nos anos 80 e 90 do século passado, este modelo de mainframe centralizado, porém compartilhado, deu lugar a um modelo de computação distribuída, cliente-servidor, em que muitos servidores de baixo custo, tipo PC e desktops, poderiam executar de forma independente outros aplicativos. Embora a virtualização tenha desaparecido dos holofotes por um tempo, agora é uma das tendências mais quentes da indústria. Como organizações, visam a aumentar a utilização, flexibilidade e custo-efetividade em um ambiente de computação distribuída, sistemas de virtualização como Citrix, IBM, Oracle, RedHat, Microsoft e VMWare e muitos outros fornecedores oferecem soluções de virtualização. É uma tecnologia considerada verde porque poupa dinheiro. Estimativas indicam que a maioria dos servidores x86 estão funcionando a uma média de apenas 10 a 15 por cento da capacidade total. Com a virtualização, você pode transformar um servidor em uma plataforma multi-tasking, e transformar vários servidores em um pool de computação que pode se adaptar de forma mais flexível às cargas de trabalho em mudança na organização. Isso permite economizar energia, já que as empresas gastam muito dinheiro alimentando a capacidade do servidor que não é utilizado. 19 A virtualização reduz o número de servidores físicos, reduzindo a energia necessária para alimentá- los e arrefecê-los. Economiza tempo, porque com menos servidores, você pode gastar menos tempo com as tarefas manuais necessárias para a manutenção deles. Por outro lado, reunindo muitos dispositivos de armazenamento em um único de armazenamento virtual, você pode executar tarefas como backup, arquivamento e recuperação mais fácil e mais rapidamente. É também muito mais rápido implementar uma máquina virtual do que implantar um novo servidor físico. Por fim, e não menos importante, você irá reduzir dores de cabeça de gerenciamento de desktop, porque a gestão, segurança e atualização de desktops virtualizados permitem que você gerencie a partir de um usuário central, tornando mais fácil para manter desktops atualizados e seguros. Porém, a virtualização não é uma mágica que funciona para tudo. Embora muitas soluções de softwares e aplicativos sejam grandes candidatas para serem executadas virtualmente, as aplicações que necessitam de uma grande quantidade de memória, capacidade de processamento ou de I/O, talvez seja melhor estar ainda hospedadas em um servidor dedicado. Centro de Dados O consumo de energia no centro de dados é predominantemente gasto por meio de duas fontes principais: servidores e refrigeração. O aumento de densidade dos componentes dos servidores é o problema. Uma pesquisa do Gartner mostrou que mais de 69% dos centros de dados estão limitados pela tríade energia, refrigeração e espaço. Servidores que consomem menos energia também geram menos calor, exigindo menos energia para refrigeração. Abordagens alternativas, incluindo armazenamento de gelo e energia geotérmica, ou até mesmo aceitar a geração de calor e focar diretamente na redução do custo de refrigeração do data Center são medidas avaliadas nos dias de hoje. O estado da arte neste nicho é impulsionada em rede de software de gestão de energia tanto para storages, servers e também em outra categoria fora dos centros de dados, para desktops. Estações de Trabalho Considerar a implantação de estações de trabalho de thinclient. Os thinclients não emplacaram como uma forma de reduzir os custos de hardware e manutenção, mas com os custos crescentes da energia, isso adicionou um argumento de venda eficaz. Thinclients utilizam cerca de metade da eletricidade de um PC desktop típicos. SaaS (Software as a Service) É o mais recente avanço na computação. Com aplicações SaaS, a programação e os dados podem existir no servidor, em vez de seus computadores. Isso reduz o custo de compra de software, reduz a demanda por computadores em seu site e reduz o consumo de energia. Alguns exemplos de programas de SaaS são faturamento, folha de pagamento, e videoconferência. 20 Unidade: Fundamentos de Gestão de Infraestrutura de TI E-Fax Elimina a necessidade de aparelhos de fax papel e reduz a demanda de tinta e reduz a conta de telefone. Outros Voz sobre IP ou VoIP reuniu recursos de voz e comunicação de dados com alguns benefícios significativos. Entre eles, a redução da infraestrutura de cabeamento de telefonia e o custo da operação contínua. Hotelling reduz a metragem quadrada necessária por empregado, porque os trabalhadores reservam o espaço somente quando eles precisam. Para muitos empregos como, vendas, consultoria, serviços de campo, não requerem um escritório próprio gastando energia, iluminação e refrigeração, usa-se apenas quando é preciso. Teletrabalho é um conceito que está ganhando força no mundo todo, não só para a redução de espaço, mas por que, de repente, as empresas estão pensando sobre as emissões causadas pelos passageiros dos carros e ônibus que vão até o trabalho e voltam todos os dias. Tecnologias de telefonia tornaram prática a operação de departamentos inteiros do lado de fora da empresa. Planejamento de TI – PDTI Jason Hiner, em 2011, num exercício junto a centenas de CIOs das empresas de tecnologia, comentou em um grande seminário alguns itens que estão norteando estes profissionais chefes da área de tecnologia da informação das empresas a se preocuparem e focarem seus esforços nesses princípios. São eles: » A informação é tão importante, se não mais importante do que a tecnologia da informação; » Mais de 50% dos gastos anuais em projetos será direcionado para melhorar as condições financeiras de uma empresa; » Mais de 50% de todas as informações da empresa e os gastos com TI devem apoiar diretamente a geração das receitas ao invés de processos de despesas relacionadas com negócios. Também foram propostas as atividades que deveriam ser evitadas quando se faz um planejamento: » Rejeitar incompatibilidade anual entre as prioridades do CEO e é a maioria dos projetos financiados; » Terminar o apoio de projetos que não vão melhorar a geração de receita; 21 » Abandonar prioridades do CIO que não suportam diretamente as prioridades do CEO; » Parar de recomendar megaprojetos de TI; » Abolir ambiente de pouca ou nenhuma responsabilidade com gastos com TI; » Encerrar aplicativos existentes que não produzem valor mensurável ao negócio; » Erradicar a fobia a cloud computing; » Premiar os níveis 1, 2 e 3 de suporte técnico; » Parar de esperar projetos não financiados. Plano Diretor de TI Planejamento de Tecnologia da Informação é uma disciplina dentro da Tecnologia da Informação que se preocupa em fazer o processo de planejamento de investimentos de tecnologia da informação e da tomada de decisão de um processo mais rápido, mais flexível e melhor alinhado. O planejamento de TI tornou-se uma disciplina abrangente dentro do Planejamento Estratégico, domínio em que a arquitetura empresarial o utiliza como um de seus vários recursos.Há várias estratégias reconhecidas por oferecer capacidade de planejamento de tecnologia, por exemplo: » Um repositório de dados de aplicativos: ferramentas de planejamento para fornecer um inventário comum de dados de aplicativos, incluindo os custos, ciclos de vida, e os proprietários, para que os planejadores tenham acesso fácil à informação que impulsiona suas decisões; » Mapas de capacidade: servem para vincular as capacidades/recursos para os processos críticos de negócio que eles suportam. Estas ferramentas de software fornecem uma ferramenta gráfica que define claramente como as capacidades/recursos de negócios estão ligadas aos esforços de TI; » Ferramentas de análise de Gap: juntamente com os mapas de capacidade e ferramentas de planejamento, capturam as informações sobre o estado futuro das capacidades/recursos de negócio como ditado pela estratégia de negócios. Usuários aproveitam essa funcionalidade para identificar as áreas nas quais os recursos de TI precisam ser constituídos, melhorados ou reduzidos; » Modelagem e capacidade analítica. Estas ferramentas permitem às equipes de planejamento criar uma variedade de planos nos quais podem ser comparados e verificados os prós, os contras e os riscos de cada um. Além disso, seu impacto sobre a arquitetura e iniciativas em curso se tornam visível. Isso mantém planos, fornece equipes com previsão de planejamento de forma holística e permite que a TI comunique claramente seus planos e objetivos; 22 Unidade: Fundamentos de Gestão de Infraestrutura de TI » Ferramentas de relatórios: servem para orientar as decisões da equipe de planejamento, por exemplo, as aplicações que têm capacidades redundantes, as que não foram atualizadas, ou que sofrem com problemas de alto custo de manutenção. O Plano Diretor de Tecnologia da Informação é um documento complexo de se elaborar devido à sua multidisciplinaridade e investimentos com retorno dependente não apenas do hardware, mas do software também. Veja esta tabela a seguir para conhecer algumas das fases do PDTI: Tabela 1: Fases e documentos componentes de um processo completo de construção de uma área de TI antenada ao negócio da corporação no qual o PDTI é apenas o primeiro componente da segunda etapa. Etapa 1 Missão e Macro Arquitetura de Operações Metodologia Arquitetura de Operação e objetos de Operação Objetos de "Negócios" Arquitetura de Operação e objeto de Operação Identificação das Macro Funções Planejadas para a Empresa Etapa 2 Plano Diretor de Tecnologia de Informação Arquitetura de Processos Aplicações Estratégicas de Tecnologia de Informação Workshop Informática Estratégica Etapas do Trabalho de Pesquisa de usos estratégicos para a TI Níveis de Sistemas a serem planejados Arquitetura de Aplicações Decomposições Primárias dos Processos Essenciais – Projeto Macro das Aplicações Arquitetura de Dados – Metodologia para a Modelagem Corporativa de dados Características Construtivas da Arquitetura de dados Informações Gerenciais e de Integração Componentes da Arquitetura Tecnológica Arquitetura de Organização Componentes da Arquitetura Organizacional Etapa 3 Programa de Implementação do Plano de Tecnologia Planejamento Financeiro e Econômico do Plano de Tecnologia Fonte: http://www.fj.com.br/consultoria-em-pdi.html 23 Partindo da grande padronização que esse assunto possui hoje e sua consolidação em nosso país, peço a você, aluno, que acesse esse documento para a construção de um PDTI. Após sua leitura, você estará apto a entender, criticar e desenvolver um Plano de TI ou colaborar em seu desenvolvimento em sua organização. Ele foi elaborado pelo SEBRAE para favorecer um arranjo produtivo local para pequenas e médias empresas proporcionando diretrizes para a implementação da TI de forma segura. Por favor, acesse em: http://www. fiec.org.br/artigos/tecnologia/PDTI.pdf Também é fundamental a leitura do documento que trata de um Modelo de Referência de Plano Diretor de Tecnologia da Informação, disponibilizado pelo consultor e professor Geraldo Loureiro, num trabalho feito para o Ministério do Planejamento, Orçamento e Gestão encomendado para a Secretaria de Logística e Tecnologia da Informação do Governo Federal. Pode ser encontrado em: http://www.geraldoloureiro.com/wiki/images/d/da/Modelo_ Referencial_(PDTI).pdf 24 Unidade: Fundamentos de Gestão de Infraestrutura de TI Material Complementar Vejamos um contraponto sobre as corporações e seus esforços em se manterem vivas. Para tanto, assista ao filme “A Corporação”. Eu o convido em: » http://www.youtube.com/watch?v=Zx0f_8FKMrY&feature=related; Uma introdução curta e bem direcionada sobre COBIT em: » http://www.klebermota.eti.br/wp-content/uploads/Cobit.PDF; Para dar apoio aos seus estudos, coloquei um link contendo 40 questões de um simulado sobre COBIT: » http://www.ebah.com.br/content/ABAAABQq4AI/simulado-cobit-apostila-trainning; Vídeo introdutório sobre governança de TI que vale a pena assistir em: » http://www.youtube.com/watch?v=5PazBQz7QnQ; Vídeo sobre Governança de TI da Microsoft Technet. Apesar de longo, é excelente, em: » parte 1 - http://www.youtube.com/watch?v=-3Ow5VSpGTg&feature=related; » parte 2 - http://www.youtube.com/watch?gl=BR&hl=pt&v=1WblFx73g4E. Vejamos um pouco mais sobre sustentabilidade nesse vídeo sensacional, “A história das coisas”, disponível em: » http://www.youtube.com/watch?v=zlaiQwZ2Bto; Veja também a história da água engarrafada no link: » http://www.youtube.com/watch?v=AM9G7RtXlFQ; Problema de sustentabilidade abordados na história dos eletrônicos, disponível em: » https://www.youtube.com/watch?v=BZzxU46DBd8 Exemplo de um PDTI, documentação desenvolvida por um órgão federal, bastante completo como referência, disponível em: » https://www.portalsof.planejamento.gov.br/bib/publicacoes/plano_diretor_de_ tecnologia_e_da_informacao1.pdf; Outra referência interessante é este documento, que trata da definição da estratégia de TI e contém perguntas chave para iniciar o PDTI: http://www.slideshare.net/TGTConsult/ plano-diretor-de-tecnologia-da-informao 25 Referências GIARDINO, Andrea. Falta maturidade à infraestrutura de TI das grandes empresas no Brasil, 2009, Computerworld. Disponível em: http://cio.uol.com.br/gestao/2009/09/24/falta- maturidade-a-infraestrutura-de-ti-das-grandes-empresas-no-brasil/. Acesso em: 14 ago. 2012. GIARDINO, Andrea. Accenture aponta quatro grandes desafios para os CIOs, 2009, Computerworld, Disponível em: http://cio.uol.com.br/gestao/2009/05/21/accenture-aponta- quatro-grandes-desafios-para-os-cios/. Acessado em: 14 ago. 2012. Exemplo de um PDTI, documentação desenvolvida por um órgão federal, exemplo bastante completo como referência. Disponível em: https://www.portalsof.planejamento.gov.br/bib/ publicacoes/plano_diretor_de_tecnologia_e_da_informacao1.pdf. 26 Unidade: Fundamentos de Gestão de Infraestrutura de TI Anotações www.cruzeirodosulvirtual.com.br Campus Liberdade Rua Galvão Bueno, 868 CEP 01506-000 São Paulo SP Brasil Tel: (55 11) 3385-3000
Compartilhar