Baixe o app para aproveitar ainda mais
Prévia do material em texto
Internet – Assistente de Gestão Administrativa Autor: Leonardo A Alves INTERNET Assistente de Gestão Administrativa - Informática INTERNET ASSISTENTE DE GESTÃO ADMINISTRATIVA – INFORMÀTICA Organizador Leonardo A Alves INTRODUÇÃO A Internet tem revolucionado o mundo dos computadores e das comunicações como nenhuma invenção foi capaz de fazer antes. A invenção do telégrafo, telefone, rádio e computador prepararam o terreno para esta nunca antes havida integração de capacidades. A Internet é, de uma vez e ao mesmo tempo, um mecanismo de disseminação da informação e divulgação mundial e um meio para colaboração e interação entre indivíduos e seus computadores, independentemente de suas localizações geográficas. A Internet representa um dos mais bem sucedidos exemplos dos benefícios da manutenção do investimento e do compromisso com a pesquisa e o desenvolvimento de uma infra- estrutura para a informação. Começando com as primeiras pesquisas em trocas de pacotes, o governo, a indústria e o meio acadêmico tem sido parceiros na evolução e uso desta excitante nova tecnologia. Hoje, termos como nome@nomedeempresa.com.br (ou nome@nomedeempresa.com.br, no caso do Brasil) e http://www.nomedeempresa.com (ou http://www.nomedeempresa.com.br, no caso do Brasil) são usados diariamente por milhões de pessoas. Nesta análise, muitos de nós envolvidos com o desenvolvimento e a evolução da Internet dão suas visões sobre as origens e a história da Internet. A história envolve quatro aspectos distintos: • a evolução tecnológica que começou com as primeiras pesquisas sobre trocas de pacotes e a ARPANET e suas tecnologias, e onde pesquisa atual continua a expandir os horizontes da infra-estrutura em várias dimensões como escala, desempenho e funcionalidade de mais alto nível; • os aspectos operacionais e gerenciais de uma infra-estrutura operacional complexa e global; • o aspecto social que resultou numa larga comunidade de internautas trabalhando juntos para criar e evoluir com a tecnologia; • e o aspecto de comercialização que resulta numa transição extremamente efetiva da pesquisa numa infra-estrutura de informação disponível e utilizável. A Internet hoje é uma larga infra-estrutura de informação, o protótipo inicial do que é frequentemente chamado a Infra-Estrutura Global ou Galáxica da Informação. A história da Internet é complexa e envolve muitos aspectos - tecnológicos, organizacionais e comunitários. E sua influência atinge não somente os campos técnicos das comunicações via computadores mas toda a sociedade, na medida em que usamos cada vez mais ferramentas online para fazer comércio eletrônico, adquirir informação e operar em comunidade. A ORIGEM DA INTERNET Os primeiros registros de interações sociais que poderiam ser realizadas através de redes foi uma série de memorandos escritos por J.C.R. Licklider, do MIT - Massachussets Institute of Technology, em agosto de 1962, discutindo o conceito da "Rede Galáxica". Ele previa vários computadores interconectados globalmente, pelo meio dos quais todos poderiam acessar dados e programas de qualquer local rapidamente. Em essência, o conceito foi muito parecido com a Internet de hoje. Licklider foi o primeiro gerente do programa de pesquisa de computador do DARPA, começando em outubro de 1962. Enquanto trabalhando neste projeto, ele convenceu seus sucessores Ivan Sutherland, Bob Taylor e Lawrence G. Roberts da importância do conceito de redes computadorizadas. Leonard Kleinrock, do MIT, publicou o primeiro trabalho sobre a teoria de trocas de pacotes em julho de 1961 e o primeiro livro sobre o assunto em 1964. Kleinrock convenceu Roberts da possibilidade teórica das comunicações usando pacotes ao invés de circuitos, o que representou um grande passo para tornar possíveis as redes de computadores. O outro grande passo foi fazer os computadores se conversarem. Em 1965, Roberts e Thomas Merrill conectaram um computador TX-2 em Massachussets com um Q-32 na California com uma linha discada de baixa velocidade, criando assim o primeiro computador de rede do mundo. O resultado deste experimento foi a comprovação de que computadores poderiam trabalhar bem juntos, rodando programas e recuperando dados quando necessário em máquinas remotas, mas que o circuito do sistema telefônico era totalmente inadequado para o intento. Foi confirmada assim a convicção de Kleinrock sobre a necessidade de trocas de pacotes. No final de 1966, Roberts começou a trabalhar no DARPA para desenvolver o conceito das redes computadorizadas e elaborou o seu plano para a ARPANET, publicado em 1967. Na conferência onde ele apresentou este trabalho, houve também uma apresentação sobre o conceito de redes de pacotes desenvolvida pelos ingleses Donald Davies e Roger Scantlebury, da NPL-Nuclear Physics Laboratory. Scantlebury conversou com Roberts sobre o trabalho da NPL e do trabalho de Paul Baran e outros em RAND. O grupo do projeto RAND tinha escrito um trabalho sobre o papel das redes de trocas de pacotes para voz segura quando serviam militarmente em 1964. O que se percebeu então é que os trabalhos desenvolvidos no MIT (1961-67), RAND (1962-65) e NPL (1964-67) estavam se desenrolando em paralelo sem que nenhum dos pesquisadores soubesse dos outros trabalhos. A palavra "pacote" foi adotada do trabalho desenvolvido no NPL e a velocidade de linha proposta para ser usada no projeto da ARPANET foi upgraded de 2,4 Kb para 50 Kb. Em agosto de 1968, depois de Roberts e o grupo do DARPA terem refinado a estrutura e especificações para a ARPANET, uma seleção foi feita para o desenvolvimento de um dos componentes-chave do projeto: o processador de interface das mensagens (IMP). Um grupo dirigido por Frank Heart (Bolt Beranek) e Newman (BBN) foi selecionado. Paralelamente ao trabalho do grupo da BBN nos IMPs com Bob Kahn assumindo um papel vital do desenho arquitetônico da ARPANET, a topologia e economia da rede foi desenvolvida e otimizada por Roberts em conjunto com Howard Frank e seu grupo da Network Analysis Corporation, e sistema de mensuração da rede foi preparado pelo pessoal de Kleinrock na UCLA -University of California at Los Angeles. Devido à teoria de trocas de pacotes de Kleinrock e seu foco em análise, desenho e mensuração, seu Centro de Mensuração de Rede da UCLA foi escolhido para ser o primeiro nó (ponta) da ARPANET. Isso aconteceu em setembro de 1969, quando BBN instalou o primeiro IMP na UCLA e o primeiro servidor de computador foi conectado. O projeto chamado Aumento do Intelecto Humano, de Doug Engelbart, que incluía NLS (um precursor dos sistemas de hipertexto), no SRI-Stanford Research Institute, foi o segundo nó ou ponta. SRI passou a manter as tabelas de "Host Name" para o mapeamento dos endereços e diretório do RFC. Um mês depois, quando SRI foi conectado à ARPANET, a primeira mensagem entre servidores foi enviada do laboratório de Kleinrock para o SRI. Dois outros "nodes" foram acrescentados então: a UC Santa Barbara e a Universidade de Utah. Este dois nós incorporavam projetos de aplicações visuais, com Glen Culler e Burton Fried na UCSB investigando métodos de uso de funções matemáticas para restaurar visualizações na rede e Robert Taylor e Ivan Sutherland em Utah investigando métodos de representação em terceira dimensão na rede. Assim, no final de 1969, quatro servidores estavam conectados na ARPANET e, mesmo naquela época, os trabalhos se concentravam tanto na rede em si como no estudo das possíveis aplicações da rede. Esta tradição continua até hoje. Computadores foram rapidamente adicionados à ARPANET nos anos seguintes e os grupos de trabalho desenvolveram um protocolo servidor a servidor funcionalmente completo e outros softwares de rede. Em dezembro de 1971, o Network Working Group (NWG) gerenciado porS. Crocker, concluiu o primeiro protocolo servidor a servidor da ARPANET, chamado Network Control Protocol (NCP). De 1971 a 1972, os usuários da rede finalmente puderam começar a desenvolver as suas aplicações. Em outubro de 1972, Kahn organizou uma grande e bem sucedida demonstração sobre a ARPANET na Conferência Internacional de Comunicação entre Computadores (ICCC). Esta foi a primeira demonstração pública da nova tecnologia de rede para o público. Foi também em 1972 que o correio eletrônico, considerado a primeira aplicação "hot", foi introduzido. Em março de 1972, Ray Tomlinson, da BBN, escreveu o software básico de e-mail com as funções de "send/enviar" e "read/ler", motivado pela necessidade dos desenvolvedores da ARPANET de ter um fácil mecanismo de coordenação. Em julho, Roberts expandiu a utilidade do e-mail escrevendo o primeiro programa utilitário de e-mail para listar, ler seletivamente, arquivar, encaminhar e responder a mensagens. Dali, o correio eletrônico se tornou a maior aplicação de rede por mais de uma década. Este foi o prenúncio do tipo de atividade que vemos hoje na WWW hoje, ou seja, o enorme crescimento de todos os tipos de aplicações e utilitários agregados pessoa-a-pessoa. OS CONCEITOS INICIAIS DA INTERNET A ARPANET original cresceu e se tornou a Internet. A Internet foi baseada na idéia de que haveria múltiplas redes independentes de desenho arbitrário, começando com a ARPANET como rede pioneira de trocas de pacotes mas logo incluindo redes de satélites, de rádio, etc. A Internet como conhecemos hoje incorpora uma idéia-chave: rede de arquitetura aberta. Nesta abordagem, a opção pela tecnologia de qualquer rede individual não é ditada por nenhuma arquitetura de rede particular e sim escolhida livremente pelo provedor, que a torna capaz de entrar em rede com outras redes pela "Arquitetura de Internetworking". Até aquele período, havia apenas um método para agregar redes: a tradicional troca de circuitos onde redes se interconectavam no nível do circuito, passando bits individuais em base síncrona por um circuito ponta a ponta entre duas localidades. Lembre que Kleinrock tinha mostrado em 1961 que troca de pacotes era um método mais eficiente. Condições específicas de interconexão entre redes era outra possibilidade. Enquanto havia outras formas limitadas de interconectar redes, todas requeriam que uma fosse componente da outra, ao invés de agirem como companheiras no oferecimento do serviço ponta a ponta. Numa rede de arquitetura aberta, as redes individuais podem ser separadamente desenhadas e desenvolvidas e cada uma pode ter sua interface própria que pode ser oferecida a usuários e outros provedores. Cada rede pode ser desenhada de acordo com o ambiente e os requerimentos dos seus usuários. Não há restrições em relação aos tipos de redes que podem ser incluídas numa área geográfica, apesar de algumas considerações pragmáticas ditarem o que é razoável oferecer. A idéia de redes de arquitetura aberta foi primeiro introduzida por Kahn em 1972. Este trabalho foi parte de um programa de pacotes de rádio, mas depois se tornou um programa em separado. Naquele tempo, o programa foi chamado "Internetting". NCP não tinha a habilidade de endereçar redes e máquinas além da destinação IMP da ARPANET e portanto deveria ser mudado. NCP se amparava na ARPANET para prover confiabilidade de ponta a ponta. Se qualquer pacote fosse perdido, o protocolo e qualquer aplicação que ele suportasse iria simplesmente parar a transferência de dados. Nesse modelo, NCP não tinha controle de erro ponta a ponta, uma vez que pensava-se que a ARPANET seria a única rede em existência e ela seria tão confiável que nenhum controle de erro seria necessário por parte dos servidores. Então Kahn decidiu desenvolver uma nova versão do protocolo que iria satisfazer as necessidades de um ambiente de redes de arquitetura aberta. Este protocolo iria eventualmente ser chamado Transmission Control Protocol/Internet Protocol (TCP/IP). Enquanto NCP agia como um driver de equipamento, o novo protocolo seria mais um protocolo de comunicações. Quatro regras foram críticas para a idéia de Kahn: • cada rede distinta deveria ser independente e mudanças internas não deveriam ser requisitadas para conectá-las à Internet; • comunicações seriam na base do melhor esforço. Se um pacote não chegasse à sua destinação final, ele seria retransmitido da fonte; • caixas pretas seriam usadas para conectar as redes. Mais tarde elas seriam chamadas gateways e roteadores. Os gateways não reteriam informações sobre os fluxos de pacotes passantes. Isso assegurou que eles se mantivessem simples, evitando adaptações complicadas e recuperações de erros; • não haveria controle global no nível operacional. Outros itens avaliados foram os seguintes: • algorítmos para prevenir perda de pacote de comunicações desabilitadas, capacitando-os a serem retransmitidos da fonte; • provimento de "pipelining" de servidor a servidor, de forma que múltiplos pacotes poderiam ser roteados da fonte ao destino à vontade dos servidores participantes, se redes intermediárias o permitissem; • funções de gateway (porta de entrada) para encaminhar os pacotes apropriadamente. Isso incluiria cabeçalhos de IP para roteamento, interfaces dirigidas, quebra de pacotes em pedaços menores (caso necessário), etc; • a necessidade de checagens ponta a ponta, recuperação dos pacotes de fragmentos e detecção de duplicatas; • a necessidade do endereçamento global; • técnicas de controle de fluxo servidor a servidor; • interfaces com vários sistemas operacionais; • eficiência da implementação, performance entre as redes, etc. Kahn começou a trabalhar na série orientada às comunicações dos princípios do sistema operacional enquanto na BBN, e documentou alguns dos seus pensamentos num memorando interno chamado "Princípios de Comunicações para Sistemas Operacionais". Neste ponto, ele percebeu que seria necessário aprender os detalhes de implementação de cada sistema operacional para ter a chance de embutir neles novos protocolos de uma forma eficiente. Assim, na primavera de 1973, depois de começar o projeto "internetting", Kahn chamou Vint Cerf (então trabalhando em Stanford) para trabalhar com ele no desenho detalhado do protocolo. Cerf tinha se envolvido intimamente com o desenho e desenvolvimento do NCP original e já tinha o conhecimento em interfacing com os sistemas operacionais existentes. A abordagem arquitetônica para a comunicação de Kahn e a experiência em NCP de Cerf possibilitaram a construção do que se tornou TCP/IP. O trabalho de Kahn e Cerf foi altamente produtivo e a primeira versão escrita da teoria resultante foi distribuída numa reunião especial do International Network Working Group (INWG), que tinha sido definido numa conferência da Sussex University em setembro de 1973. Cerf tinha sido convidado para dirigir este grupo e usou a ocasião para realizar o encontro do INWG. Algumas teses básicas surgiram da colaboração entre Kahn e Cerf: • comunicação entre dois processos deveria consistir logicamente de uma longa corrente de bytes (que eles chamaram de octets). A posição de qualquer octet na corrente seria usada para identificá-lo; • o controle do fluxo seria feito usando janelas e corrediças e acks. O destino poderia selecionar quando seria efetuado o reconhecimento e cada ack retornado seria cumulativo para todos os pacotes recebidos; • foi deixado em aberto como a fonte e o destino iriam concordar nos parâmetros das janelas a serem usadas. Padrões foram usados inicialmente; • apesar de a Ethernet (sistema de redes que transporta sinais (bits) para todos os microcomputadores em rede) estar em desenvolvimento em Xerox PARC naquele tempo, a proliferação de LANs (redes locais) não era prevista, muito menos a proliferação de PCs (computadores pessoais) e estações de trabalho. O modelo original foi redes nacionais comoa ARPANET, que se pensava não iriam existir muitas como ela. Então um IP de 32 bits foi usado, dos quais os primeiros 8 bits indicavam a rede e os restantes 24 bits designavam o servidor na rede. Esta hipótese de que 256 redes seriam suficientes para o futuro próximo passou necessariamente a ser reconsiderada quando LANs começaram a aparecer no final da década de 1970. O trabalho original de Cerf e Kahn sobre a Internet descreveu um protocolo chamado TCP, que provia todo o transporte e serviços de encaminhamento na Internet. Kahn queria que o protocolo suportasse uma série de serviços de transporte, desde a entrega sequenciada de dados totalmente confiável (modelo de circuito virtual) até o serviço de datagram, onde a aplicação fazia uso direto do serviço básico de rede, o que poderia implicar em pacotes ocasionalmente perdidos, corrompidos ou reordenados. Entretanto, o esforço inicial para implementar TCP resultou numa versão que somente permitiu circuitos virtuais. O modelo funcionou bem para transferência de arquivos e aplicações de logins remotos, mas alguns dos trabalhos em aplicações avançadas como pacotes de voz mostraram que, em alguns casos, a perda de pacotes deveria ser corrigida pela aplicação e não pelo protocolo TCP. Isso levou a uma reorganização do TCP original em dois protocolos: o simples IP que provia apenas o endereçamento e o roteamento dos pacotes individuais e o TCP em separado, que se preocupava com o controle do fluxo e a recuperação de pacotes perdidos. Para as aplicações que não queriam os serviços de TCP, uma alternativa chamada User Datagram Protocol (UDP) foi adicionada para prover acesso direto ao serviço básico de IP. Uma grande motivação inicial para a ARPANET e para a Internet foi o compartilhamento de recursos. A conexão das duas redes foi muito mais econômica do que a duplicação de caros computadores. Entretanto, enquanto a transferência de arquivos e o login remoto (Telnet) foram aplicações muito importantes, o correio eletrônico teve o impacto mais significativo das inovações daquela época. O correio eletrônico ou e-mail criou um novo modelo no qual as pessoas poderiam se comunicar e mudou a natureza da colaboração, primeiro na construção da própria Internet e mais tarde na sua utilização por grande parte da sociedade. Outras aplicações foram propostas nos dias iniciais da Internet, incluindo comunicação de voz (precursora da telefonia via Internet), vários modelos de compartilhamento de arquivos e discos, e os primeiros programas que mostraram o conceito de agentes (e vírus..). Um conceito-chave da Internet é que ela não é desenhada para apenas uma aplicação, mas é uma infra-estrutura genérica na qual novas aplicações podem ser concebidas, como aconteceu com a World Wide Web. Foi e é a natureza do serviço provido pelos protocolos TCP e IP que tornam isso possível. NOVAS IDÉIAS DARPA fez três contratos para Stanford (Cerf), BBN (Ray Tomlinson) e UCL (Peter Kirstein) implementarem TCP/IP (que foi simplesmente chamado TCP no trabalho de Cerf/Kahn, mas que continha ambos os componentes). A equipe de Stanford, liderada por Cerf, produziu uma detalhada especificação e, em um ano, haviam três implementações independentes de TCP que poderiam operar em conjunto. Este foi o começo de longa experimentação e desenvolvimento a fim de evoluir e amadurecer os conceitos e a tecnologia da Internet. Começando com as três primeiras redes (ARPANET, Packet Radio e Packet Satellite) e suas comunidades iniciais de pesquisa, o ambiente experimental cresceu para incorporar essencialmente qualquer forma de rede e grande comunidade de pesquisa e desenvolvimento. E, com cada expansão, novos desafios surgiram. As primeiras implementações de TCP foram feitas por sistemas como Tenex e TOPS 20. Quando os microcomputadores apareceram, alguns acharam que TCP foi grande e complexo demais para rodar neles. David Clark e seu grupo de pesquisa no MIT trabalharam para mostrar que poderia haver uma simples e compacta implementação de TCP. Eles produziram esta implementação, primeiro para o Xerox Alto (a primeira estação de trabalho pessoal desenvolvida em Xerox PARC) e depois para o IBM PC. Esta implementação foi completamente inter-operável com outros TCPs, mas foi feita sob medida para microcomputadores, e mostrou que estações de trabalho, tanto quanto sistemas de grande porte, poderiam tornar-se parte da Internet. Em 1976, Kleinrck publicou o primeiro livro sobre ARPANET, com ênfase na complexidade dos protocolos e nas dificuldades que eles introduzem. Este livro foi importante na divulgação da crença nas redes com trocas de pacotes para uma grande comunidade. O desenvolvimento generalizado de LANs, PCs e estações de trabalho na década de 80 permitiu a prosperidade da Internet que nascia. A tecnologia Ethernet, desenvolvida por Bob Metcalfe em 1973 na Xerox PARC é agora provavelmente a tecnologia de rede dominante na Internet e os PCs e estações de trabalho são os computadores dominantes. A mudança entre poucas redes com pequeno número de servidores (o modelo original ARPANET) e muitas redes resultou num número de novos conceitos e mudanças na tecnologia básica. Primeiro, isso resultou na definição de três classes de rede (A, B e C) para acomodar o alcance das redes. A classe A passou a representar redes de grande escala nacional (pequeno número de redes com grande número de servidores). A classe B passou a representar redes de escala regional. E a classe C passou a representar redes locais (grande número de redes com relativamente poucos servidores). Uma grande mudança ocorreu como resultado do aumento da escala da Internet e os assuntos gerenciais associados. Para facilitar o uso da rede, nomes foram atribuídos a servidores para que não fosse necessário lembrar endereços numéricos. Originalmente, o número de servidores foi limitado e, portanto, foi possível manter uma tabela única de todos os servidores e seus nomes e endereços. A mudança para o grande número de redes independentemente gerenciadas (por exempo, LANs) significou o fim da tabela única de servidores, e o Domain Name System (DNS) foi inventado por Paul Mockapetris, da USC/ISI. O DNS permitiu um mecanismo escalarmente distribuído para resolver nomes de servidores hierárquicos (por exemplo, www.acm.org) num endereço Internet. O crescimento da Internet também desafiou a capacidade dos roteamentos. Originalmente existiu um único algorítmo distribuído para roteamento que foi implementado uniformemente por todos os roteadores na Internet. Quando explodiu o número de redes na Internet e o desenho inicial de roteamento não expandiu o suficiente, este foi substituído por um modelo hierárquico de roteamento com um Interior Gateway Protocol (IGP) usado dentro de cada região da Internet e um Exterior Gateway Project (EGP) usado para ligar as regiões. Este desenho permitiu que diferentes regiões usassem diferentes IGPs, de forma que diferentes requerimentos de custo, rápida configuração, robustez e escala pudessem ser acomodados. Não apenas o algorítmo de roteamento mas também o tamanho das tabelas de endereçamento acentuaram a capacidade dos roteamentos. Novas abordagens para agregação de endereço, em particular roteamento entre domínios sem classe (CIDR) foram introduzidas para controlar o tamanho das tabelas de roteamento. Um dos maiores desafios foi como propagar as mudanças para o software, particularmente o software do servidor. DARPA dava suporte à UC Berkeley para investigar modificações para o sistema operacional Unix, inclusive incorporando o TCP/IP desenvolvido em BBN. Apesar de Berkeley ter mais tarde reescrito o código para torná-lo mais adequado ao sistema Unix, a incorporação do TCP/IP no Unix BSD foi crítica para a dispersão dos protocolos na comunidade de pesquisa. Muitos da comunidade de pesquisa da ciência da computação já haviam começado a usar Unix BSD no seu dia-a-dia e a estratégia de incorporar protocolosInternet no sistema operacional da comunidade de pesquisa foi um dos elementos-chave do larga e bem-sucedida adoção da Internet. Um dos mais interessantes desafios foi a transição do protocolo de servidor da ARPANET de NCP para TCP/IP em 01/01/1983. Foi uma transição imediata, requisitando todos os servidores em conversão simultânea (ou então passariam a se comunicar via mecanismos específicos). A transição foi cuidadosamente planejada pela comunidade por anos antes e foi muito fácil no dia em que realmente aconteceu (mas teve como consequência a distribuição de "buttons" dizendo "Eu sobrevivi à transição para o TCP/IP"). O protocolo TCP/IP tinha sido adotado como padrão de defesa três anos antes, em 1980. Tal fato levou diretamente à eventual divisão entre comunidades militar e não militar. Em 1983, ARPANET estava sendo usada por um número significante de organizações de pesquisa e desenvolvimento e de operações da defesa. A transição da ARPANET do protocolo NCP para o protocolo TCP/IP permitiu a divisão entre a MILNET, que passou a suportar os requisitos operacionais, e a ARPANET, que passou a suportar as necessidades de pesquisa. Portanto, em 1985, a Internet já estava bem estabelecida como uma larga comunidade de suporte de pesquisadores e desenvolvedores e começava a ser usada por outras comunidades para comunicações diárias pelo computador. O correio eletrônico já estava sendo usado por muitas comunidades, frequentemente com sistemas diferentes, mas a interconexão entre os diferentes sistemas de de correio foi demonstrando a utilidade de comunicação eletrônica entre as pessoas. A TRANSIÇÃO PARA A INFRA-ESTRUTURA ABERTA Ao mesmo tempo em que a tecnologia Internet estava sendo experimentalmente validada e largamente utilizada por um conjunto de pesquisadores da ciência da computação, outras redes e tecnologias de rede estavam sendo criadas. A utilidade das redes computadorizadas - especialmente o correio eletrônico - demonstrada por DARPA e pelo Departamento de Defesa dos Estados Unidos não foi perdida em outras comunidades e disciplinas, e, ainda na década de 1970, redes começaram a aparecer em qualquer lugar que dispusesse de fundos e recursos para isso. O Departamento de Energia dos Estados Unidos estabaleceu a MFENet para seus pesquisadores em energia de fusão magnética e a HEPNet para o grupo de física de alta energia. Os físicos espaciais da NASA seguiram com a SPAN, e Rick Adrion, David Farber, and Larry Landweber estabeleceram a CSNET para a comunidade acadêmica e industrial da Ciência da Computação com um subsídio inicial da NSF- National Science Foundation. A livre disseminação do sistema operacional Unix na AT&T resultou na USENET, baseada no protocolo de comunicação UUCP incluído no Unix, e, em 1981, Ira Fuchs e Greydon Freeman projetaram a BITNET, que ligou os computadores acadêmicos num paradigma do tipo "correio eletrônico como imagens de cartão". Com a exceção da BITNET e da USENET, estas primeiras redes (incluindo ARPANET) tinham sido construídas para um objetivo específico, isto é, elas foram criadas para, e largamente restritas a, comunidades fechadas de acadêmicos. Havia pouca pressão para que as redes individuais fossem compatíveis e, na verdade, elas não eram. Mais ainda, tecnologias alternativas estavam sendo procuradas pelo segmento comercial, incluindo XNS da Xerox, DECNet e SNA da IBM. Restou à inglesa JANET (1984) e à U.S. NSFNET (1985) programas para explicitamente anunciar seus intentos de servirem à comunidade educacional, não importando a disciplina. Mais, a condição para universidades americanas receberem fundos do NSF era que "a conexão deveria estar disponível para todos os usuários qualificados no campus". Em 1985, Dennis Jennings, da Irlanda, passou um ano na NSF liderando o programa da NSFNET. Ele trabalhou com a comunidade para ajudar a NSF a tomar uma decisão crítica: que TCP/IP iria ser mandatório para o programa da NSFNET. Quando Steve Wolff chegou à NSFNET em 1986, ele reconheceu a necessidade por uma infraestrutura de rede maior para suportar as comunidades acadêmicas e de pesquisa, além da necessidade de desenvolver uma estratégia para estabelecer esta infra-estrutura independentemente dos recursos federais. Políticas e estratégias foram adotadas para atingir este fim. NSF também decidiu suportar a infra-estrutura organizacional da Internet da DARPA já existente, hierarquicamente arranjada pelo então Internet Activities Board (IAB). A declaração pública desta opção foi a autoria conjunta pelo grupo de Engenharia e Arquitetura da Internet da IAB e pelo grupo de Assessoria Técnica de Rede da NSF do RFC 985 - Requirements for Internet Gateways, que formalmente assegurou a interoperabilidade entre DARPA e NSF. Em adição à seleção do TCP/IP para o NSFNET, agências federais norte-americanas fizeram e implementaram várias outras decisões políticas que definiram a Internet de hoje, como segue: • Agências federais norte-americanas dividiram o custo da infra-estrutura, como os circuitos transoceânicos. Elas também apoiaram os pontos de interconexão para o tráfego entre agências. Federal Internet Exchanges (FIX-E e FIX-W) construídas com este objetivo serviram como modelos para os pontos de acesso da rede e facilidades "*IX" que são características proeminentes da arquitetura Internet de hoje; • Para coordenar esta participação, foi formado o Federal Networking Council (Conselho Federal de Redes). The FNC cooperou com organizações internacionais como o RARE na Europa, através do Comitê de Pesquisa Intercontinental, para coordenar o apoio da comunidade mundial de pesquisa à Internet; • Esta participação e cooperação entre agências em assuntos relacionados à Internet tem uma longa história. Um acordo sem precedentes realizado em 1981 entre Farber, representando a CSNET e a NSF, e Kahn, representando a DARPA, permitiu à CSNET compartilhar a infra-estrutura da ARPANET numa base estatística; • Similarmente, a NSF encorajou redes regionais (inicialmente acadêmicas) da NSFNET a buscar clientes comerciais, expandir seus estabelecimentos para serví- los e explorar as resultantes economias de escala para baixar os custos de subscrição para todos; • No backbone da NSFNET, o segmento de escala nacional da NSFNET, NSF fez cumprir uma política (Acceptable Use Policy - AUP) que proibiu o uso do backbone para objetivos que não fosssem de suporte à Pesquisa e à Educação. O resultado predizível e desejado do encorajamento de tráfego comercial nos níveis local e regional, enquando proibindo seu acesso ao backbone nacional, foi estimular a emergência e o crescimento de redes privadas e competitivas (como PSI, UUNET, ANS CO+RE e outras mais tarde). Este processo de aumento de redes privadas e auto-financiadas para usos comerciais foi iniciado em 1988 numa série de conferências promovidas pela NSF em Harvard's Kennedy School of Government sob o título "A Comercialização e Privatização da Internet" e na lista "com-priv" da rede; • Em 1988, o comitê do Conselho Nacional de Pesquisa norte-americano, dirigido por Kleinrock e com Kahn e Clark como membros, produziu um relatório autorizado pela NSF entitulado "Em Direção a uma Rede Nacional de Pesquisa". Este relatório influenciou o então Senador Al Gore e anunciou as redes de alta velocidade que se tornariam a fundação para a superhighway da informação do futuro; • Em 1994, o comitê do Conselho Nacional de Pesquisa norte-americano, novamente dirigido por Kleinrock e novamente com Kahn e Clark como membros, produziu um novo relatório autorizado pela NSF entitulado "Fazendo Idéia do Futuro da Informação: a Internet e Além". Neste documento, a superhighway da informação foi articulada e tópicos críticos como direitos da pripriedade intelectual, ética, preços, educação, arquitetura e regulamentação da Internet foram discutidos; • A política de privatização da NSF culminou em abril de 1995, como fim do subsídio ao backbone da NSFNET. Os fundos recuperados foram competitivamente redistribuídos para redes regionais para compra de conectividade nacional das agora numerosas redes privadas. O backbone fez a transição entre a rede construída de roteadores da comunidade de pesquisa para equipamentos comerciais. Em seus oito anos e meio, o backbone cresceu de seis nodes com links de 56 Kb para 21 nodes com múltiplos links de 45 Mb. A Internet cresceu para mais de 50 mil redes em todos os sete continentes, com aproximadamente 29 mil redes apenas nos Estados Unidos. Tal foi o peso do ecumenismo e dos recursos da NSFNET (US$ 200 milhões entre 1986 e 1995) e a qualidade dos protocolos, que em 1990, quando a ARPANET foi desautorizada, TCP/IP tinha suplantado e marginalizado os demais protocolos de rede, e IP estava também se tornando o serviço de sustentação da infra-estrutura da informação global. O PAPEL DA DOCUMENTAÇÃO A chave para o rápido crescimento da Internet tem sido o livre e aberto acesso aos documentos básicos, especialmente as especificações dos protocolos. Os inícios da ARPANET e da Internet na comunidade acadêmica de pesquisa promoveu a tradição acadêmica de publicação de idéias e resultados. Entretanto, o ciclo normal da publicação acadêmica tradicional era formal e devagar demais para a dinâmica troca de idéias na criação das redes. Em 1969, um passo importante foi tomado por S. Crocker, então na UCLA, estabelecendo série de notas relativas a "Request for Comments" (RFC, ou, traduzindo, Solicitação de Comentários). Estas notas ou memorandos seriam uma forma rápida de distribuição de observações no compartilhamento de idéias com outros pesquisadores. A princípio, os RFCs eram impressos e distribuídos pelo correio tradicional. Quando o File Transfer Protocol (FTP, significando protocolo de transferência de arqruivos) começou a ser usado, os RFCs se tornaram arquivos online acessados via FTP. Agora, claro, os RFCs são facilmente acessados via web em dezenas de sites no mundo. O SRI- Stanford Research Institute, no papel de Centro de Informação de Redes, manteve os diretórios online. Jon Postel atua até hoje como editor dos RFCs, bem como gerente da administração centralizada de número de protocolo. O efeito dos RFCs foi criar um círculo positivo de retornos, com idéias e propostas apresentadas em um RFC gerando outro RFC com mais idéias, e daí por diante. Quando algum consenso (ou pelo menos uma série consistente de idéias) era atingido, um documento com as especificações era então preparado. Estas especificações seriam então usadas como base para implementações pelas várias equipes de pesquisa. Com o tempo, os RFCs se tornaram mais focados nos padrões de protocolo ( as especificações oficiais), apesar de ainda existir RFCs informativos que descrevem abordagens alterantivas ou provêem informações antecedentes sobre protocolos e engenharia. Os RFCs são agora vistos como documentos de registro nas comunidades de engenharia e padrões da Internet. O acesso aberto aos RFCs (grátis, se você tem qualquer tipo de conexão com a Internet) promove o crescimento da Internet porque permite que especificações reais sejam usadas como exemplos em classes universitárias e por empreendedores desenvolvendo novos sistemas. O correio eletrônico tem sido essencial em todas as áreas da Internet, e especialmente no desenvolvimento das especificações dos protocolos, padrões técnicos e engenharia da Internet. OS RFCs mais antigos apresentaram um conjunto de idéias desenvolvidas por pesquisadores de um determinado lugar para o resto da comunidade. Depois que o e-mail ou correio eletrônico começou a ser utilizado, o padrão de autoria mudou - os RFCs eram apresentados por co-autores com uma visão comum, independentemente de suas localizações. O uso de listas de discussão especializados tem por muito tempo sido usado no desenvolvimento das especificações de protocolo e continua a ser uma ferramente importante. O IETF tem agora mais de 75 grupos de trabalho, cada um trabalhando num aspecto diferente da engenharia da Internet. Cada um desses grupos tem uma lista de discussão para trocar idéias sobre documentos em desenvolvimento. Quando o consenso é atingido num rascunho, o documento é então distribuído como um RFC. Como o rápido crescimento da Internet é acelerado pelo entendimento da sua capacidade de promover o compartilhamento de informações, nós deveríamos entender que o primeiro papel da rede foi permitir o compartilhamento da informação sbre seu próprio desenho e operação através dos RFC. Este método único para a evolução de novas capacidades da rede continuará a ser crítico na evolução futura da Internet. A FORMAÇÃO DA COMUNIDADE A Internet representa tanto uma coleção de comunidades como uma coleção de tecnologias, e seu sucesso é largamente atribuído à satisfação das necessidades básicas da comunidade e à utilização efetiva da comunidade na expansão da sua infra-estrutura. O espírito da comunidade tem uma longa história, começando com a ARPANET. Os pesquisadores da antiga ARPANET trabalharam numa comunidade fechada para conseguirem fazer as demonstrações iniciais da tecnologia de transferência de pacotes descrita anteriormente. Da mesma forma, vários outros programas de pesquisa da ciência da computação promovidos pela DARPA (Packet Satellite, Packet Radio e outros) foram fruto de atividades cooperadas que usavam pesadamente qualquer mecanismo disponível para coordenar seus esforços, começando com o correio eletrônico e acrescentando compartilhamento de arquivos, acesso remoto e WWW. Cada um dos programas formou um grupo de trabalho, começando com o Grupo de Trabalho de Rede da ARPANET. Por conta do papel da ARPANET na infra- estrutura de suporte a vários programas de pesquisa, e com a evolução da Internet, o Grupo de Trabalho de Rede se tornou o Grupo de Trabalho da Internet. No final da década de 70, reconhecendo que o crescimento da Internet foi acompanhado pelo crescimento em tamanho da comunidade de pesquisa interessada na Internet e que, portanto, havia uma necessidade maior de mecanismos de coordenação, Vint Cerf, então gerente do Programa Internet da DARPA, formou vários grupos de coordenação: • um Conselho de Cooperação Internacional (ICB-Internet Cooperation Board), presidido por Peter Kirstein da UCL, para coordenar as atividades com alguns países europeus envolvidos no programa Packet Satellite; • um Grupo de Pesquisa Internet (Internet Research Group), para prover um ambiente para a troca geral de informações sobre a Internet; • e um Conselho de Controle de Configuração da Internet (ICCB-Internet Configuration Control Board), presidido por Clark. O ICCB iria assessorar Cerf na gerência da florescente Internet. Em 1983, quando Barry Leiner passou a gerenciar o programa de pesquisa da Internet na DARPA, ele e Clark reconheceram que o crescimento contínuo da comunidade Internet demandava uma reestruturação dos mecanismos de coordenação. O ICCB foi então substituído por forças-tarefa, cada uma focalizando uma área particular da tecnologia (roteamentos, protocolos ponta-a-ponta, etc.). O IAB, então chamado Internet Activities Board ou Conselho de Atividades Internet, foi então formado com os presidentes das forças-tarefa. Foi uma coincidência que esses presidentes fossem os mesmos do antigo ICCB e Dave Clark continuou a presidí-lo. Depois de algumas mudanças no IAB, Phill Gross se tornou o presidente da revitalizada IETF-The Internet Engineering Task Force (Força-Tarefa da Engenharia da Internet), naquele tempo apenas uma das forças-tarefa do IAB. Em 1985 então, houve um tremendo crescimento no lado prático/da engenharia da Internet. Este crescimento resultou na explosão dos comparecimentos nas reuniões do IETF, e Gross teve que criar uma sub-estrutura do IETF na forma de grupos de trabalho. Este crescimento foi complementado por uma grande expansão da comunidade.DARPA então tinha deixado de ser o maior financiador da Internet. Além da NSFNet e de várias atividades financiadas pelos governos americano e internacionais, o segmento comercial começou a se interessar pela Internet. Também em 1985 Kahn e Leiner deixaram a DARPA que não vinha conseguindo manter seu ritmo de atividades Internet. Como resultado, o IAB perdeu seu patrocinador e progressivamente assumiu o papel de líder na Internet. O crescimento da Internet continuou, resultando em nova sub-estruturação do IAB e do IETF. O IETF combinou Grupos de Trabalho em Áreas, e designou Diretores de Áreas. Um Grupo Diretivo de Engenharia da Internet ou a A maioria das pessoas concorda que a Internet apareceu na data em que foi criada a ARPANET, em 1969. Esta rede criou a primeira infra-estrutura global de comunicações e os respectivos protocolos. A ARPANET tinha como objectivo principal servir a investigação e o desenvolvimento, sobretudo para o Departamento de Defesa dos Estados Unidos da América. Qualquer conteúdo ou comunicação de índole comercial era estrictamente proíbido naquela altura. Durante da década de 1980, a ARPANET foi sendo ligada a outras redes de universidades e de grandes empresas, como a HP, para dinamizar ainda mais a I&D. Nos finais da década a ARPANET deu por atingidos os seus objetivos e entregou à NSF a responsabilidade de manter e aumentar o backbone. A NSF desenvolveu a rede sobretudo nos EUA. Os primeiros ISP - Internet Service Providers - começaram a aparecer na década de 1980 e começaram a dar acesso a empresas e particulares, sobretudo através de dial-up. No início da década de 1990, a NSF começou a perder o controle sobre o backbone, à medida que operadores privados começaram a criar as suas próprias infra-estruturas. Foi nessa altura que as restrições à comercialização da Internet foram totalmenta abolidas. Desde 1969, surgiram várias aplicações para a Internet, cada vez mais amigáveis ao usuário. Alguns exemplos: Gopher, Veronica, WAIS, FTP. Outras formas de comunicação em rede também tiveram sucesso e fizeram os primórdios da Internet, como é o caso das BBS ou de serviços online como a Compuserve ou a AOL. Na década de 1990, o aparecimento da World Wide Web, o desenvolvimento dos browsers, a diminuição de custos de acesso, o aumento de conteúdos, entre outros factores, fizeram com que a Internet tivesse um crescimento exponencial. De onde vem os endereçosDe onde vem os endereçosDe onde vem os endereçosDe onde vem os endereços Toda máquina na Internet precisa de um endereço IP. Eles são fornecidos normalmente pelos ISPs (provedores) a seus associados. Cada endereço vem com um bloco de números IP que foi dado aos ISPs pelo registro local de endereços de IP. O registro local de endereços IPs é gerenciado por organizações internacionais, geralmente voluntárias e em universidades ou também por outras instituições públicas. A ICANN (Internet Corporation for Assigned Names and Numbers) gerencia a locação de endereços IPs nos Estados Unidos enquanto que a RIPE manipula os endereços na Europa. A região Ásia-Pacífico é controlada pela APNIC. No Brasil você pode ir ao endereço http://registro.br e encontrar informações sobre os provedores nacionais. Você pode usar os serviços destas organizações para determinar a quem pertence um determinado bloco de endereços, o que pode ser útil para você tentar punir retirando da rede um invasor ou alguém que nos envie um spam. Os números IPs são recursos valiosos. A versão atual de IP, v4, é somente um sistema de 32-bits, cujos endereços são divididos em quatro octetos separados por pontos. Estes são representações binárias, de grupos de 8-bits, que compõem o endereço IP. Um endereço como 192.132.34.36 é um número binário de 32-bits. Isto significa que existem 4.294.967.296 possibilidades para endereços IPs, embora isto na realidade é um pouco menor visto que alguns deles são reservados para máscara de rede e gateways. Esta quantidade não era tão ruim nos primórdios da Rede, onde podíamos resolver tudo com um ou dois conjuntos. As companhias e organizações são agrupadas por tipo de endereços: classe A, que é na forma 1.0.0.0, classe B, na forma 1.1.0.0 e classe C (1.1.1.0). Uma simples classe C pode conter 254 endereços IP para seus dispositivos e uma classe A pode conter 0,4% de todos os endereços da Internet. Isto pode não parecer muito, mas se considerarmos que 100 classes do tipo A são utilizadas por grandes companhias e universidades isto vem a corresponder perto de 40 por cento de todos os endereços e estes ficam reservados, mesmo se somente alguns milhares deles não estejam realmente em uso. Foi por isto que foi criado o CIDR (Classless Inter Domain Routing). O CIDR é uma banda adicional que veio ajudar a reduzir a divisão daqueles endereços IPs que estão sendo mal utilizados.Ao invés de utilizarmos o mínimo de 254 endereços, o registro de endereços pode utilizá-los quatro vezes mais. Pelo encorajamento do uso de serviços transacionados por estes endereços e por espaços de endereços privados sem rota, definidos pelo RFC 1918, a demanda por novos endereços caiu drasticamente. IPv6IPv6IPv6IPv6 Uma nova versão do IP, v6, promete expandir bastante o número de IPs disponíveis. Atualmente em teste, o IPv6 é suportado pela maioria dos sistemas operacionais, incluindo o Windows 2000 e o Linux. Ele aumentou significantemente o número de IPs disponíveis por ser um número de 64-bits. Isto, teoricamente, permite atingir acima de 1,8 x 1.019 endereços - o que é mais do que suficiente para nós, isto até que venhamos a criar a versão de 128-bits de IP a qualquer momento em nosso futuro. O IPv6 tem a capacidade de suportar o número astronômico de dispositivos sem-fio, assim como as tecnologias de rede Jini e Bluetooth. Então, como um pacote caminha de uma máquina para a outra? É impraticável lembrar do endereço IP de cada dispositivo na Internet. Muito cedo na história da Internet foi encontrada uma solução bem simples que ainda é utilizada até hoje. O DNS (Domain Name Server) mapeia os endereços IPs das máquinas através dos nomes simples, armazendados em uma árvore hierárquica do sistema DNS. Um servidor DNS manipula todos os nomes de máquinas de sua rede assim como seus endereços IPs. Imagine uma árvoreImagine uma árvoreImagine uma árvoreImagine uma árvore Quando uma aplicação solicita um endereço de uma máquina através de seu nome, ele é enviado para um sistema DNS de sua rede de computadores. Se o endereço da máquina for encontrada 'localmente', então o problema é resolvido rapidamente. Senão, a solicitação é passada rapidamente para a árvore de servidores DNS até encontrar o servidor que manipula a informação. É bem mais fácil de entender se considerarmos o sistema de DNS como uma árvore, onde cada parte é um novo nível do nome do domínio. Por exemplo, 'maca.com.br' pode ser enviado para o servidor responsável por '.com.br', ou até mesmo para '.br'. Assim como os endereços IPs, os nomes dos domínios precisam ser registrados centralizadamente. Registros de nomes de domínios nacionais e internacionais são manipulados, criando-se tabelas de DNS de alto nível para os domínios de nível superior (TLDs - Top Level Domains). Os TLDs incluem domínios como .com, .org, .br, .ru e nomes de registos de domínios registrados sob os auspícios do ICANN e são gerenciados por seus governos nacionais. Recentemente os principais TLDs foram entregues a um número de organizações diferentes, ao invés de uma solução dentro na Internet, dando-lhes, então, um monopólio virtual. Visto isto tudo, o IP e o DNS formam a base de como os computadores se interagem na Internet. Eles não são ferramentas simples, naturalmente, mas eles estão mudando o mundo de uma forma que seus projetistas nunca imaginaram. HISTÓRIA DO E-MAIL O e-mail é anterior ao surgimento da Internet. Os sistemas de e-mail foram uma ferramenta crucial para a criaçãoda rede internacional de computadores. O primeiro sistema de troca de mensagens que se tem notícia foi criado em 1965, e possibilitava a comunicação entre os múltiplos usuários de um computador do tipo mainframe. Apesar da história ser um tanto obscura, acredita-se que os primeiros sistemas criados com tal funcionalidade foram o Q32 da SDC e o CTSS do MIT. O e-mail transformou-se rapidamente em um "e-mail em rede", permitindo que usuários situados em diferentes computadores trocassem mensagens. Também não é muito claro qual foi o primeiro sistema que suportou o e-mail em rede. O sistema AUTODIN, em 1966, parece ter sido o primeiro a permitir que mensagens eletrônicas fossem transferidas entre computadores diferentes, mas é possível que o sistema SAGE tivesse a mesma funcionalidade algum tempo antes. A rede de computadores ARPANET fez uma grande contribuição para a evolução do e- mail. Existe um relato que indica a transferência de mensagens de e-mail entre diferentes sistemas situados nesta rede logo após a sua criação, em 1969. O programador Ray Tomlinson iniciou o uso do sinal @ para separar os nomes do usuário e da máquina no endereço de email em 1971. Considerar que ele foi o "inventor" do e-mail é um exagero, apesar da importância dos seus programas de email: SNDMSG e READMAIL. A primeira mensagem enviada por Ray Tomlinson não foi preservada; era uma mensagem anunciando a disponibilidade de um e-mail em rede. A ARPANET aumentou significativamente a popularidade do e-mail. Tecnologia Servidores de E-mail O que é e para que serve um servidor de E-mail? Um servidor de E-mail gerencia os e- mails que são enviados e recebidos. Os servidores de e-mail podem ser servidores Internet, onde e-mails enviados e recebidos podem ser transitados para qualquer lugar do mundo, ou servidores de correio de intranet onde as mensagens trafegam apenas dentro da empresa. Através do correio eletrônico podem ser criados grupos de discussão sobre quaisquer assuntos. Estes grupos são chamados de listas ou refletores. Um refletor é uma caixa postal eletrônica falsa. Todas as mensagens enviadas para esta caixa postal, são transmitidas para as pessoas cadastradas na lista deste refletor. Desta forma cada membro do grupo passa a dispor das mensagens enviadas para o refletor em sua caixa postal ou mailbox. Cada membro, pode ler as mensagens e dar a sua opinião sobre elas enviando uma nova mensagem para o refletor. Sistemas Livres O correio eletrônico tornou-se uma ferramenta indispensável não só para tornar a comunicação dentro das organizações mais rápida, como também os processos, fazendo com que o acesso às informações seja democrático e ajudar a popularizar as rotinas e procedimentos. Utilizar correios eletrônicos comerciais, e manter estes produtos atualizados, torna-se bastante caros para as organizações que não fazem recursos de groupware. Ainda com o aumento de usuários e o custo da implementação, faz com que estas empresas migrem seus serviços de email para uma solução gratuita, sem perda de funcionalidade, qualidade de produto ou segurança. Uns destes Sistemas Livres é o sendmail que é um servidor de correio eletrônico largamente utilizado na internet. Este dispõe de ferramentas que permitem estabelecer a conexão via protocolo SMTP para enviar mensagens, os clientes web têm se tornado cada vez mais populares devido à facilidade de acesso, já que não é preciso instalar nenhum software específico ou configurar perfis de acesso para cada usuário. Cada vez mais grandes organizações tem utilizado o sistema de correio eletrônico para aumentar a comunicação entre os seus diversos setores. Só que nem sempre este benefício de se ter um meio tão ágil apresenta um custo baixo, por isso foram desenvolvidas várias ferramentas gratuitas para o uso de correio eletrônico. Como exemplo de sistemas de correio eletrônico livres podemos citar o PostFix, que é um dos candidatos a substituir o SendEmail. O PostFix é hoje uma das melhores alternativas para todas as empresas que desejam utilizar um servidor de email sem ter grandes gastos, ele foi escrito de forma direta e clara e visa facilitar e ajudar o Administrador Linux já que esse software é muito fácil de utilizar, além de ser um agente de transporte de email muitas vezes chamado simplesmente de servidor de email. O PostFix pode ser utilizado em grande escala pelas empresas, pois o mesmo pode ser utilizado desde laptop pessoal até para gigantes. Além de apresentar grande facilidade para sua configuração ele é um servidor de email robusto e apresenta vários recursos como ANTI_SPAM, evitando assim o número de SPAM enviado na rede. A utilização de softwares livres nas organizações podem trazer grandes vantagens para as organizações. Além desses softwares reduzirem drasticamente os gastos com lincenças em relação aos softwares proprietários, podem ser adicionados partes de software ou programas para realizar determinada tarefa não atentida por esses softwares. O PostFix se torna uma solução barata para utilizxcvação em empresas já que é facil de utilizar e configurar, não tendo necessidade de grandes treinamentos para sua instalação e administração, isso está tornando sua disseminação rápida e este software está cada vez mais sendo utilizado. Sistemas Comerciais Podemos citar como exemplo o Microsoft Exchange 2000 Server. Examinando os ambientes do Exchange, podemos perceber como são organizados, isto acontece porque a raiz de um ambiente Exchange é uma organização. Desta forma, encontramos os componentes principais que compõem a organização do Microsoft Exchange: · Configurações globais: aplicam-se a todos os servidores e destinatários de uma organização. As três configurações globais mais comuns são: formatos de mensagens da internet, entrega de mensagens e mensagens instantâneas; · Destinatários: entidade que pode receber mensagens do Exchange. Os destinatários podem ser usuários, contatos, grupos e outros recursos. Você se refere aos destinatários como ativado para caixa de correio ou como ativado para correio. Os destinatários que são ativados para caixa de correio (usuários) possuem caixas de correio para enviar e receber mensagens de email. Os destinatários que são ativados para correio (contatos e grupos) têm endereço de email, mas não têm caixa postal. Assim, eles podem receber mensagens, mas não podem enviar; · Grupos administrativos: definem a estrutura lógica de uma organização do Exchange. Usados para organizar objetos de diretório e gerenciar os recursos do Exchange com eficiência. Os grupos administrativos são mais adequados para organizações grandes ou para organizações que possuam escritórios em várias localidades. Em uma empresa de pequeno ou médio porte, por exemplo, pode não ser necessário utilizar grupos administrativos. · Grupos de roteamento: são usados em instalações avançadas do Exchange, nas quais é preciso controlar a conectividade das mensagens e os canais de comunicação para grupos de servidores do Exchange. Quando você instala o primeiro servidor do Exchange em uma organização, o servidor é adicionado ao grupo de roteamento padrão. Não existe controle sobre esse grupo de roteamento com operações em modo misto. Os servidores adicionais instalados na organização do Exchange são adicionados a esse mesmo grupo de roteamento por padrão, e a conectividade de mensagens e a comunicação entre esses servidores são configuradas automaticamente. O envio e recebimento de uma mensagem de e-mail é realizada através de um sistema de correio eletrônico. Um sistema de correio eletrônico é composto de programas de computador que suportam a funcionalidade de cliente de e-mail e de um ou mais servidores de e-mail que, através de um endereço de e-mail, conseguem transferir uma mensagem de um usuário para outro. Estes sistemas utilizam protocolos de internet que permitem o tráfego de mensagens de um remetente para um ou mais destinatários que possuem computadoresconectados à Internet. Formato de e-mail na Internet O formato na Internet para mensagens de e-mail é definido na RFC 2822 e uma série de outras RFCs (RFC 2045 até a RFC 2049) que são conhecidas como MIME. Mensagens de e-mail consistem basicamente de duas seções principais: • cabeçalho (header) - é estruturada em campos que contém o remetente, destinatário e outras informações sobre o e-mail. • corpo (body) - contém o texto da mensagem. O corpo é separado do cabeçalho por uma linha em branco. Funcionalidades Hoje os grandes Sites criaram uma série de facilidades para o usuário podemos citar algumas. Note que essa variação é só uma facilidade e não um novo tipo de e-mail. Entre estas podemos citar: E-mail oculto É um mecanismo que permite o usuário ocultar seu endereço de origem e ao mesmo tempo manter em segredo seu dado pessoal E-mail restrito Alguns sites restringem alguns tipos de e-mail. Esse tipo de restrição normalmente é usado a fim de evitar a atuação de um spammer ou divulgador não autorizado, normalmente esse tipo de e-mail é mais usado em empresas. E-mail com privacidade segura Normalmente usado por autoridades e seu uso é controlado. Por medida de segurança alguns organismos e entidades internacionais ou mesmo ligados a Governos, categorizam o e-mail como: • Privativo ou de uso exclusivo da autoridade, esse e-mail, apesar de ter acesso a rede é tão restrito que a própria autoridade deve configurar de quem recebe os e-mails; • Semi Privativo o mesmo que privativo porem menos restrito. Os americanos chegam ao cúmulo de dar níveis e subníveis a esse tipo de e-mail; Entretanto, vêm crescendo o uso da criação de chaves criptográficas pessoais (facilidade provida por aplicativos especializados), assegurando a privacidade das informações "de qualquer importância" de cada indivíduo. Tais chaves possuem uma grande flexibilidade, escalabilidade e confiabilidade. Dicas de segurança: nunca abrir ou responder e-mails desconhecidos,nunca abrir arquivos de e-mails desconhecidos, pois podem conter vírus e ter sempre um anti-spyware e antivírus instalados no seu computador. E-mail categorizado ou especial Especial ou categorizado em níveis, são de usos exclusivos dos Provedores de INTERNET, servem para testes e verificar se funciona ou não o seu sistema anti spam. E-mails gratuitos Com a popularização da internet através dos provedores gratuitos (cujos usuários ganhavam também um e-mail grátis) muitos sites começaram a oferecer e-mails gratuitos desvinculados de qualquer outro serviço. Esses e-mails podem ser lidos com o uso do próprio navegador, sem a necessidade de um software específico, sendo por isso também chamados webmail. Popularidade O correio eletrônico se tornou tão popular devido a sua grande facilidade em quebrar barreiras geográficas. Pessoas que estão em diferentes continentes podem se comunicar, desde que possuam computadores conectado a Internet, eles podem enviar e receber mensagens a qualquer hora do dia e para qualquer parte do mundo. Observa-se que o correio eletrônico deixa de ser apenas um meio de troca de mensagens entre pessoas para se tornar um grande fator na produtividade das empresas. Grandes empresas estão cada vez mais utilizando o correio eletrônico para desempenhar papéis decisivos em suas negociações. A Intranet pode ser utilizada para tornar a comunicação de funcionários com outros grupos tornando assim mais fácil o trabalho e eliminando SPAM e outras mensagens indesejadas. Áreas de Aplicações As aplicações de correio eletrônico, normalmente oferecem ao usuário uma série de facilidades. A maior parte delas fornece um editor de textos embutido e a possibilidade do envio de arquivos anexados a correspondência. Além disso, a maioria das aplicações permite o envio de correspondências para um único destinatário ou o envio para mais de uma pessoa ou para um grupo de pessoas. Embora não tenha sido desenvolvida como uma ferramenta de trabalho cooperativo, os serviços de correio eletrônico adaptaram-se muito bem ao ambiente de grupos de trabalho onde se tornaram indispenáveis nas organizações, agilizando processos, democratizando o acesso as informações e diminuindo os custos. Esta é uma das formas mais utilizadas para o estabelecimento de comunicações através do computador. Muitas organizações utilizam o correio eletrônico como forma de troca de mensagens, mas se quiserem utilizar recursos de groupware poderão inclui-los de forma simples e com baixo custo, com uma boa seguranca. FTP (File Transfer Protocol) FTP significa File Transfer Protocol (Protocolo de Transferência de Arquivos), e é uma forma bastante rápida e versátil de transferir arquivos sendo uma das mais usadas na internet. Pode referir-se tanto ao protocolo quanto ao programa que implementa este protocolo (neste caso, tradicionalmente aparece em letras minúsculas, por influência do programa de transferência de arquivos do Unix). A transferência de dados em redes de computadores envolve normalmente transferência de ficheiros e acesso a sistemas de ficheiros remotos (com a mesma interface usada nos ficheiros locais). O FTP (RFC 959) é baseado no TCP, mas é anterior à pilha de protocolos TCP/IP, sendo posteriormente adaptado para o TCP/IP. É o standard da pilha TCP/IP para transferir ficheiros, é um protocolo genérico independente de hardware e do sistema operativo e transfere ficheiros por livre arbítrio, tendo em conta restrições de acesso e propriedades dos ficheiros. Modos e interfaces O protocolo subjacente ao FTP pode correr nos modos iterativo ou "batch". O cliente FTP fornece uma interface interactiva, enquanto que o MIME e o HTTP usam-no directamente. O protocolo permite a gravação e obtenção de ficheiros, a listagem do directório e a alteração do directório de trabalho. Funcionamento O protocolo de transferência de arquivos envolve duas diferentes conexões . O programa do usuário envia o comando " log-me neste usuário" , " aqui está meu password" , " envie- me o arquivo com este nome". Assim que o comando para mandar dados é enviado, uma segunda conexão é aberta para seus dados. Certamente seria possível enviar dados em uma conexão, como o mail faz. Entretanto, transferências de arquivos geralmente levam algum tempo e os projetistas do FTP desejavam permitir que o usuário continuasse emitindo comandos enquanto a transferência era feita. Por exemplo, solicitar uma informação ou abortar a transferência. Assim os projetistas sentiram que foi melhor usar uma conexão separada para os dados e deixar a conexão original para os comandos. Facilidades FTP 1)Acesso interativo Embora FTP seja designado para ser usado por programas, a maioria das implementações proporcionam uma interface interativa que permite as pessoas interagirem com servidores remotos facilmente. 2)Especificação do formato FTP permite ao cliente especificar o tipo e o formato dos dados armazenados. 3)Controle de autenticação FTP solicita aos clientes a sua autorização para enviar um login name e uma password para o servidor antes de solicitar transferência de arquivo. O servidor recusa o acesso do cliente que não fornece um login e uma password válidos. FERRAMENTAS DE BUSCA Principais ferramentas de busca nos EUA e no Brasil, segundo UFRJ. Estados Unidos 37.com AHKING.NET All4One AllSearchEngin es.com Amera Argus Clearingh. Altavista Atlantica Belseek Bighoo! Big what.com Bomis.com Clever Search Cyber411 Cyberdirectory Direct Hit! Eletric Library EL TURCO! Excite Fast Search FINAL SEARCH Galaxy Go Crawl Go To.com Google Guide to Meta SEs Hachette.net HandiLinks Hitbox! Hits Galore Hotbot Hyperseek ICN Explorer i.Explorer Infohiway Infomak Infoseek InfoSpaceJASS AN Jump City Kanoodle Linkavista.com Link Monster Linkopedia LinkStar Look Smart Lycos Magellan Mamma Match SiteMeta Bug MetaCrawler MetaFind Meta Gopher Meta Search MEGAWEB Mining Co.Com MicroWho Monster Crawler MultiMeta MyWay National Directory Net Acer Net Guide Nerd World Net Windows Netcenter Northern Light One Seek Open Directory Open Text PHATOZ Prime Seek ProFusion Pure Search Qango Quest Finder Resoft Links REX SavvySearch Surfy Search-Beat Search King Search Lynx SearchSpaniel SignPost! SmallBizFFA Snap Starting Point Suite 101.com Surf Oasis Surf Point Super Crawler Super Snooper Surf Gopher Tagapaghanap Tecor The Big Hub The Cozy Cabin THE NET ONE The Rail Junction The Search Index The UltraBrowser total SEEK Turbo Seek.net! Webcrawler WebData® Classifications Web Ripper Web Search Web Surfer What´s New What´s New Too WhatUseek World Hot.com WWWVirtualLi b Web Info Search Web Taxi WebSearch Yahoo Yep Yippie.net Brasil Abusca Altavista.com.br Aonde Argos BookMarks - AlterNex Search Brazilian Business ConnectionBrazi lBiz Brazilis Index Busca Aqui Busca Web Cadê? forum busca Guia Internet StarMedia i mais Online WWW Index LOJA NET MetaBusca Miner MisterZ NetscOpiO PlugSearch Quem? Radar UOL Radix Surf SuperMail Tornado Vanguarda VISÃO WS Guide www.procura.co m.br Yahoo!Brasil ZAP BUSCA Zeek Textos complementares Possibilidades da tecnologia Deve haver equilíbrio entre troca de arquivo e direito autoral por Daniel Arbix Desde antes da internet, conteúdos podiam ser transmitidos de um computador para outro, por meio de conexão direta. Hoje, tornou-se comum uma pessoa mandar a outra, por e-mail, um texto, uma música ou uma foto. A diversidade de ferramentas de publicação impressiona: blogs, fotologs, websites e wikis surgem como novas opções para o envio de arquivos, com poucos cliques, sem intermediários e praticamente sem custos. Esses modelos de troca de conteúdos pressupõem o conhecimento do interlocutor virtual. Quem deseja um arquivo precisa tomar algum contato prévio com quem o enviará. Com a popularização da internet, porém, demandaram-se meios mais eficientes para a aproximação desses interessados. Então, substituindo formas mais simples de comunicação, as tecnologias P2P — peer-to-peer revolucionaram as relações online de troca e distribuição de conteúdos. O funcionamento dos programas P2P é tão inovador quanto simples. Um software liga cada pessoa online às outras, formando listas de todas as músicas, textos e filmes disponíveis. Nessa rede virtual, multiplicam-se os conteúdos trocáveis e as trocas de conteúdo — quase sempre entre desconhecidos. A partir do Napster, de 1999, uma infinidade de programas P2P voltou-se à transmissão de conteúdos digitais. Essa proliferação transformou os fluxos da internet — arquivos antes transmitidos de websites a usuários da rede passaram a circular diretamente entre os interessados. Sem “depósitos de arquivos”, o trânsito de parceiro para parceiro (peer to peer) dispensou intermediários. As ferramentas P2P são hoje responsáveis por mais da metade do tráfego da internet. Seu sucesso vem da flexibilidade (além de músicas e vídeos, textos, jogos e até softwares inteiros são distribuídos por esses programas), e de facilidade e rapidez no contato com novos conteúdos. A oferta ampliada de produtos culturais fascina internautas antigos e recentes. Com os programas P2P, a projeção cultural é possível sem os canais tradicionais da indústria do entretenimento. As limitações materiais enfrentadas são a capacidade da conexão à internet e o tempo disponível. Para os usuários incautos desses programas, contudo, mais perigosa é a limitação jurídica à troca de conteúdos: a proteção imediata decorrente de direitos autorais e de imagem, e a mediata, das relações contratuais em que os bens intelectuais trocados se inserem. As empresas que investem em P2P tem nos anúncios sua principal fonte de receitas. Por isso, visam à ampliação de sua base de consumidores. Nem sempre, entretanto, de forma atenta a direitos de terceiros — há poucos instrumentos de compensação aos autores dos conteúdos transmitidos, e até pouco tempo atrás, havia mesmo descaso com os direitos envolvidos. Os programas P2P foram logo acusados de violação em massa de tais direitos, de desrespeito à privacidade de usuários e de disseminação de vírus e pornografia. Essas reclamações alimentaram uma ação judicial contra o Napster, condenado pela Suprema Corte dos Estados Unidos por não monitorar a transmissão de conteúdos protegidos. Os programas P2P posteriores já não podiam mais fazer esse tipo de intervenção, porque não formavam listas de arquivos em um único servidor. Cada usuário enxergava os conteúdos disponíveis após comunicação direta com os demais usuários. À primeira vista, o controle mais frouxo seria um incentivo à impunidade. Mas, no final de 2005, a mesma Suprema Corte condenou o programa Grokster por incentivar a violação de direitos autorais, ainda que não pudesse controlar as ações dos usuários de seu software. Ademais, no mundo todo, indivíduos foram processados por transmitir, sem autorização, conteúdos protegidos por direitos autorais. A distinção nebulosa entre usos legítimos e ilegais das tecnologias P2P torna essas batalhas judiciais incertas, custosas e negativas sobre o público consumidor de músicas e filmes. A opção pelo litígio divide titulares de direitos autorais, de um lado, e empresas e indivíduos interessados em compartilhar conteúdos protegidos, de outro. A indústria do entretenimento, então, adotou de vez o comércio pela internet. O pioneiro site iTunes recentemente ultrapassou 500 milhões de downloads, movimentando em 2005 mais de US$ 1 bilhão. No Brasil, gravadoras, selos fonográficos, distribuidores de filmes e artistas independentes também seguem essa tendência. A opção pela distribuição não convencional é estratégia comercial cada vez mais necessária e lucrativa. Perdem espaço os suportes físicos (CDs, DVDs etc.) — os estúdios Warner, por exemplo, acabam de anunciar a venda de filmes pelo programa P2P BitTorrent, responsável atualmente por um quarto do tráfego da internet. Esses programas, por sua vez, tomaram medidas próprias para evitar confrontos judiciais. Alguns filtram os arquivos transmitidos, vetando conteúdos ilícitos. Outros excluem usuários que promovem a pirataria. Tais iniciativas mostram clara disposição para não violar as leis que protegem as criações intelectuais. Busca-se assim um equilíbrio quanto aos direitos autorais e as tecnologias de transmissão de conteúdos. Os direitos da indústria do entretenimento são protegidos, com punições às transmissões ilegais de conteúdo. Ao mesmo tempo, não ficam proibidas as novas tecnologias. E os consumidores de tecnologias e bens intelectuais podem respirar mais livremente. (Artigo originalmente publicado no Valor Econômico) The Anatomy of a Large-Scale Hypertextual Web Search Engine Sergey Brin and Lawrence Page {sergey, page}@cs.stanford.edu Computer Science Department, Stanford University, Stanford, CA 94305 Resumo Nesse paper, apresentamos Google, um protótipo de uma máquina de busca em larga escala que faz uso intensivo da estrutura presente em hipertextos. Google é projetada para rastrear e indexar eficientemente a Web e produzir resultados mais satisfatórios do que sistemas existentes. Um protótipo com bancos de dados de textos completos e hiperlinks de pelo menos 24 milhões de páginas está disponível em /google.standford.edu Projetar uma máquina de busca é uma tarefa desafiante. Máquinas de busca indexam dezenas ou centenas de milhões de páginas web, contendo um número comparável de diferentes termos. Elas respondem a dezenas de milhões de pesquisas todos os dias. Apesar da importância demáquinas de busca em larga escala na internet, muito pouca pesquisa acadêmica tem sido feita a esse respeito. Além disso, por causa do rápido avanço da tecnologia e do crescimento acelerado da web, criar uma máquina de busca hoje é muito mais difícil do que três anos atrás. Esse paper fornece uma descrição detalhada de nossa máquina de busca de larga escala - a primeira descrição desse tipo de que se tem notícia até o presente. Além dos problemas de se adaptar as técnicas de pesquisa tradicionais a essas escalas gigantescas, existem outros desafios técnicos a serem enfrentados, referentes à utilização, para aprimoramento dos resultados, das informações adicionais presentes nos hipertextos. Outro problema abordado é como lidar com o fato de que novas informações, na forma de hipertexto, podem ser livremente publicadas por qualquer pessoa. Palavras-chave: World Wide Web, Search Engines, Information Retrieval, PageRank, Google Características do sistema. A Google apresenta duas importantes características que a ajudam a produzir resultados de alta precisão. Em primeiro lugar, ela faz uso da estrutura de links da Web pra calcular uma medida de qualidade para cada página; essa medida é chamada PageRank, e está descrita com detalhes em [Page 98]. Em segundo lugar, a Google utiliza informações contidas em links para melhorar o resultado das pesquisas. 2.1 PageRank: trazendo ordem para a Web O grafo de citações (links) da web é um recurso importante que tem sido pouco usado pelas máquinas de busca. Nós criamos alguns mapas que contêm 518 milhões de hiperlinks, uma amostra significativa do total. Esses mapas permitem um rápido cálculo do "PageRank" de páginas da web, uma medida objetiva de sua importância em citações, que guarda boa correlação com a idéia subjetiva que as pessoas têm de importância. Graças a essa correlação, PageRank é uma excelente maneira de priorizar os resultados de pesquisas por palavras- chave. Para temas populares, uma pesquisa que examina apenas os títulos das web pages retorna resultados admiráveis, quando os mesmos são ordenados por PageRank (demo disponível em google. stanford.edu). Para as pesquisas que avaliam todo o texto dos documentos, como ocorre no sistema principal da Google, PageRank também é de grande utilidade. 2.1.1. Descrição do cálculo do PageRank A técnica acadêmica de citações literárias tem sido aplicada à web, principalmente por meio da contagem de citações (links) a uma determinada página; essa técnicao fornece uma aproximação da importância ou qualidade de uma página. PageRank é uma extensão dessa idéia, com algumas diferenças: os links não são considerados todos iguais; é feita uma normalização do número de links em cada página. PageRank é definido da seguinte forma: Assumimos que existam páginas T1, T2, ..., Tn que contenham links apontando para a página A (ou seja, as páginas T fazem citações à página A). O parâmetro d é um fator redutor que pode assumir valores entre 0 e 1; nós usualmente estabelecemos d como 0.85 (há mais detalhes sobre d na próxima seção). C(A) representa o número de links que existem na página A. O PageRank da página A é dado pela expressão: PR(A) = (1-d) + d [PR(T1)/C(T1) + PR(T2)/C(T2) + ... + PR(Tn)/C(Tn)] Observe que os PageRanks formam uma distribuição de probabilidades através de páginas web; assim a soma dos PageRanks de todas as páginas web é igual a um. PageRank ou PR(A) pode ser calculado utilizando-se um simples algoritmo iterativo, e corresponde ao eigenvector principal da matriz normalizada de links da web. Ademais, o PageRank de 26 milhões de páginas pode ser calculado em algumas horas, utilizando-se uma estação de trabalho de médio porte. Há muitos outros detalhes que estão além do escopo desse trabalho. 2.2 Explicação intuitiva PageRank pode ser interpretado como o modelo de comportamento de um usário. Nós supomos que existe um "usuário aleatório", a quem se fornece uma página aleatório, a partir da qual ele clica aleatoriamente; tal usuário nunca clica o botão "back", mas em algum momento ele se cansa do conteúdo da página que está visitando e requisita outra página aleatória. A probabilidade de que esse usuário aleatório visite determinada página é o PageRank dessa página. Além disso, o fator redutor d é a probabilidade, em cada página, de que o usuário aleatório se canse e requisite outra página aleatória. Uma variação importante é atribuir o fator d apenas a uma página, ou a um grupo de páginas. Isso permite personalização e torna quase impossível enganar deliberadamente o sistema, a fim de se conseguir maiores rankings. Há outras extensões de PageRank, ver [Page98]. Outra explicação intuitiva é que uma página terá alto PageRank se houver muitas páginas apontando para ela, ou se houver algumas páginas de alto PageRank apontando para ela. Intuitivamente, é fácil aceitar que páginas que são freqüentemente citadas em muitos outros pontos da web são merecedoras de uma visita; por outro lado; se uma página não é de alta qualidade, ou se for um link quebrado, é pouco provável que a homepage do Yahoo! aponte para ela. PageRank trata essas duas situações, e todas as outras situações intermediárias, por meio da propagação recursiva de pesos através da estrutura de links da web. 2.2 Texto âncora O texto dos links é tratado de maneira especial pela nossa search engine. A maioria das máquinas de busca associa o texto de um link com a página que contém o link; nós, além de fazer isso, associamos o texto com a página para a qual o link aponta. Isso apresenta algumas vantagens. Âncoras, freqüentemente, fornecem uma descrição mais precisa de páginas web do que as próprias páginas. Além disso, âncoras podem existir para documentos que não podem indexadas por uma search engine baseada em texto, tais como imagens, programas e bancos de dados; torna-se possível assim retornar páginas que não foram de fatos rastreadas (crawled). Vale notar que páginas que não foram rastreadas podem causar problemas, já que sua validade nunca foi verificada, antes de serem retornadas para os usários; pode ocorrer, inclusive, que a search engine retorne uma página que nunca tenha existido, mas que tenha links apontando para ela (contudo, como é possível ordenar os resultados, esse problema raramente acontece). Essa idéia de propagação de texto-âncora à página à qual o link aponta foi implementada no World Wide Web Worm [McBryan 94], especialmente porque ela ajuda na pesquisa de informações não-textuais, e expande a cobertura da pesquisa a partir de um menor número de documentos baixados. Nós utilizamos texto-âncora principalmente para obter resultados de melhor qualidade. A utilização eficiente de textos-âncora é difícil, por causa das grandes quantidades de dados que vem ser processadas; em nossa amostra de 24 milhões de páginas, nós indexamos mais de 259 milhões de âncoras. 2.3 Outras peculiaridades Além de PageRank e do uso de texto âncora, Google apresenta outras diversas peculiaridades. Primeiramente, ela tem informação sobre a localização de todos os hits (Nota do Tradutor: um hit significa que uma palavra-chave foi identificada num documento) e, por isso, faz uso intensivo da proximidade de palavras-chave, ao realizar as pesquisas. Além disso, Google presta atenção a alguns detalhes visuais da apresentação, como tamanho das fontes; palavras escritas em fontes maiores ou com negritos têm um peso maior que outras palavras. Ademais, o inteiro teor das páginas HTML fica disponível em um repositório próprio. Google PageRank Para se compreender o que é, e qual a importância do Pagerank, é necessário recordar um pouco da luta entre Search Engines e spammers que vem sendo travada desde que a internet tornou-se comercial. Já se tornara evidente que (as SERPs mostravam isso), se se deixasse a cargo dos webmasters a tarefa de determinar qual o assunto abordado nas páginas (ou seja, se o ranking fosse determinado apenas por fatores
Compartilhar