Buscar

PROINTER FInalizado - MOD

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 95 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 95 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 95 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE ANHANGUERA – UNIDERP
CURSO: PROJETO INTERDISCIPLINAR APLICADO A TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS
ALUNO – RA: 1234567890
ALUNO – RA: 1234567890
ALUNO – RA: 1234567890
PROJETO INTERDISCIPLINAR - PROINTER
Para uso acadêmico discente
Disciplina: Projeto Interdisciplinar Aplicado a Tecnologia em Análise e Desenvolvimento de Sistemas V
 (PROINTER V)
Tutor (a) EAD: 
Tutor Eletrônico: PROFESSOR.
Tutor de Sala: PROFESSOR.
São Bernardo do Campo / SP
2019
UNIVERSIDADE ANHANGUERA – UNIDERP
CURSO: PROJETO INTERDISCIPLINAR APLICADO A TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS
ALUNO – RA: 1234567890
ALUNO – RA: 1234567890
ALUNO – RA: 1234567890
PROJETO INTERDISCIPLINAR - PROINTER
Para uso acadêmico discente
Disciplina: Projeto Interdisciplinar Aplicado a Tecnologia em Análise e Desenvolvimento de Sistemas V
Tutor (a) EAD: 
Trabalho desenvolvido para o curso de tecnologia em análise e desenvolvimento de sistemas, disciplina projeto interdisciplinar aplicado a tecnologia em análise e desenvolvimento de Sistemas, apresentado à Anhanguera Educacional como requisito para a avaliação na Atividade PROINTER V, No 2º semestre 2019, sob orientação do tutor (a) EAD. PROFESSOR
São Bernardo do Campo / SP
2019
SUMÁRIO
CONTEXTUALIZAÇÃO	6
1. ADMINISTRADOR DE SISTEMAS	7
1.1. PONTOS DE VISTA EMPRESARIAIS SOBRE ADMINISTRADOR DE SISTEMAS	7
1.2. ADMINISTRADOR DE SISTEMAS	7
2. ÁREAS RELACIONADAS	8
3. TREINAMENTO	9
4. RESPONSABILIDADES DE UM ADMINISTRADOS DE SISTEMAS	10
4.1. Solucionar qualquer problema reportado nos sistemas.	10
4.2. PRIVILÉGIO DE ADMINISTRADOR DE SISTEMA	11
5. SISTEMAS OPERACIONAIS	11
5.1. VISÃO GERAL	12
5.2. Microsoft Windows	12
5.2.1. Características técnicas	13
5.2.2. WINDOWS 7	14
5.2.3.	Recursos adicionados e melhorias	15
5.3. WINDOWS 10	16
5.3.1. Características	17
5.4. LINUX	17
5.4.1. Criação	18
5.4.2. NÚCLEO	19
5.4.3. ARQUITETURA	19
5.4.4. PORTABILIDADE	20
5.4.5. TERMOS DE LICENCIAMENTO	20
5.4.6. SISTEMAS DE ARQUIVOS SUPORTADOS	20
5.4.7. UBUNTU	23
5.4.7.1. Características	23
5.4.8. DEBIAN VS. UBUNTU	23
5.4.9. USABILIDADE E ACESSIBILIDADE	24
5.4.10. POPULARIDADE	24
5.4.11. APARÊNCIA	24
5.4.12. APLICATIVOS	24
5.4.13. CLASSIFICAÇÃO DE PACOTES E SUPORTE	25
5.4.13.1 OPENSUSE	25
5.4.13.2. DISTRIBUIÇÃO OPENSUSE	26
5.4.13.3 SUSE STUDIO	26
5.4.13.4. ZYPPER	26
5.5. MacOS	26
5.5.1. DESCRIÇÃO	27
5.5.2. OSX	27
5.5.3. MACOS	28
5.5.3.1. MACOS V010.12 “Sierra"	28
5.5.3.2. MACOS V10.13 "High Sierra"	29
5.5.3.3. MACOS V10.14 "Mojave"	29
5.5.3.4. MACOS V10.15 “Catalina"	29
5.6. SISTEMAS OPERACIONAIS MODERNOS	30
5.7. TIPOS DE SISTEMAS	30
5.7.1.Sistema Mono-programado	30
5.7.2. Sistema em Lote	30
5.7.3. Sistema multi-processadores	31
5.8. SISTEMAS FRACAMENTE ACOPLADOS	31
5.9. SISTEMA MULTI-PROGRAMADO PARA TEMPO REAL	32
5.9.1. Interface de uso	32
5.9.2. Interface de terminal	32
5.9.3. Interface textual	32
5.9.4. Interface gráfica	33
5.9.5. Interface de voz	33
6. AQUITETURA DE COMPUTADORES	33
7. HISTÓRIA	34
7.1. MEMÓRIA VIRTUAL	35
7.2. SEGMENTAÇÃO DAS INSTRUÇÕES (PIPELINE)	35
7.3. EVOLULÇÃO DOS COMPUTADORES	36
7.4. EVOLUÇÃO DOS DISPOSITIVOS MÓVEIS	46
7.4.1. Dispositivos móveis - História e Evolução	46
8. SUBSISTEMA DE MEMÓRIA	49
9. DIFERENÇAS ENTRE OS DISPOSITIVOS	50
9.1. Um pouco de história	50
9.1.1. DESKTOPS	51
9.1.2. ALL-IN-ONE	52
9.1.3. NOTEBOOKS	53
9.1.4. NETBOOKS	54
9.1.5. TABLET PC	55
9.1.6. TABLETS	56
9.1.7. SMARTPHONES	57
10. CLOUD COMPUTING	57
10.1. Corrida pela tecnologia	58
10.2. Modelos de serviço	58
10.3. Característica de computação em nuvem	61
10.4. Modelo de implantação	62
10.5. Nuvem privada	63
10.6. Nuvem pública	63
10.7. Nuvem híbrida	63
10.8. Nuvem comunitária	64
10.9. Nuvem HPC	64
10.10.Multicloud	65
10.11. Nuvem de BigData	65
10.12. Nuvem Distribuída	65
10.13. Arquitetura de Nuvem (Cloud computing sample architecture)	66
10.14. Engenharia de Nuvem	66
10.15. Vantagens	66
10.16. Desvantagens	67
10.17. Gerenciamento da segurança da informação na nuvem	67
10.17.1 Sete princípios de segurança em uma rede em nuvem:	67
10.18 Sistemas atuais	68
10.20. Nuvens públicas	72
11. MODELOS TECNOLÓGICOS	72
11.1. Notebook Dell Inspiron 15 3000 i15-3583-A20P	72
11.1.1. Ficha técnica	72
11.2. Notebook conversível Acer Spin 3 SP314-51-	74
11.2.1. Ficha técnica	74
11.3. Benchmark de desempenho	76
11.4. Tablets	77
11.4.1. Samsung Galaxy Tab S6	77
11.4.2. Apple iPad Pro (11-inch)	78
11.4.3. Ficha técnica comparativa	78
12. MAPA DO SITE	80
12.1. Linguagem HTML	80
12.1.1. Primeira Página	80
12.1.2. Segunda Página	81
12.1.3. Terceira Página	89
12.1.4. Página Configuração CSS	92
12.2. HTML em modo visual	94
13. CONCLUSÃO	97
14. REFERÊNCIAS BIBLIOGRÁFICAS	98
CONTEXTUALIZAÇÃO
A presente disciplina tem por finalidade contextualizar todo o conhecimento que vem sendo adquirindo durante as aulas, nas disciplinas estudadas, observando a importância deste conhecimento na sua vida profissional para a tomada de decisões. Ao desenvolver o PROINTER, estamos interagindo com a teoria e a prática profissional. Para tanto, mantivemos o máximo de atenção aos conteúdos ministrados nas aulas e nos materiais e livros das disciplinas que norteiam este Projeto. 
As disciplinas norteadoras deste estudo são: Sistemas Operacionais, Organização de Computadores, Ferramentas para Sistemas Web, Probabilidade e Estatística e Desenvolvimento Pessoal e Profissional.
1. ADMINISTRADOR DE SISTEMAS
Um administrador de sistemas é uma pessoa encarregada por manter e operar computadores e/ou a sua rede. Administradores de sistemas geralmente são membros do departamento de Tecnologia da Informação (TI).
As funções de um administrador de sistemas são bem abrangentes, e variam muito de uma organização para outra. Administradores de sistemas usualmente são encarregados de instalar, suportar, e manter servidores e outros sistemas, e planejar para responder a indisponibilidades de serviços e outros problemas. Outras tarefas incluem programação de scripts ou programas pequenos, gerenciamento de projetos para projetos relacionados a sistemas, supervisionar ou treinar técnicos de operação e de apoio, e consultoria para problemas de sistemas além do conhecimento do Técnico de Apoio ao Usuário ou Suporte de Primeiro Nível. Um administrador de sistemas deve demonstrar tanto competência técnica quanto responsabilidade.
1.1. PONTOS DE VISTA EMPRESARIAIS SOBRE ADMINISTRADOR DE SISTEMAS
O que faz?
Administra servidores para garantir disponibilidade do sistema e segurança física e dos dados de tráfego. Faz instalação, manutenção e administração de sistemas e da infraestrutura informática. Desenvolve configuração adequada às necessidades da empresa para correta utilização de todos os recursos disponíveis. Elabora proposta de regras e de mecanismos de acesso dos diversos utilizadores e a define normas de salvaguarda e de recuperação da informação, a fim de prevenir riscos. 
Opinião retirada da página web CATHO em: https://www.catho.com.br/profissoes/administrador-de-sistemas
1.2. ADMINISTRADOR DE SISTEMAS
 O que faz um Administrador de Sistemas
O Administrador de Sistemas é o profissional responsável por coordenar ambientes computacionais, implantando e documentando rotinas e projetos controlando os níveis de serviço de sistemas operacionais, banco de dados e redes.
Um Administrador de Sistemas fornece suporte técnico no uso de equipamentos e programas computacionais e no apoio a usuários, configurando e instalando recursos e sistemas computacionais controlando a segurança do ambiente computacional.
Está sob as responsabilidades de um Administrador de Sistemas atuar com a configuração e manutenção do ambiente dos sistemas, desde a monitoração do desempenho e disponibilidade dos sistemas, realizar a definição e acompanhamento de fornecedores de infraestrutura de sistema, atuar com montagem de máquinas, fazer a configuração e manutenção de backup, realizando as instalações e configurações dos sistemas operacionais.
Para que o profissional tenha um bom desempenho como Administrador de Sistemasalém da graduação é essencial que possua conhecimento em arquitetura de software, automação de infraestrutura e implantação de sistemas gerais.
Com que áreas dentro de uma empresa, um Administrador de Sistemas se relaciona?
O Administrador de Sistemas por ser o profissional responsável por coordenar ambientes computacionais, implantando e documentando rotinas e projetos controlando os níveis de serviço de sistemas operacionais, banco de dados e redes se relaciona com as áreas de Banco de Dados, Telecomunicações e TI.
Opinião retirada da página web INFOJOBS em: https://www.infojobs.com.br/artigos/Administrador_de_Sistemas__3949.aspx
2. ÁREAS RELACIONADAS
Outras organizações incorporam outras funções/papéis afins aos administradores de sistemas. Em uma grande empresa estas funções são normalmente desempenhadas por cargos ou equipes distintas dentro do departamento de Serviços de Informação ou de Informática junto com Telecomunicações. Em empresas menores estes papéis são compartilhados por alguns administradores de sistemas, ou até mesmo em uma única pessoa.
Um Administrador de banco de dados (DBA) é responsável por manter um sistema de banco de dados, e é responsável pela integridade dos dados e a eficiência e performance do sistema.
Um Administrador de Redes é responsável por manter a infraestrutura de rede como os switches e roteadores, e diagnosticar problemas com estes componentes ou com o comportamento de computadores ligados à rede.
Um Analista de Segurança é um especialista em segurança de computadores e redes, assim como a administração de dispositivos de segurança como firewalls, e também um consultor para medidas de segurança em geral.
Um Administrador Web é responsável por manter os serviços de Web (como IIS ou Apache) que permitem o acesso interno e externo às páginas/sistemas web. As tarefas incluem gerenciar múltiplos sites, administrar a segurança, e configurar componentes necessários de hardware e software. Pode também ser responsável pelo software de gerência de mudança.
Um Técnico de Apoio ao Usuário ou Suporte de Primeiro Nível deve prestar ajuda às dificuldades individuais dos usuários com os sistemas computacionais, prover instruções e algumas vezes treinamento, e diagnosticar e resolver problemas comuns.
Um Técnico de Operação executa rotinas de manutenção e cuidados necessários, tais como trocar fitas de backup ou substituir discos defeituosos em um RAID. As tarefas executadas usualmente requerem intervenção física no ambiente onde está o computador; embora as tarefas não exijam tanta competência técnica tais como as de um administrador de sistema requerem um nível de responsabilidade e confiança similar, pois o operador tem acesso a dados que podem ser sensíveis e muito importantes.
Em algumas organizações, uma pessoa pode começar como um Técnico de Apoio ao Usuário ou um Técnico de Operação, e então ganhar experiência no trabalho para ser promovido a um cargo de Administrador de Sistemas.
3. TREINAMENTO
Diferente de muitas outras profissões, não há um único caminho para se tornar um administrador de sistemas. Diversos administradores de sistemas possuem diplomas superiores nos cursos de Ciência da Computação, Sistema de Informação, Engenharia da Computação, ou mesmo de técnico em informática.
Uma das principais dificuldades do ensino de administração de sistemas como uma disciplina formal na universidade, é que a velocidade que a indústria e as tecnologias mudam é muito maior que o processo de certificação de uma nova ementa curricular para a disciplina. A chance seria grande que após anos de processos e aprovações por comitês, a tecnologia específica para o qual o curso foi desenhado já tenha sido modificado significantemente ou que já esteja obsoleta.
Ainda existem, devido a natureza prática da administração de sistema e o fácil acesso e disponibilização dos softwares Open Source para servidores, muitos administradores de sistemas que entraram no ramo de maneiro autodidata.
Geralmente, será exigido de um candidato a administrador de sistemas alguma experiência com o sistema com o qual ele ou ela irá administrar. Em alguns casos, é esperado que os candidatos possuam certificações do mercado tais como Microsoft MCSA, MCSE, Red Hat RHCE, Novell CNA, CNE, Cisco CCNA ou CompTIA A+ ou Network+, Sun Certified SCNA, Linux Professional Institute entre outros.
Algumas vezes, quase exclusivamente para empresas menores, a função de administrador de sistemas pode ser atribuída a um usuário avançado em adição ou substituição de suas tarefas. Por exemplo, não é incomum encontrar professores de matemática, física ou informática sendo os administradores de sistemas de uma escola de ensino médio.
4. RESPONSABILIDADES DE UM ADMINISTRADOS DE SISTEMAS
As responsabilidades de um administrador de sistemas podem incluir:
4.1. Solucionar qualquer problema reportado nos sistemas.
Ajustes para melhorar a performance dos sistemas, assegurar que a infraestrutura de rede esteja disponível e operacional.
Em grandes empresas, algumas das tarefas listadas acima podem ser divididas entre diferentes administradores de sistemas ou membros de equipes diferentes. Por exemplo, uma pessoa poderia estar dedicada a aplicar todas as atualizações dos sistemas, uma equipe de qualidade executaria os testes e validações, e um ou mais redatores técnicos seriam responsáveis por toda a documentação técnica escrita.
Em empresas menores, o administrador de sistemas pode também desempenhar diversas funções que em outras são associadas com outros campos como:
· Técnico de apoio ao usuário
· Administrador de banco de dados (DBA)
· Analista/Especialista/Administrador de redes
· Analista de sistemas
· Analista de Segurança da Informação
· Programador
Administradores de sistemas, em grandes empresas, não costumam ser arquitetos de sistemas ou engenheiros de sistemas. No entanto, como muitas funções nesta área, não há uma demarcação clara entre as funções de um administrador de sistemas e outras funções técnicas não são bem definidas em empresas menores. Mesmo em grandes empresas, um administrador de sistemas sênior geralmente terá competência em outras áreas em resultado de sua experiência de trabalho.
Em empresas pequenas, as funções de TI são menos discernidas, e o termo administrador de sistemas é utilizado de forma genérica para se referir às pessoas que sabem como o sistema funciona e são acionadas quando algum sistema falha.
4.2. PRIVILÉGIO DE ADMINISTRADOR DE SISTEMA
O termo administrador ou root pode também ser usado para descrever um privilégio que o dono de uma máquina deve obter para realizar certas ações como instalações, mesmo que o computador não faça parte de um sistema maior.
5. SISTEMAS OPERACIONAIS
Sistema operacional (em inglês: Operating System - OS) é um programa ou um conjunto de programas cuja função é gerenciar os recursos do sistema (definir qual programa recebe atenção do processador, gerenciar memória, criar um sistema de arquivos, etc.), fornecendo uma interface entre o computador e o usuário. Embora possa ser executado imediatamente após a máquina ser ligada, a maioria dos computadores pessoais de hoje o executa através de outro programa armazenado em uma memória não-volátil ROM chamado BIOS num processo chamado "bootstrapping", conceito em inglês usado para designar processos auto-sustentáveis, ou seja, capazes de prosseguirem sem ajuda externa. Após executar testes e iniciar os componentes da máquina (monitores, discos, etc), o BIOS procura pelo sistema operacional em alguma unidade de armazenamento, geralmente o Disco Rígido, e a partir daí o sistema operacional assume o controle da máquina. O sistema operacional reveza sua execução com a de outros programas, como se estivesse vigiando, controlando e orquestrando todo o processo computacional.
Segundo Tanenbaum, pela perspectiva do usuário ou programador, existem dois modos distintos de conceituar um sistema operacional:
Uma visão de cima para baixo (top-down): é uma abstração do hardware, fazendo o papel de intermediário entreos programas (software) e os componentes físicos do computador (hardware); ou
Uma visão de baixo para cima (bottom-up): é um gerenciador de recursos, i.e., que controla as aplicações (processos) a executar, como, quando e com quais recursos (memória, disco, periféricos).
Um sistema operacional é projetado para ocultar as particularidades de hardware (ditas "de baixo nível") e, com sua atuação, criar uma máquina abstrata que fornece às aplicações serviços compreensíveis ao usuário (ditas "de alto nível")
5.1. VISÃO GERAL
Existem vários sistemas operativos; entre eles, os mais utilizados no dia a dia, normalmente utilizados em computadores domésticos, são o Windows, Linux e macOS.
5.2. Microsoft Windows
Microsoft Windows (ou simplesmente Windows) é uma família de sistemas operacionais desenvolvidos, comercializados e vendidos pela Microsoft. É constituída por várias famílias de sistemas operacionais, cada qual atendendo a um determinado setor da indústria da computação, sendo que o sistema geralmente é associado com a arquitetura IBM PC compatível. As famílias ativas do Windows incluem Windows NT, Windows Embedded e Windows Phone; estes podem abranger subfamílias, como Windows CE ou Windows Server.
Entre as famílias Windows extintas estão o Windows 9x; o Windows 10 Mobile é um produto ativo, não relacionado à família defunta Windows Mobile. A Microsoft introduziu um ambiente operacional chamado Windows em 20 de novembro de 1985, como um shell para MS-DOS, em resposta ao crescente interesse em interfaces gráficas de usuário (GUIs).
O Microsoft Windows passou a dominar o mercado de computadores pessoais (PC) do mundo, com mais de 90% de participação de mercado, superando o Mac OS, que havia sido introduzido em 1984. A Apple chegou a ver o Windows como uma invasão injusta em sua inovação no desenvolvimento de produtos GUI, como o Lisa e o Macintosh (eventualmente resolvido na Justiça em favor da Microsoft em 1993). Nos PCs, o Windows ainda é o sistema operacional mais popular.
No entanto, em 2014, a Microsoft admitiu a perda da maioria do mercado global de sistemas operacionais para o sistema operacional móvel Android devido ao enorme crescimento nas vendas de smartphones. Em 2014, o número de dispositivos Windows vendidos era menos de 25% do que os dispositivos com Android. Essas comparações, no entanto, podem não ser totalmente relevantes, já que os dois sistemas operacionais visam plataformas tradicionalmente diferentes. Em setembro de 2016, a versão mais recente do Windows para PCs, tablets, smartphones e dispositivos embutidos era o Windows 10. As versões mais recentes para servidores era o Windows Server 2016.
Uma versão especializada do Windows é executada no console de jogos Xbox One
5.2.1. Características técnicas
A principal linguagem de programação usada para escrever o código-fonte das várias versões do Windows é o C e algumas partes com C++ e Assembly. Até a versão 3.11, o sistema rodava em 16 bits (apesar de poder instalar um update chamado Win32s para adicionar suporte a programas 32 bits), daí em diante, em 32 bits. As versões a partir do XP e Server 2003 estão preparadas para a tecnologia 64 bits. Os sistemas de 64 bits não possuem mais suporte para rodar nativamente aplicativos de 16 bits, sendo necessário uso de emuladores/máquinas virtuais.
Os bits são relacionados ao volume de dados que um microprocessador é capaz de lidar. Se um processador tem uma arquitetura de 64 bits, ele é capaz de lidar com dados na ordem de 264. Só que para isso ser possível, é necessário que o sistema operacional seja de 64 bits, caso contrário ele trabalhará com somente com instruções de 32 bits (Se o sistema for de 32 bits). Sistemas operacionais de 64 bits também endereçam uma quantidade maior de RAM, suportando até 192GB (Windows 7 Ultimate) ou 128GB (Windows XP Professional), contra 3,2GB dos sistemas de 32 bits.
Outra característica denominada de herança maldita devido o fato de ter herdado essa regra do DOS é o fato de não se poder criar pastas com os determinados nomes: con, prn, aux, com1 e ltp1. Trata-se de uma antiga herança que os SOs Windows carregam do MS-DOS e são palavras reservadas para a comunicação interna do SO. Portanto, mesmo o mais recente sistema da Microsoft é incapaz de interpretar tais sentenças como simples nomes através do Windows Explorer.
Através do Prompt de Comandos é possível criar pastas e arquivos com qualquer um dos nomes acima. Mas o sistema impede que os documentos sejam editados e excluídos pelo Windows Explorer.
5.2.2. WINDOWS 7 
É uma versão do Microsoft Windows, uma série de sistemas operativos produzidos pela Microsoft para uso em computadores pessoais, incluindo computadores domésticos e empresariais, laptops, tablets e PCs de centros de mídia, entre outros. Windows 7 foi lançado para empresas no dia 22 de julho de 2009, e começou a ser vendido livremente para usuários comuns às 00:00 do dia 22 de outubro de 2009, menos de três anos depois do lançamento de seu predecessor, Windows Vista. Pouco mais de três anos depois, o seu sucessor, Windows 8, foi lançado em 26 de outubro de 2012. 
Diferente do Windows Vista, que introduziu um grande número de novas características, Windows 7 foi uma atualização mais modesta e focalizada para ser mais eficiente, limpo e mais prático de usar, com a intenção de torná-lo totalmente compatível com aplicações e hardwares com os quais o Windows Vista já era compatível. Apresentações dadas pela companhia no começo de 2008 mostraram um "Shell" novo, com uma barra de tarefas mais larga e que agora mostra ícones dos programas como atalhos, um novo Menu Iniciar que expande lateralmente mostrando os arquivos que já foram abertos pelo programa, um sistema de "network" chamada de "HomeGroup", e aumento na performance ao abrir programas e ao inicializar o Windows e uma nova tela de boot. Algumas aplicações que foram incluídas em lançamentos anteriores do Windows, como o Calendário do Windows, Windows Mail, Windows Movie Maker e Windows Photo Gallery não serão incluídos no Windows 7.
Em 2014, o Windows 7 alcançou 50,3% usuários mundiais, continuando como o sistema operacional mais usado do mundo, o Windows 8.1 ficou em segundo lugar com 10,95% e o Windows XP ficou em terceiro com 10,69%.
Em 1.º de fevereiro de 2018, o Windows 7 perdeu o posto de sistema mais usado no mundo com 41,86% de preferência enquanto o Windows 10 lançado em 29 de julho de 2015 têm 42,78% dos usuários.
Em 10 de setembro de 2018, a Microsoft lançou a público a notícia que entre 2020 e 2023, vai ser distribuídas Atualizações Estendidas de Segurança (ESU) para todos os clientes do Windows 7 nas versões Professional e Enterprise no Licenciamento por Volume. Dessa forma, as empresas terão um pouco mais de tempo de migrar para outro sistema operacional. A Microsoft irá cobrar por dispositivo, e o preço ficará mais alto a cada ano.
5.2.3.	Recursos adicionados e melhorias
O Windows 7 possui os seguintes recursos:
· Interface gráfica aprimorada, com nova barra de tarefas e suporte para telas touch screen e multi-táctil (multi-touch);
· Internet Explorer 8;
· O aplicativo Notas autoadesivas foi reformulado;
· Windows Defender;
· Documentos Recentes no Menu iniciar agora é exibido ao lado do Aplicativo no menu Iniciar;
· Windows Update;
· Novo menu Iniciar;
· Windows Photo Slide (Sucessor do DreamScene) muda a Wallpaper no desktop de segundos até 1 dia;
· Nova barra de tarefas totalmente reformulada que permite fixar o atalho do aplicativo como um favorito;
· Comando de voz (em inglês);
· Leitura nativa de Blu-Ray e HD DVD;
· Gadgets sobre o desktop, independentes da Sidebar;
· Novos papéis de parede, ícones, temas etc.;
· Conceito de bibliotecas (libraries), como no Windows Media Player, integrado ao Windows Explorer;
· Arquitetura modular, como no Windows Server 2008;
· Faixas (ribbons) nos programas incluídos com o Windows (Paint e WordPad, por exemplo), como no Microsoft Office 2010;
· Aceleradores no Internet Explorer 8 (também no Internet Explorer 9);
· Aperfeiçoamentono uso da placa de vídeo e memória RAM;
· UAC personalizável;
· Home Group;
· Melhor desempenho;
· Windows Media Player 12;
· Nova versão do Windows Media Center;
· Gerenciador de credenciais;
· Entre outras diversas.
5.3. WINDOWS 10 
É um sistema operacional da Microsoft, e atualmente a principal versão do Windows. A sua primeira versão de testes foi lançada a 1 de outubro de 2014 e apresentou uma série de mudanças em relação ao seu predecessor, o Windows 8.1. Entre elas, estão a volta do menu Iniciar, múltiplos ambientes de trabalho, novo navegador (Microsoft Edge), aplicativos renovados (Foto, Vídeo, Música, Loja, Outlook, Office Mobile e até o prompt de comando) e da união das múltiplas plataformas (inclusive o App Xbox). Além das mudanças, a Microsoft anunciou que disponibilizará a nova versão do Windows tanto para quem utiliza o original tanto para quem utiliza o pirata. Porém, os utilizadores com o sistema pirata não terão direito a suporte da marca. Este sistema operacional é o NT 10.0, saltando do 6.3 do Windows 8.1.
O Windows 10 recebeu, em grande parte, análises positivas, desde a sua data original de lançamento em 29 de julho de 2015; os críticos elogiaram a posição da Microsoft diante das críticas (especialmente dos usuários comuns) e sua decisão de eliminar algumas das mecânicas introduzidas no Windows 8, bem como a adição de um ambiente mais direcionado ao uso em computadores desktop, muito igualmente as versões anteriores do Windows, não obstante que a interface de touch do Windows 10 foi criticada por possuir diversas regressões em comparação à interface touch do Windows 8. Os críticos também elogiaram os melhoramentos do software integrado com o Windows 10 em comparação ao 8.1, a adição da integração com o Xbox Live, bem como as funcionalidades e capacidades do assistente pessoal do Cortana, e a substituição do Internet Explorer pelo Edge - apesar de que o navegador foi também criticado por ser incluso ainda em desenvolvimento.
O Windows 10 também foi criticado por limitar os usuários o quanto eles podem ter controle de suas operações; em particular, o Windows Update realiza a instalação de atualizações automaticamente, não permite mais que os usuários façam uma seleção manual do que deve ser instalado, e apenas as edições Pro do Windows 10 podem atrasar as atualizações automáticas. O consenso de privacidade do sistema, também foi assinalada por críticos e advogados, apontando que as configurações padrões do sistema e outras peculiaridades requisitam do envio de informações do usuário para a Microsoft e seus afiliados. A Microsoft também recebeu críticas pela forma como fez a distribuição do Windows 10 - que foi a inclusão automática dos arquivos de instalação sem demonstrar ao usuário pop-ups relativos ao upgrade. Os críticos caracterizaram o lançamento do Windows 10 como tendo sido levado às pressas, citando o estado incompleto de alguns dos softwares inclusos com o sistema (como é o caso do Microsoft Edge aludido acima), bem como a instabilidade do sistema operacional em si após seu lançamento. Em 1 de fevereiro de 2018, o Windows 10 passou o posto de sistema mais usado no mundo com 42,78% dos usuários posto que antes era do Windows 7 que possui 41,86% de preferência usuários.
5.3.1. Características
· Tema escuro no Navegador de arquivos.
· Comandos de energia podem ser ativados por voz via Cortana.
· Integração do teclado SwiftKey.
· Melhorias no Fluent Design
· Área de transferência integrada entre dispositivos Windows 10 (que estejam na mesma versão) e dispositivos Android que estejam utilizando o app SwiftKey (o recurso ainda será lançado no SwiftKey para Android).
· É possível fixar sites na barra de tarefas pelo Microsoft Edge.
· Barra de jogo reformulada.
· Nova ferramenta "Captura e esboço" melhorados
· Tema claro para Barra de Tarefas e Menu Iniciar.
· A Cortana foi separada do Windows Search.
· Adição de novos emojis.
· Melhorias no Fluent Design.
· Agora mais aplicativos internos podem ser desinstalados.
· Ícone de rede reformulado.
· Barra de controle de brilho adicionada na Central de Ações.
· Ícone do Windows Update adicionado na Barra de Tarefas
· Entre outras.
5.4. LINUX
É um termo popularmente empregado para se referir a sistemas operacionais que utilizam o Kernel Linux. O núcleo (ou kernel, em Alemão) foi desenvolvido pelo programador finlandês Linus Torvalds, inspirado no sistema Minix. O seu código fonte está disponível sob a licença GPL (versão 2) para que qualquer pessoa o possa utilizar, estudar, modificar e distribuir livremente de acordo com os termos da licença. A Free Software Foundation e seus colaboradores recomenda o nome GNU/Linux para descrever o sistema operacional, como resultado de uma disputa controversa entre membros da comunidade de software livre e código aberto.
Inicialmente desenvolvido e utilizado por grupos de entusiastas em computadores pessoais, os sistemas operacionais com núcleo Linux passaram a ter a colaboração de grandes empresas como IBM, Sun Microsystems, Hewlett-Packard (HP), Red Hat, Novell, Oracle, Google, Mandriva, Microsoft e Canonical.
O desenvolvimento do Linux é um dos exemplos mais proeminentes de colaboração de software livre e de código aberto. O código fonte pode ser usado, modificado e distribuído - com fins comercias ou não - por qualquer um, respeitando as licenças, como a GNU (General Public License) versão 2, devolvendo o código desenvolvido de volta para o desenvolvimento do núcleo.
Normalmente, o Linux é encontrado em uma distribuição Linux, seja para um computador ou para um servidor. Algumas distribuições Linux populares incluem Arch Linux, CentOS, Debian, Fedora Linux, Linux Mint, openSUSE, Ubuntu, além de distribuições focadas para usuários corporativos, como o Red Hat Enterprise Linux ou o SUSE Linux Enterprise Server. Uma distribuição Linux inclui o núcleo Linux, bibliotecas e utilidades, além de aplicações, como a suíte de escritório LibreOffice, um navegador de internet (normalmente Mozilla Firefox), entre outras aplicações.
5.4.1. Criação
O núcleo Linux foi, originalmente, escrito por Linus Torvalds do Departamento de Ciência da Computação da Universidade de Helsinki, Finlândia, com a ajuda de vários programadores voluntários através da Usenet (uma espécie de sistema de listas de discussão existente desde os primórdios da Internet).
Linus Torvalds começou o desenvolvimento do núcleo como um projeto particular, inspirado pelo seu interesse no Minix, um pequeno sistema UNIX desenvolvido por Andrew S. Tanenbaum. Ele limitou-se a criar, nas suas próprias palavras, "um Minix melhor que o Minix" ("a better Minix than Minix"). E depois de algum tempo de trabalho no projeto, sozinho, enviou a seguinte mensagem para comp.os.minix:.
Curiosamente, o nome Linux foi criado por Ari Lemmke, administrador do site ftp.funet.fi que deu esse nome ao diretório FTP onde o núcleo Linux estava inicialmente disponível. Linus inicialmente tinha-o batizado como "Freax". 
No dia 5 de outubro de 1991 Linus Torvalds anunciou a primeira versão "oficial" do núcleo Linux, versão 0.02. No ano de 1992, Linus Torvalds mudou a licença do núcleo Linux, de uma licença própria para uma licença livre compatível com a GPL do projeto GNU. Desde então, muitos programadores têm contribuído com o desenvolvimento, ajudando a fazer do Linux o núcleo de enorme sucesso colaborativo que é hoje. No início era utilizado por programadores ou só por quem tinha conhecimentos e usava linhas de comando. Hoje isso mudou e existem diversos grupos que criam ambientes gráficos para as diversas distribuições GNU/Linux, que são cada vez mais amigáveis, de forma que, uma pessoa com poucos conhecimentos consegue usar o Linux, através de uma distribuição GNU/Linux, por exemplo. Hoje o Linux é um núcleo estável e consegue reconhecer muitos periféricos sem a necessidade de que o usuário precise instalar drivers de som, vídeo, modem, rede, entre outros.
5.4.2. NÚCLEO
O termo Linux refere-se ao núcleo (em inglês: "kernel") do sistema operacional que iniciae gerencia outros programas que fornecem o acesso aos recursos do sistema como os vários softwares livres de shells, compiladores, bibliotecas-padrão e os comandos que fazem parte do Projeto GNU. O Projeto GNU, por sua vez, foi criado pela Free Software Foudation com o intuito de criar um sistema operacional completo, totalmente livre e compatível com o Unix. O principal compilador do Linux C, GCC, é um pedaço do projeto GNU.
5.4.3. ARQUITETURA
O Linux é um núcleo monolítico: as funções do núcleo (escalonamento de processos, gerenciamento de memória, operações de entrada/saída, acesso ao sistema de arquivos) são executadas no espaço de núcleo. Uma característica do núcleo Linux é que algumas das funções (drivers de dispositivos, suporte à rede, sistema de arquivos, por exemplo) podem ser compiladas e executadas como módulos (em inglês: LKM - loadable kernel modules), que são bibliotecas compiladas separadamente da parte principal do núcleo e podem ser carregadas e descarregadas após o núcleo estar em execução.
5.4.4. PORTABILIDADE
Embora Linus Torvalds não tivesse como objetivo inicial tornar o Linux um sistema portátil, ele evoluiu nessa direção. Linux é hoje um dos núcleos de sistemas operativos mais portáteis, correndo em sistemas desde o iPaq (um computador portátil) até o IBM S/390 (um denso e altamente custoso mainframe).
Os esforços de Linus foram também dirigidos a um diferente tipo de portabilidade. Portabilidade, de acordo com Linus, era a habilidade de facilmente compilar aplicações de uma variedade de código fonte no seu sistema; consequentemente, o Linux originalmente tornou-se popular em parte devido ao esforço para que os códigos-fonte GPL ou outros favoritos de todos corressem em Linux.
O Linux hoje funciona em dezenas de plataformas, desde mainframes até um relógio de pulso, passando por várias arquiteturas: x86 (Intel, AMD), x86-64 (Intel EM64T, AMD64), ARM, PowerPC, Alpha, SPARC e etc, com grande penetração também em sistemas embarcados, como handhelds, PVR, console de videogames, celulares, TVs e centros multimídia, entre outros.
5.4.5. TERMOS DE LICENCIAMENTO
Inicialmente, Torvalds lançou o Linux sob uma licença de software própria que proibia qualquer uso comercial. Isso foi mudado, um ano depois, para a GNU General Public License. Essa licença permite a distribuição e até a venda de versões até mesmo modificadas do Linux, mas requer que todas as cópias sejam lançadas dentro da mesma licença e acompanhadas de acesso ao código fonte.
Apesar de alguns dos programadores que contribuem para o núcleo permitirem que o seu código seja licenciado com GPL versão 2 ou posterior, grande parte do código (incluído as contribuições de Torvalds) menciona apenas a GPL versão 2. Isto faz com que o núcleo como um todo esteja sob a versão 2 exclusivamente.
5.4.6. SISTEMAS DE ARQUIVOS SUPORTADOS
O Linux possui suporte de leitura e escrita a vários sistemas de arquivos, de diversos sistemas operacionais, além de alguns sistemas nativos. Por isso, quando o Linux é instalado em dual boot com outros sistemas (Windows, por exemplo) ou mesmo funcionando como Live CD, ele poderá ler e escrever nas partições formatadas em FAT e NTFS. É por isso que os Live CDs Linux são muito utilizados na manutenção e recuperação de outros sistemas operacionais.
Entre os sistemas de ficheiros suportados pelo Linux, podemos citar UFS (Unix), FAT, NTFS, JFS, XFS, HPFS, Minix e ISO 9660 (sistema de ficheiros usado em CD-ROMs), este último também com as extensões RRIP (IEEE P1282) e ZISOFS. Alguns sistemas de ficheiros nativos são, entre outros, Ext2, Ext3, Ext4, ReiserFS e Reiser4. Alguns sistemas de ficheiros com características especiais são SWAP, UnionFS, SquashFS, Tmpfs, Aufs e NFS, dentre outros.
Atualmente, um Sistema Operacional Linux ou GNU/Linux completo (uma "Lista de distribuições de Linux ou GNU/Linux") é uma coleção de software livre (e por vezes não-livre) criado por indivíduos, grupos e organizações de todo o mundo, incluindo o núcleo Linux. Companhias como a Red Hat, a SuSE, a Mandriva (união da Mandrake com a Conectiva) e a Canonical (desenvolvedora do Ubuntu Linux), bem como projetos de comunidades como o Debian ou o Gentoo, compilam o software e fornecem um sistema completo, pronto para instalação e uso. Patrick Volkerding também fornece uma distribuição Linux, o Slackware.
As distribuições do Linux ou GNU/Linux começaram a receber uma popularidade limitada desde a segunda metade dos anos 90, como uma alternativa livre para os sistemas operacionais Microsoft Windows e Mac OS, principalmente por parte de pessoas acostumadas ao Unix na escola e no trabalho. O sistema tornou-se popular no mercado de Desktops e servidores, principalmente para a Web e servidores de bancos de dados.
Todas elas têm o seu público e sua finalidade, as pequenas (que ocupam poucos disquetes) são usadas para recuperação de sistemas danificados ou em monitoramento de redes de computadores.
Dentre as maiores, distribuídas em CDs, podem-se citar: Slackware, Debian, Suse, e Conectiva. Cada distribuição é, em síntese, um sistema operacional independente, de modo que os programas compilados para uma distribuição podem não rodar em outra, embora usem o mesmo núcleo (o Linux propriamente dito). A distribuição Conectiva Linux, por exemplo, tinha as suas aplicações traduzidas em português, o que fez com que os usuários que falam a Língua Portuguesa tenham aderido melhor a esta distribuição. Hoje esta distribuição foi incorporada à Mandrake, o que resultou na Mandriva. Para o português, existe também as distribuições brasileiras, como As mais recentes Duzero, Metamorphorse, GoboLinux, Linuxfx ctOS Big Linux, Dizinha Linux, DreamLinux, Dual O/S, Ekaaty, Famelix, FeniX, GoblinX, Kalango e Kurumin (essa distribuição foi descontinuada pelo seu mantenedor), construída sobre Knoppix e Debian, e a Caixa Mágica, existente nas versões 32 bits, 64 bits, Live CD 32 bits e Live CD 64 bits, e com vários programas open source: LibreOffice, Mozilla Firefox, entre outros.
Existem distribuições com ferramentas para configuração que facilitam a administração do sistema.
As principais diferenças entre as distribuições estão nos seus sistemas de pacotes, nas estruturas dos diretórios e na sua biblioteca básica. Por mais que a estrutura dos diretórios siga o mesmo padrão, o FSSTND é um padrão muito relaxado, principalmente em arquivos onde as configurações são diferentes entre as distribuições. Então normalmente todos seguem o padrão FHS (File Hierarchy System), que é o padrão mais novo. Vale lembrar, entretanto, que qualquer aplicativo ou driver desenvolvido para Linux pode ser compilado em qualquer distribuição que vai funcionar da mesma maneira.
Quanto à biblioteca, é usada a biblioteca libc, contendo funções básicas para o sistema Operacional Linux. O problema é que, quando do lançamento de uma nova versão da Biblioteca libc, algumas distribuições colocam logo a nova versão, enquanto outras aguardam um pouco. Por isso, alguns programas funcionam numa distribuição e noutras não.
Existe um movimento LSB (Linux Standard Base) que proporciona uma maior padronização. Auxilia principalmente vendedores de software que não liberam para distribuição do código fonte, sem tirar características das distribuições. O sistema de pacotes não é padronizado.
Arch Linux, Debian, Fedora, Manjaro Linux, SolusOS, Sabayon, Mandriva, Mint, openSuse, PCLinuxOS, Puppy, Slackware e Ubuntu são algumas das distribuições mais utilizadas atualmente, listadas aqui por ordem alfabética.
Existem também distribuições Linux para sistemas móveis, como tablets e smartphones, sendo o Android, desenvolvido pelo Google, a mais difundida de todas. Outras distribuições Linux para sistemas móveis são o Maemo e o MeeGo.
Vários fatores ajudaram a rápida expansão do Linux depois de seu lançamento:
Popularização dos computadores pessoais: o Unix era o S.O. padrão para estudos em universidades, porém, utilizavam plataformas proprietárias relativamente caras. O Linux se tornou uma opção para resolveresse problema, porque com ele foi possível a utilização de computadores pessoais mais baratos.
Projeto GNU: o projeto GNU, criado por Richard Stallman em 1984, surgiu com o intuito de apoiar a liberdade de software (veja seção mais adiante sobre Software Livre). Na época do surgimento do Linux, Stallman apoiava e pretendia adotar o kernel Hurd, porém este não estava utilizável, com isso, o Linux acabou sendo o kernel (componente central do sistema operacional ligando aplicativos e o processamento real de dados feito pelo hardware) preferido para rodar as centenas de programas livres disponibilizados pelo projeto, porém o Hurd continua sendo o kernel oficial do sistema operacional GNU.
Distribuições Linux: no sentido de tornar o Linux o mais utilizável possível, surgiram instituições comerciais e não-comerciais que se dedicaram a criar uma combinação ideal de aplicativos (livres ou não) que rodassem no kernel Linux. As instituições com objetivos comerciais mantiveram o licenciamento livre, através de serviços agregados, tais como: suporte, treinamento e desenvolvimento customizado. Veja seção mais adiante sobre distribuições Linux.
5.4.7. UBUNTU 
É um sistema operacional de código aberto, construído a partir do núcleo Linux, baseado no Debian e utiliza GNOME como ambiente de desktop de sua mais recente versão com suporte de longo prazo (LTS). É desenvolvido pela Canonical Ltd.
Geralmente é executado em computadores pessoais e também é popular em servidores de rede, geralmente executando a versão Ubuntu Server, com recursos de classe empresarial. Até 2017, o Ubuntu também estava disponível para tablets e smartphones, com a edição Ubuntu Touch.
A proposta do Ubuntu é oferecer um sistema que qualquer pessoa possa utilizar sem dificuldades, independentemente de nacionalidade, nível de conhecimento ou limitações físicas. O sistema deve ser constituído principalmente por software livre e deve também ser isento de qualquer taxa.
5.4.7.1. Características
O Ubuntu é produzido pela Canonical e pela comunidade em um modelo de governança meritocrático. A Canonical fornece atualizações gratuitas de segurança e suporte para cada versão do Ubuntu, a partir da data de lançamento e até o lançamento atingir sua data de fim de vida (EOL - End Of Life). Todas as versões são disponibilizadas sem custo algum a Canonical gera receita através da venda de serviços premium relacionados ao Ubuntu.
Novas versões são lançadas duas vezes ao ano, uma no mês de Abril e outra no mês de Outubro. Tendo relação direta com suas versões: ANO.MÊS. Sua última versão é a 19.04 (lançada em 2019, mês 04).
5.4.8. DEBIAN VS. UBUNTU
Diferencia-se do Debian pela filosofia em torno de sua concepção, por ter versões lançadas semestralmente, por disponibilizar suporte técnico nos 9 meses seguintes ao lançamento de cada versão e as versões LTS (Long Term Support, suporte de longo prazo) para desktop e servidores receberem 5 anos de suporte. O Ubuntu possui uma forte ligação com a comunidade Debian, contribuindo direta ou indiretamente com qualquer modificação nos códigos fonte, ao invés de apenas anunciar essas mudanças em uma data posterior. Muitos programadores do Ubuntu mantêm pacotes chave do próprio Debian.
5.4.9. USABILIDADE E ACESSIBILIDADE
Um dos focos principais é a usabilidade incluindo o uso da ferramenta sudo para tarefas administrativas (similar ao Mac OS X) e a oferta de uma gama de recursos completa a partir de uma instalação padrão.
Outros focos são a acessibilidade e internacionalização, permitindo a utilização do sistema pelo maior número de pessoas possível. A partir da versão 5.04, a codificação de caracteres padrão é o UTF-8 (permitindo a utilização de caracteres não utilizados no alfabeto latino). O projeto visa também a oferecer suporte técnico nos idiomas de seus usuários.
5.4.10. POPULARIDADE
Atualmente (2019) a página do Ubuntu no Distrowatch da versão de desktop é a quinta mais acessada no ranking dos últimos seis meses. Ela já foi apontada como uma das melhores distribuições para o uso em computadores pessoais. É o sistema operacional mais popular em ambientes hospedados (computação em nuvem) por ser a distribuição Linux mais popular para servidores e a distribuição Linux mais popular para a execução de servidores web, onde é usada por 34% dos top 10 milhões de sites analisados pela W3Techs.
5.4.11. APARÊNCIA
O visual padrão até a versão 5.10 e na versão 9.10 caracteriza-se pela utilização de tons castanhos, entre as versões 6.06 (Dapper Drake) e 9.04 (Jaunty Jackalope), no entanto, passou-se a usar um padrão de cores mais próximo do laranja. A versão 10.04 passou a adotar um padrão de cores mais diversificado, misturando tons de púrpura no padrão de cores. O padrão púrpura e laranja se mantêm até hoje.
5.4.12. APLICATIVOS
Além das ferramentas de sistema padrão e outros aplicativos menores, o Ubuntu é oferecido com diversos programas pré instalados que atendem às funcionalidades básicas, entre os quais estão a suíte de aplicativos LibreOffice e o navegador de internet Firefox. Programas para visualizar conteúdos multimídia, clientes de e-mail e jogos simples completam o sistema básico. A gestão de instalação de software é realizada pelo APT e pelo Synaptic e, mais recentemente, pelo Centro de Software do Ubuntu.
5.4.13. CLASSIFICAÇÃO DE PACOTES E SUPORTE
O Ubuntu divide a maioria dos softwares em quatro domínios para refletir as diferenças de licenciamento e o grau de suporte disponível. Alguns aplicativos não suportados recebem atualizações de membros da comunidade, mas não para Canonical Ltd.
5.4.13.1 OPENSUSE 
É um sistema operacional baseado no núcleo Linux, desenvolvido pela comunidade openSUSE de forma gratuita.
Após adquirir o SUSE Linux em janeiro de 2004 a Novell, uma empresa norte-americana que na década de 1980 ficou famosa por seu sistema operacional de rede (Netware), após o sucesso lançou o SUSE Linux Professional como um projeto 100% código livre, envolvendo a comunidade no processo de desenvolvimento.
A versão inicial foi uma versão de teste do SUSE Linux 10.0. A sua versão estável corrente é o openSUSE Leap 15.0.
O openSUSE é dirigido pela comunidade openSUSE Project e patrocinada pela Novell, para desenvolver e manter os componentes do SUSE Linux distribuições.
Depois da aquisição do SUSE Linux, a Novell decidiu fazer da comunidade uma importante parte do processo de desenvolvimento.
Além da distribuição, o Projeto openSUSE provê um portal web para o envolvimento da comunidade. A comunidade colabora com o openSUSE em desenvolvimento com representantes da Novell contribuindo com códigos através do openSUSE Build Service, escrevendo documentação, desenhando artes gráficas, criando discussões abertas em mailing lists e canais Internet Relay Chats (irc), assim como aprimorando o openSUSE através de wikis.
Como a maioria das distribuições Linux, o openSUSE inclui ambas Ambiente gráfico (padrão) e um poderoso Interpretador de comandos (opcional). Durante instalação, o usuário pode escolher dentre vários Ambiente gráficos e com focos diferentes: KDE (padrão), GNOME, LXDE e Xfce
5.4.13.2. DISTRIBUIÇÃO OPENSUSE
O openSUSE é completamente e livremente disponível para download direto ou bittorrent, e também vendido como DVD-Box para o público em geral. Para download, é possível escolher entre baixar o DVD de 4.7 GB, que possui uma grande coleção de software, ou usar a edição mínima, que ao invés de usar os pacotes no DVD, se conecta a rede para baixar o software que o usuário escolher.
5.4.13.3 SUSE STUDIO
O openSUSE conta na sua pagina inicial com o SUSE Studio, que permite a fácil criação de sistemas baseados no openSUSE. A ferramenta permite criar Live CDs ou máquinas virtuais com base nas últimas versões do openSUSE e no SUSE Linux Enterprise, com pacotes personalizados. Também é possível, atualmente, criar um arquivo para uso com a infraestrutura de nuvem da Amazon (Amazon EC2).
5.4.13.4. ZYPPER
O zypper é o gerenciador de pacotes por linha de comando do OpenSUSE, funcionando como oapt-get do Debian ou seja providenciando funções como acesso a repositórios, resolução de dependências entre pacotes, instalação de pacotes, etc...
5.5. MacOS
É um sistema operativo proprietário baseado no kernel Unix titulado XNU, desenvolvido, fabricado e vendido pela Apple Inc., destinado exclusivamente aos computadores Mac e que combina a experiência adquirida com a tradicional GUI desenvolvida para as versões anteriores do Mac OS com um estável e comprovado núcleo. A última versão do OS X possui certificação UNIX. Até a versão 10.8 (Mountain Lion) chamava-se Mac OS X, e entre esta versão e a versão 10.11 (El Capitan) chamava-se OS X.
Assim, o macOS, lançado inicialmente pela Apple Computer em 2001, é uma combinação do Darwin (um núcleo derivado do micronúcleo Mach) com uma renovada GUI chamada Aqua. As primeiras versões do Mach (não-micronúcleo) foram derivadas do BSD.
5.5.1. DESCRIÇÃO
O macOS apresenta uma grande mudança em relação aos sistemas operacionais anteriores do Macintosh e o código que é a base do sistema é completamente diferente das versões anteriores. Apesar da maioria das alterações estarem nos "bastidores" do sistema operacional, a interface gráfica de usuário Aqua é o novo recurso mais visível. O uso de bordas arredondadas, cores translúcidas e outros adereços trouxe mais cores e texturas às janelas e controles do Desktop do que a interface Platinum do OS 9. Inicialmente isso gerou bastante controvérsia entre os usuários, com uns alegando que a interface tinha ficado "como um brinquedo" e com falta de profissionalismo; outros alegando que era "outra grande inovação da Apple". O visual é instantaneamente reconhecível e antes mesmo do lançamento da primeira versão do macOS, outros desenvolvedores começaram a produzir skins para aplicativos personalizáveis como o Winamp para ficarem mais parecidos com o visual Aqua. A Apple ameaçou processar pessoas que fazem ou distribuem programas que oferecem uma interface que eles dizem ser derivada de seu design patenteado.
O núcleo do macOS é um sistema operacional certificado Unix, construído em torno de um núcleo XNU com recursos básicos Unix acessíveis por meio de uma interface de linha de comando. Pouco antes do lançamento do Mac OS X a Apple lançou esse núcleo como Darwin. Baseando-se nesse núcleo, a Apple projetou e desenvolveu um número de componentes de código fechado (closed source) de licença proprietária, incluindo a interface Aqua e o Finder (o sistema de gerenciamento de arquivos). A combinação da interface amigável e o poder do núcleo open source Darwin/BSD tornaram o Mac OS X o ambiente Unix mais bem vendido até hoje em número de computadores vendidos.
5.5.2. OSX
Em 2012, com o lançamento do OS X 10.8 Mountain Lion, o nome do sistema operativo foi reduzido de Mac OS X para OS X. Naquele ano, a Apple removeu o chefe do desenvolvimento do OS X, Scott Forstall, e o design foi alterado para uma direção mais mínima. O novo design da interface de usuários da Apple, usando saturação profunda de cores, botões somente texto e uma interface mínima e "plana", foi estreado com o iOS 7 em 2013. Com os engenheiros do OS X trabalhando largamente no iOS7, com a versão lançada em 2013, o OS X 10.9 Mavericks, foi algo como uma versão de transição, com alguns design esqueumórficos removidos, enquanto a maioria da interface geral do Mavericks permaneceu inalterada. Na versão seguinte, OS X 10.10 Yosemite, adotou um design semelhante ao do iOS 7, mas com maior complexidade, adequado para uma interface controlada com um mouse.
A partir de 2012, o sistema passou para um calendário de liberação anual semelhante ao do iOS. Porém alguns jornalistas e desenvolvedores de softwares terceiros sugeriram que essa decisão, embora permitindo um lançamento mais rápido de recursos, significava menos oportunidade de focar na estabilidade do sistema, sem nenhuma versão do OS X recomendável para usuários que exigissem estabilidade e desempenho acima dos novos recursos. A atualização de 2015 da Apple, o OS X 10.11 El Capitan, foi anunciada com objetivo de focar especificamente em melhorias de estabilidade e desempenho.
5.5.3. MACOS
A partir de 2016, com o lançamento do macOS 10.12 Sierra, o nome foi alterado de OS X para macOS para simplificar com a marca de outros sistemas operacionais primários da Apple: iOS, watchOS, tvOS e o macOS 10.12. As principais características do Sierra foram a introdução do Siri no macOS, o Optimized Storage, melhorias nas aplicações incluídas e a maior integração com o iPhone e o Apple Watch. O Apple File System (APFS) foi anunciado na Apple Worldwide Developers Conference em 2016 como um substituto do HFS+, um sistema de arquivos altamente criticado.
A Apple apresentou o macOS 10.13 High Sierra na 2017 Worldwide Developers Conference, antes de lançá-lo mais tarde naquele ano. Ao rodar em unidades de estado sólido, ela usou o APFS, ao invés do HFS+. Seu sucessor, macOS 10.14 Mojave, foi lançado em 2018, adicionando uma opção de interface de usuário escura e uma configuração dinâmica no papel de parede. Ele foi substituído pelo macOS 10.15 Catalina em 2019, que substituiu o iTunes por aplicativos separados para diferentes tipos de mídia, e introduziu o sistema Catalyst para portar aplicativos iOS
5.5.3.1. MACOS V010.12 “Sierra"
O macOS v10.12 "Sierra" é o décimo terceiro sistema operacional da família macOS, sendo o sucessor do OSX v10.11 "El Capitan". Anunciado em junho de 2016, traz, além da mudança no nome, cujo objetivo foi padronizar com os demais sistemas da Apple (iOS, tvOS e watchOS), melhorias nos recursos de continuidade, função picture in picture, abas para todas as janelas de apps e integração com a assistente virtual Siri.
5.5.3.2. MACOS V10.13 "High Sierra"
O macOS v10.13 "High Sierra" é o décimo quarto sistema operacional da família macOS, sendo o sucessor do macOS v10.12 "Sierra". Anunciado em junho de 2017, traz mudanças focadas nos "power users", além da mudança do antigo sistema de arquivos para o novo e repensado APFS (Apple File System), agora presente em todos os dispositivos, desde watchOS e tvOS, até iOS e macOS. Esse sistema de arquivos foi feito com foco em rápida administração de dados e arquitetura 64-bit. Além disso tivemos atualizações no aplicativo de fotos, Safari e uma renovação da plataforma Metal, de processamento gráfico.
5.5.3.3. MACOS V10.14 "Mojave"
É o décimo quinto sistema operacional da família macOS, sendo o sucessor do macOS v10.13 "High Sierra". Anunciado em junho de 2018 e lançado oficialmente em 24 de setembro em 2018, tem como principais novidades:
Modo escuro completo, antes, apenas a barra de menus e o dock ficavam escuros quando a opção era configurada pelo usuário.
Implementados quatro novos aplicativos portados diretamente do sistema iOS sendo eles: "News","Bolsa", "Gravador de Voz" e "Casa".
Aplicativo da Mac App Store completamente renovado, agora mais parecido com o design da App Store do iOS.
Além destas mudanças, houveram várias outras feitas no funcionamento do sistema, sendo elas:
Depreciação da API OpenGL, ela continua sendo suportada em macOS Mojave, porém, não receberá mais manutenções, em invés disso, será usada a API proprietária da Apple "Metal", no qual a empresa encoraja os desenvolvedores a usá-la em seus projetos.
"Atualização de Software" volta a ter seu próprio painel no aplicativo "Preferências do Sistema", antes, este recurso fazia parte do aplicativo Mac App Store.
5.5.3.4. MACOS V10.15 “Catalina"
O macOS 10.15 Catalina foi anunciado em 3 de junho de 2019 em versão beta. Sua previsão de lançamento era em 10 de setembro de 2019. Porém, foi lançado em Outubro de 2019
5.6. SISTEMAS OPERACIONAIS MODERNOS
Um sistema computacional moderno consiste em um ou mais processadores, memória principal, discos, impressoras, teclado, mouse, monitor, interfaces de rede e outros dispositivos de entrada e saída. Enfim, é um sistema complexo. Se cada programador de aplicações tivesse de entender como tudo isso funciona em detalhes, nenhum código chegaria a serescrito. Além disso, gerenciar todos esses componentes e usá-los de maneira otimizada é um trabalho extremamente difícil. Por isso, os computadores têm um dispositivo de software denominado sistema operacional, cujo trabalho é fornecer aos programas do usuário um modelo de computador melhor, mais simples e mais limpo e lidar com o gerenciamento de todos os recursos mencionados.
Um dos conceitos mais fundamentais dos Sistemas Operacionais Modernos é a distinção entre o programa e a atividade de executá-lo. O programa é apenas um conjunto estático de diretrizes e sua execução é uma atividade dinâmica.
Outra das diferenças que podemos observar entre um sistema operacional e aplicações convencionais é a forma com que suas rotinas são processadas em função do tempo. Um sistema operacional não é executado de forma estruturada. Suas rotinas são executadas concorrentemente em função de eventos assíncronos. Em outras palavras, eventos que podem ocorrer a qualquer momento
5.7. TIPOS DE SISTEMAS
5.7.1.Sistema Mono-programado
Também chamados como sistema mono-tarefa, o sistema operacional mono-programado possui apenas um processador, realiza alocação de memória para somente um processo e um usuário por vez. Apresenta também uma CPU ociosa durante E/S e sua implementação é feita de forma simples.
5.7.2. Sistema em Lote
O sistema em lote é também um sistema mono-processado e utiliza a linguagem de Controle de Tarefas (JLC). Caracteriza-se por ter programas armazenados em disco ou fita, que uma vez iniciados, exigem pouca ou nenhuma interação do usuário, processando de forma sequencial e contínua até o fim do job, quando então é devolvido o resultado final do processamento.
5.7.3. Sistema multi-processadores
Os sistemas multi-processadores – dois ou mais processadores trabalhando juntos – podem ser divididos em duas partes:
5.8. SISTEMAS FRACAMENTE ACOPLADOS
Dentro de sistemas fortemente acoplados – memória única compartilhada por dois ou mais processadores, tendo um mesmo sistema operacional gerenciando todos os processadores –, encontramos mais duas divisões:
· Sistemas simétricos – onde os processadores têm a mesma função;
· Sistemas assimétricos – onde um processador (mestre) pode executar serviços do sistema operacional.
Dentro de sistemas fracamente acoplados – mais de dois sistemas operacionais que são ligados por canal de comunicação, tendo hardware e sistemas operacionais independentes – temos:
· Sistemas operacionais de rede, também chamado host ou nó, possui seus próprios recursos de hardware, como processadores, memória e dispositivos de entrada e saída. Os nós são totalmente independentes dos terminais, sendo interconectados por uma rede de comunicação de dados, formando uma rede de computadores. Os sistemas operacionais de rede são utilizados tanto em redes locais (Local Area Network - LAN), como em redes distribuídas (Wide Area Network - WAN). A ligação entre os diversos nós é feita por uma interface de rede que permite o acesso aos demais componentes da rede. Não existe um limite máximo para o número de nós que podem fazer parte de uma rede de computadores. Cada nó é totalmente independente dos demais, possuindo seu próprio sistema operacional e espaço de endereçamento. Os sistemas operacionais podem ser heterogêneos. Na Internet, cada host pode estar processando um sistema operacional diferente, mas todos estão se comunicando através do mesmo protocolo de rede, no caso, os protocolos da família TCP/IP (Transmission Control Protocol/Internet Protocol).
· Sistemas operacionais distribuídos – computadores independentes que parecem um único computador aos olhos do usuário; Trata-se de um conjunto de processos que são executados de forma concorrente, cada um dos quais acessando um subconjunto de recursos do sistema. E essa comunicação é feita em forma de envio de mensagens.
5.9. SISTEMA MULTI-PROGRAMADO PARA TEMPO REAL
Os sistemas multi-programado para tempo real além de serem sistemas multi-programados, possuem um tempo de resposta rígido e por isso são muito utilizados no controle de processos. Têm menos time-slice e mais prioridade, ademais, seus processos são ativados por sensores. A aplicação deste tipo de sistema está em máquinas de usinas, refinarias, tráfego aéreo, etc.
5.9.1. Interface de uso
Os sistemas operacionais fornecem abstração de hardware para que seus recursos possam ser usados de maneira correta e padronizada, mas para ser possível operar um computador, é necessário fornecer também uma interface para que o usuário possa desfrutar dos recursos do sistema. Atualmente as principais interfaces de uso são as seguintes:
5.9.2. Interface de terminal
A interface de terminal, também chamada de interface de linha de comando ou "CLI" (Command Line Interface) funciona exclusivamente com o teclado. Os comandos são digitados a partir de um prompt e são interpretados por um interpretador de comandos, conhecidos também por shells, bastante comuns em sistemas padrão POSIX. Um exemplo de interpretador de comandos seria o Bash.
Usada geralmente por usuários avançados e em atividades específicas, como gerenciamento remoto, utiliza poucos recursos de hardware em comparação a interface gráfica.
5.9.3. Interface textual
Aplicativo com interface textual, rodando no sistema operacional FreeDOS Assim como a interface de terminal, a interface textual também é baseada em texto, porém também tem à disposição um ambiente de trabalho composto por menus, janelas e botões. Esse tipo de interface tinha um uso difundido em aplicações baseadas no MS-DOS, que, inclusive, nas versões mais recentes contava com um gerenciador de programas e arquivos baseados nesse tipo de interface (o DOS Shell). Atualmente essa interface é muito rara, praticamente restrita a sistemas implementados na década de 1980 e início da década de 1990. Esse ambiente ainda prescinde do uso mouse, embora seja possível usá-lo através do uso da biblioteca ncurses no desenvolvimento dos softwares.
5.9.4. Interface gráfica
Nesse tipo de interface, também chamada GUI (Graphic User Interface) além de menus, janelas e botões também existem figuras, tanto vetoriais quanto fotografias. O usuário interage com esse tipo de interface usando o mouse, podendo também usar o teclado e teclas de atalho, ou então usando toques e gestos em touchscreens. A interface gráfica permite atuar com algumas aplicações que seriam impossíveis através da linha de comando puramente, como edição de imagem e vídeo. Acrescentar facilidade de uso e agilidade é o objetivo da interface gráfica, tendo a desvantagem de consumir muito mais memória que interfaces de linha de comando. Ao contrário das interfaces textuais e de terminal, as interfaces gráficas dependem de um servidor gráfico para funcionar e se comunicar com o sistema, e no caso dos sistemas para desktops e laptops, inclui um gerenciador de janelas em muitos casos, para que seja possível usar mais de um aplicativo na mesma tela. Em sistemas padrão POSIX é comum existir mais de um ambiente gráfico para o mesmo sistema, podendo ser escolhido a critério do usuário.
5.9.5. Interface de voz
Interfaces de voz, ou VUI (Voice User Interface), são aquelas em que o usuário interage com o sistema por meio de comandos sonoros. Sendo de desenvolvimento relativamente recente, tem sua aplicação em dispositivos adaptados para cegos e recentemente têm aparecido também para uso geral em smartphones, tablets e desktops.
6. AQUITETURA DE COMPUTADORES
A evolução da informática foi caracterizada pelo desenvolvimento de computadores com as mais diversas características, traduzidas pelos diferentes parâmetros, cada vez mais conhecidos da maioria de usuários de computador: a CPU adotada, a capacidade de memória, a capacidade do disco rígido, a existência de memória cache e outros menos conhecidos. A definição destes parâmetros e a forma como os diversos componentes de um computador são organizados, define aquilo que é conhecido por arquitetura de computador e vai determinar aspectos relacionados à qualidade, ao desempenhoe à aplicação para a qual o computador vai ser orientado.
Existem vários modos de uso do termo, que podem se referir a:
· Desenho da arquitetura da CPU do computador, o seu conjunto de instruções, "addressing modes" e técnicas, tais como paralelismo SIMD e MIMD.
· Termo também utilizado com significado análogo, ou semelhante, a Arquitetura de microprocessadores (RISC x CISC).
· Arquiteturas de hardware mais generalizadas, tais como computação em cluster e arquiteturas NUMA (acesso não-uniforme à memória).
· Utilização menos formal do termo, referindo-se a uma descrição dos requisitos (especialmente requisitos de velocidades e interligação) ou implementação do design para as várias partes de um computador, tais como memória, placa-mãe, periféricos eletrônicos ou, mais frequentemente, CPU.
A arquitetura é frequentemente definida como o conjunto de atributos da máquina que um programador deve compreender para que consiga programar o computador específico com sucesso, ou seja, para que consiga compreender o que o programa irá fazer quando da sua execução. Por exemplo, parte da arquitetura são as instruções e o raio de operadores manipulados por elas. De uma maneira semelhante, a frequência em que o sistema opera não é incluída na arquitetura. Esta definição revela as duas principais considerações dos arquitetos de computadores: desenhar hardware que se comporta como o programador pensa que se irá comportar e utilizar implementações existentes de tecnologias (por exemplo, semicondutores), para construir o melhor computador possível. A segunda consideração é frequentemente referida como a microarquitetura.
7. HISTÓRIA
A expressão "arquitetura de computadores", na literatura, pode ser atribuída a Lyle R. Johnson, Muhammad Usman Khan e Frederick P. Brooks, Jr. Em 1959, eram membros do departamento de Organização de Máquinas da IBM.
Johnson teve a oportunidade de escrever uma comunicação de pesquisa proprietária sobre Strech, um supercomputador desenvolvido pela IBM para o Laboratório Nacional de Los Alamos. Na tentativa de caracterizar o seu nível desejado de detalhe, ele observou que sua descrição de formatos, tipos de instruções, os parâmetros de hardware e melhorias de velocidade foi no nível de "arquitetura do sistema" - Um termo que parecia ser mais útil do que "organização de máquina".
Posteriormente, Brooks, um dos projetistas do Strech, começou o capítulo 2 de um livro (Planning a Computer System: Project Stretch, ed W. Buchholz, 1962), escrevendo: "Arquitetura de computadores, como outra arquitetura, é a arte de determinar as necessidades do usuário de uma estrutura e, possível dentro das limitações econômicas e tecnológicas.".
Brooks passou a desempenhar um papel no desenvolvimento do IBM System/360(agora chamado de IBM System z) linha de computadores, onde a "arquitetura" ganhou moeda como um substantivo com a definição como "o que o usuário precisa saber". Mais tarde, o mundo da informática, empregaria o termo, em formas muito menos explícitas.
7.1. MEMÓRIA VIRTUAL
 Outro problema recorrente envolve a memória virtual.
Historicamente, a memória de acesso aleatório (RAM) foi centenas de vezes mais cara que o armazenamento mecânico rotativo, isto é, discos rígidos, num computador moderno.
O processador só pode executar uma instrução que esteja na memória real. O mecanismo de Memória Virtual divide a memória real em frames e divide um arquivo no disco em páginas de mesmo tamanho dos frames. No disco existem muito mais páginas do que frames na memória. Sempre que for preciso uma página é copiada da memória virtual (arquivo em disco) para um frame da memória real. Surge a necessidade de saber quando é preciso copiar. Surge a necessidade de saber se um frame pode ser descartado ou se precisa ser recopiado para sua página correspondente no arquivo em disco. Sempre que uma instrução é executada a partir de um frame o hardware controlador de memória virtual testa se o dado a que ela se refere já se encontra em algum frame. Se for o caso, uma interrupção ocorre para que a rotina de tratamento cuide de copiar do disco para a memória real uma página completa contendo o dado necessário.
7.2. SEGMENTAÇÃO DAS INSTRUÇÕES (PIPELINE)
O conjunto e instruções orientam fortemente como funcionará a segmentação de instruções. A ideia é análoga a linha de produções em série, mas utilizada na execução das instruções. Primeiro divide-se as instruções em pedaços menores de forma que uma instrução em código de máquina demore muitos ciclos curtos para ser executada. Depois disso o controle do microprocessador encarrega-se de executar várias instruções ao mesmo tempo, cada uma utilizando um pedaço distinto do processador. Isto tem como objetivo que na média cada instrução demore um ciclo curto para ser executada. Existem diversas complicações em instruções de desvio (condicionais), que são tratadas por paralelismo de código conhecida como threading (nome comercial da Intel Hyperthreading)
7.3. EVOLULÇÃO DOS COMPUTADORES
Até aqui, falei sobre os supercomputadores e sobre a evolução dos processadores, que evoluíram das válvulas para o transístor e depois para o circuito integrado. Vou agora falar um pouco sobre os primeiros computadores pessoais, que começaram a fazer sua história a partir da década de 70. Tempos difíceis aqueles :).
Como disse há pouco, o primeiro microchip, o 4004, foi lançado pela Intel em 1971. Era um projeto bastante primitivo, que processava instruções de 8 bits, através de um barramento rudimentar, que permitia transferir apenas 4 bits por ciclo, e operava a meros 740 kHz. Na verdade, o 4004 era tão lento que demorava 10 ciclos para processar cada instrução, ou seja, ele processava apenas 74 mil instruções por segundo (mesmo assim, ele era cerca de 15 vezes mais rápido que o ENIAC). Hoje em dia esses números parecem piada, mas na época era a última palavra em tecnologia. O 4004 permitiu o desenvolvimento das primeiras calculadoras eletrônicas portáteis.
Pouco tempo depois, a Intel lançou um novo processador, que fez sucesso durante muitos anos, o 8080. Ele já era um processador de 8 bits e operava a incríveis 2 MHz: “Ele é capaz de endereçar até 64 KB de memória e é rápido, muito rápido!” como dito num anúncio publicitário do Altair 8800 que, lançado em 1974, é considerado por muitos o primeiro computador pessoal da história.
O Altair era baseado no 8080 da Intel e vinha com apenas 256 bytes de memória, realmente bem pouco, mesmo para os padrões da época. Estava disponível também uma placa de expansão para 4 KB. Em teoria, seria possível instalar até 64 KB, mas o custo tornava o upgrade inviável.
No modelo básico, o Altair custava apenas 439 dólares, na forma de kit (onde você precisava soldar manualmente todos os componentes). Em valores corrigidos, isso equivale a quase 4.000 dólares, mas na época esse valor foi considerado uma pechincha, tanto que foram vendidas 4.000 unidades em 3 meses, depois de uma matéria da revista Popular Eletronics.
Esse “modelo básico” consistia nas placas, luzes, chips, gabinete, chaves e a fonte de alimentação, junto, claro, com um manual que ensinava como montar o aparelho. Existia a opção de comprá-lo já montado, mas custava 182 dólares (da época) a mais.
Em sua versão básica, o Altair não tinha muita utilidade prática, a não ser a de servir como fonte de aprendizado de eletrônica e programação. Entretanto, pouco tempo depois, começaram a surgir vários acessórios para o Altair: um teclado que substituía o conjunto de chaves que serviam para programar o aparelho, um terminal de vídeo (bem melhor que ver os resultados na forma de luzes :), um drive de disquetes (naquela época ainda se usavam disquetes de 8 polegadas), placas de expansão de memória e até um modelo de impressora. Até mesmo Bill Gates (antes mesmo da fundação da Microsoft) participou, desenvolvendo uma versão do Basic para o Altair.
Se você tivesse muito dinheiro, era possível chegar a algo que se parecia com um computador moderno, capaz de editar textos e criar planilhas rudimentares. Algumas empresasperceberam o nicho e passaram a vender versões “completas” do Altair, destinadas ao uso em empresas, como neste anúncio, publicado na revista Popular Eletronics, onde temos um Altair “turbinado”, com o terminal de vídeo, impressora, dois drives de disquete e 4 KB de memória:
O Altair serviu para demonstrar a grande paixão que a informática podia exercer e que, ao contrário do que diziam muitos analistas da época, existia sim um grande mercado para computadores pessoais.
Pouco depois, em 1976, foi fundada a Apple, tendo como sócios Steve Jobs (que continua ativo até os dias de hoje) e Steve Wozniak. Na verdade, a Apple só foi fundada porque o projeto do Apple I (desenvolvido pelos dois nas horas vagas) foi recusado pela Atari e pela HP. Uma frase de Steve Jobs descreve bem a história:
– Então fomos à Atari e dissemos: “Ei, nós desenvolvemos essa coisa incrível, pode ser construído com alguns dos seus componentes, o que acham de nos financiar?” Podemos até mesmo dar a vocês, nós só queremos ter a oportunidade de desenvolvê-lo, paguem-nos um salário e podemos trabalhar para vocês. Eles disseram não, fomos então à Hewlett-Packard e eles disseram “Nós não precisamos de vocês, vocês mal terminaram a faculdade”.
 
Apple I não foi lá um grande sucesso de vendas, vendeu pouco mais de 200 unidades a 666 dólares (pouco mais de US$ 5000 em valores corrigidos) cada uma. Mesmo assim, os lucros sustentaram a Apple durante o primeiro ano, abrindo caminho para o lançamento de versões mais poderosas. Quem comprou um, acabou fazendo um bom negócio, pois hoje em dia um Apple I (em bom estado) chega a valer US$ 50.000.
Diferente do Altair, o Apple I era vendido já montado. A placa era vendida “pelada” dentro de uma caixa de papelão, sem nenhum tipo de gabinete, por isso era comum que os Apple I fossem instalados dentro de caixas de madeira feitas artesanalmente.
O Apple I era baseado no processador 6502, um clone do Motorola 6800, que era fabricado pela MOS Tecnology. Ele era um processador de 8 bits, que operava a apenas 1 MHz. Em termos de poder de processamento, o 6502 perdia para o 8080, mas isso era compensado pelos “espaçosos” 8 KB de memória, suficientes para carregar o interpretador BASIC (que ocupava 4 KB), deixando os outros 4 KB livres para escrever e rodar programas.
Uma das vantagens é que o Apple I podia ser ligado diretamente a uma TV, dispensando a compra de um terminal de vídeo. Ele possuía também um conector para unidade de fita (o controlador era vendido separadamente por 75 dólares) e um conector proprietário reservado para expansões futuras:
Apple I
Naquela época, as fitas K7 eram o meio mais usado para guardar dados e programas. Os disquetes já existiam, mas eram muito caros.
Os grandes problemas das fitas K7 eram a lentidão e a baixa confiabilidade. No Apple I, os programas eram lidos a meros 1500 bits por segundo e em outros computadores o acesso era ainda mais lento, com de 250 a 300 bits. Era preciso ajustar cuidadosamente o volume no aparelho de som antes de carregar a fita e, conforme a fita se desgastava, era preciso tentar cada vez mais vezes antes de conseguir uma leitura sem erros.
Na época, existiam até programas de rádio que transmitiam softwares como parte da programação. O locutor avisava e em seguida “tocava” a fita com o programa. Os interessados precisavam ficar com o aparelho de som à mão para gravar a cópia. Esses programas de rádio foram a primeira rede de pirataria de softwares de que se tem notícia, décadas antes da popularização da internet. 
Fita K7 com o BASIC para o Apple I
O Apple I foi logo aperfeiçoado, surgindo então o Apple II, lançado em 1977. Esse sim fez sucesso, apesar do preço salgado para a época: US$ 1.298, que equivalem a quase 10.000 dólares em valores corrigidos.
O Apple II vinha com apenas 4 KB de memória, mas incluía mais 12 KB de memória ROM, que armazenava um interpretador BASIC e o software de bootstrap, lido no início do boot. Isso foi uma grande evolução, pois você ligava e já podia começar a programar ou a carregar programas. No Apple I, era preciso primeiro carregar a fita com o BASIC, para depois começar a fazer qualquer coisa.
O BASIC era a linguagem mais popular na época (e serviu como base para diversas linguagens modernas), pois tem uma sintaxe simples se comparado com o C ou o Assembly, utilizando comandos derivados de palavras do Inglês.
Este é um exemplo de programa em BASIC simples, que pede dois números e escreve o produto da multiplicação dos dois:
10 PRINT “MULTIPLICANDO”
20 PRINT “DIGITE O PRIMEIRO NUMERO:”
30 INPUT A
40 PRINT “DIGITE O SEGUNDO NUMERO:”
50 INPUT B
60 LETC=A*B
70 PRINT “RESPOSTA:”, C
Este pequeno programa precisaria de 121 bytes de memória para rodar (os espaços depois dos comandos são ignorados, por isso não contam). Ao desenvolver programas mais complexos você esbarrava rapidamente na barreira da memória disponível (principalmente se usasse um ZX80, que tinha apenas 1 KB ;), o que obrigava os programadores a otimizarem o código ao máximo. Aplicativos comerciais (e o próprio interpretador BASIC) eram escritos diretamente em linguagem de máquina, utilizando diretamente as instruções do processador e endereços de memória, de forma a extraírem o máximo do equipamento.
Voltando ao Apple II, a memória RAM podia ser expandida até 52 KB, pois o processador Motorola 6502 era capaz de endereçar apenas 64 KB de memória, e 12 KB já correspondiam à ROM embutida. Um dos “macetes” naquela época era uma placa de expansão, fabricada pela recém-formada Microsoft, que permitia desabilitar a ROM e usar 64 KB completos de memória.
Além dos jogos, um dos programas mais populares para o Apple II foi o Visual Calc, ancestral dos programas de planilha atuais:
Foto de um manual antigo que mostra a interface do Visual Calc
O Apple II já era bem mais parecido com um computador atual. Vinha num gabinete plástico e tinha um teclado incorporado. A versão mais básica era ligada na TV e usava o famigerado controlador de fita K7, ligado a um aparelho de som para carregar programas. Gastando um pouco mais, era possível adquirir separadamente uma unidade de disquetes.
Apple II
A linha Apple II se tornou tão popular que sobreviveu até o início dos anos 90, quase uma década depois do lançamento do Macintosh. O último lançamento foi o Apple IIC Plus, que utilizava um processador de 4 MHz (ainda de 8 bits) e vinha com um drive de disquetes de 3.5″, já similar aos drives atuais.
Outra inovação dos Apple I e Apple II em relação ao Altair e outros computadores anteriores é o tipo de memória usada. O Apple I foi o primeiro a utilizar memórias DRAM, que é essencialmente a mesma tecnologia utilizada até hoje em pentes de memória.
Ao longo das primeiras décadas, a memória RAM passou por duas grandes evoluções. No ENIAC, não existia uma unidade de memória dedicada. Parte das válvulas eram reservadas para armazenar as informações que estavam sendo processadas. Não existia unidade de armazenamento, além dos cartões perfurados e as anotações feitas manualmente pelos operadores.
Na década de 50 surgiram as memórias core, um tipo antiquado de memória onde são usados anéis de ferrite, um material que pode ter seu campo magnético alterado através de impulsos elétricos, armazenando o equivalente a um bit 1 ou 0). Esses anéis de ferrite eram carinhosamente chamados de “donuts” (rosquinhas) e eram montados dentro de uma complexa rede de fios, que transportavam os impulsos elétricos usados para ler e escrever dados.
Cada anel armazenava apenas um bit, de forma que você precisava de 8.192 deles para cada KB de memória. Inicialmente a malha de fios era “tecida” manualmente, mas logo começaram a ser usadas máquinas, que permitiram miniaturizar bastante as estruturas.
Este é um exemplo de placa de memória core. Ela mede 11x11 cm (um pouco menor que um CD), mas armazena apenas 50 bytes:
Essas placas eram ligadas entre si, formando “pilhas” organizadas dentro de estruturas maiores. Imagine que, para atingir 1 MB de memória no início da década de 1960, você precisaria

Continue navegando