Buscar

Resumo Fund Comp

Prévia do material em texto

FUNDAMENTOS PARA COMPUTAÇÃO
RESUMO DA MATÉRIA
São Paulo
2022
Pedro Luis de Souza Isidoro
UNIDADE 1
Inspire-se: História da Computação
O homem foi capaz de criar um objeto capaz de realizar cálculos básicos: adição e subtração manualmente, surgiu então o Ábaco. E desenvolveu-se até a calculadora digital.
Ada Lovelace (1815-1852), era escritora e matemática, que ficou conhecida por criar o primeiro algoritmo da história. Algoritmo procurado por uma máquina analítica criada por Charles Babage (1791-1871). 
Ela desenvolveu um algoritmo capaz de calcular funções matemáticas na máquina. A máquina de Babage foi considerado o primeiro modelo de computador. E suas notas foram citadas como a primeira definição de computador de um software.
Alan Turing (1912-1954) conhecido como pai da computação. Ele desenvolveu logicamente uma máquina capaz de traduzir a linguagem das mensagens secretas dos alemães. Filme: O Jogo da Imitação.
1° Geração de Computadores, possuía diversas válvulas e um tamanho gigantesco. Era mais rápida que as calculadoras e tinha maior capacidade de processamento e de realizar cálculos complexos. 
Nessa geração surgiu o ENIAC, o 1° computador da história. As entradas de dados eram realizadas por meio de um painel de controle e o processo matemático era realizado.
2° Geração, John Von Neuman (1903-1957) propôs um novo modelo de arquitetura de computadores, composta por uma unidade de controle. Uma unidade lógica que compunha o chamado CPU (unidade central de processamento). Possuíam memória, uma entrada e saída de dados e uma linguagem de programação. 
Nesse modelo, trocaram as válvulas por transistores, que permitiu que o computador não ficasse tão aquecido e que a qualidade de energia diminuísse. Foram incorporados transistores e componentes em um chip, dando os primeiros passos de um circuito integrado.
3° Geração, foi marcada pelo uso de circuitos integrados, maior confiabilidade e dispositivos menores. Seu consumo de energia foi ainda menor do que o da 2° geração. E um conjunto de mouse e teclado foram incluídos, para que se pudesse, controlar a entrada e saída dos dados.
Por fim, a 4° Geração foi marcada com a geração de microprocessadores. Com o avanço tecnológico surgiu a computação paralela, na qual é possível dividir os processos e tarefas do computador. Os circuitos integrados foram responsáveis por reduzir custos os computadores.
Crescimento Tecnológico, Raciocínio Lógico e Necessidade Humana. São perspectivas que andam concorrentemente.
Explore: A Importância da Computação
O avanço da computação se deu a partir da 2°Guera Mundial. Cada nova geração de informatas, pessoas que lidam com computação e informática, vão se deparar com um duplo panorama. Primeiro com a impossibilidade de ter uma versão global de todo conhecimento que precede o desenvolvimento da computação. E nas várias ramificações que seu desenvolvimento trouxe.
Da Matemática ao Computador
A história da matemática é tão antiga quanto a própria humanidade, ela foi fundamental para desenvolver diversas áreas. 
A matemática evoluiu a partir de técnicas de contagem, de medição e de cálculo, por meio de abstração. A matemática é longa e bastante impressionante, mas também está fundamentalmente relacionada com a história da computação. O oriente foi o primeiro continente a se desenvolver na matemática.
Quando Surgiu o termo “Computador”
Suméria, berço da civilização, desenvolveram o mais antigo sistema de escrita. Que era o sistema de escrita pictográfica, ou seja, que usa imagens, chamada também de escrita cuneiforme. Assim como no Egito, a matemática dos sumérios, ela inicialmente se desenvolveu como resposta a necessidades burocráticas de quando a civilização se estabeleceu e começou a desenvolver agricultura. Eles faziam o uso de símbolos/tokens, para conseguir quantificar ou representar qualquer coisa mais abstrata.
O 4° milênio ante da era comum (a.c.). as civilizações começaram a usar um pequeno conezinho de barro que representava unidade, ou uma bola de barro para 10 unidades e um cone maior para 60 unidades. Nessa época já existiu o desenvolvimento de um modelo rudimentar de um Ábaco, que já estava em uso na Suméria entre 2700 e 2300 antes da era comum.
Quando nós falamos em computador, nós estamos nos referindo há nada mais do que o ato de contar dados. Sendo que o termo contar, teve origem a cerca de mais ou menos 4000 anos, e é considerado o primeiro sistema científico que é usado para contar e acumular valores.
Dedos: As Primeiras Ferramentas de Computar
Antes do sistema de contar com pedras, as mãos eram consideradas como instrumento perfeito para fazer contagem. Não só os dedos, mas as áreas internas das falanges, isso permitia contar até doze, se usasse os quatro dedos. 
A matemática suméria quanto a babilônica acabava se baseando nesse numérica, que é tido como sexagesimal, ou seja, com base 60 (1 dedo=12 e 5.12=60). Uma mão conta até doze, e da outra se abaixa um dedo, equivalente a 12. 
A Matemática Grega e Romana
Por volta do séc. III a.c., os avanços matemáticos a acontecer, por volta da região do império helenístico grego. Então a região da Alexandria, no Egito, acabou se transformando num grande antro de aprendizado em particular, e aí teve um grande domínio benéfico os Ptolomeus e da sua famosa Biblioteca de Alexandria.
Os patronos dessa biblioteca, foram os primeiros cientistas por profissão, e eram até pagos. Entre os matemáticos mais conhecidos e influentes que ensinaram nessa biblioteca de Alexandria, estavam: Euclides, Arquimedes, Erastóstenes, Garça, Menelau e também Diafante.
Euclides foi o grande cronista da matemática do início do séc. III da era comum, era também um dos professores mais influentes dessa época histórica. Euclides praticamente inventou a geometria clássica, conhecida como geometria euclidiana. 
E o Arquimedes também passou a maior parte da vida em Siracusa na Sicília, mas acabou estudando por um tempo em Alexandria e mais conhecido como engenheiro e inventor. Mas também considerado um dos maiores matemáticos puros de todos os tempos.
Erastóstenes foi um contemporâneo próximo de Arquimedes e como matemático, astrônomo e geógrafo, ele acabou desenvolvendo o seu primeiro sistema, e o 1° que conhecemos também de latitude e longitude, e conseguiu calcular a circunferência da terra com graus de precisão impressionantes. E como matemático o maior legado do Erastóstenes é o seu algoritmo, crivo de Erastóstenes, serve para identificar os números primos.
UNIDADE 2
Explore: Ábaco, O Primeiro Computador
Ábaco como recurso manual que teria surgido há cerca de 5000 anos atrás e que foi um dos primeiros objetos criados especificamente para o ato de contar.
Para realizar operações com o ábaco, o procedimento era da seguinte forma: existiam ali várias colunas que representavam as casas de unidades, dezenas e assim por diante.
Como era muito difícil você realizar operações que fossem mais complexas com ábaco, logo foi surgindo um método mais inovador para contar, que foram os ossos ou bastões de Napier.
Eles foram criados em 1612 pelo matemático John Napier, que foi também quem inventou os logaritmos.
Os bastões de Napier eram compostos por um conjunto de 9 bastões, um para cada dígito, e temos que esses bastões transformavam a multiplicação de dois números, numa soma da tabuada de cada dígito.
Os Primeiros Computadores Mecânicos
Se começa com a La Pasqualini, que foi a primeira calculadora mecânica do mundo e foi planejada por Blaise Pascal em 1642.
Depois da Pasqualini, vem o Leibniz, a qual conseguiu ampliar o efeito da La Pasqualini com a máquina calculadora que conseguia efetuar de fato as 4 operações.
Então Godofredo Willian Leibniz apresentou sua máquina no mesmo século da Pasqualini.
Chegando à Automação
Asprimeiras invenções que foram propiciando automatização, e passando assim, pelo telégrafo de Chappe. Ele foi desenvolvido em 1790 pelos irmãos Chappe, que era para resolver problemas na comunicação durante a Revolução Francesa.
Ele era constituído por um braço articulado que que conseguia codificar 196 sinais, que eram enviados por postos de transmissão óptica, cujos sinais alcançavam até 230 km de distância em 2 minutos.
Depois temos o tear automático: O Tear de Jacquard
Chegando á maquina diferencial, o único que quase chegou a criar efetivamente um computador que a gente conhece no sentido atual, foi o inglês chamado Charles Babbae.
E mais para frente criando á máquina analítica com a Ada Byron King. E foi a precursora dos nossos computadores atuais.
O Princípio da Álgebra de Boole
Os ensaios pioneiros de Booe, eles revolucionaram a ciência da lógica que conhecemos. E o que Boole concebeu, seria uma forma de álgebra que era um sistema com símbolos e regras, aplicável a qualquer coisa. Desde de números e letras, até enunciados.
Com esse sistema, Boole conseguia proposições, isto é, enunciados que você consegue provar por serem verdadeiros ou falsos, usando para isso uma linguagem simbólica, e então conseguia manipular, quase da mesma maneira, como se faz com os números ordinais, só que operando frases.
E aí que as três operações mais fundamentais da álgebra, elas são chamadas de AND, OR e NOT, que seriam, E, OU e NÃO, respectivamente.
Para tanto, Boole introduziu o conceito de portas lógicas, que só processavam dois tipos de entidade, as verdadeiras ou falsas, o sim ou o não, o aberto ou fechado, o 1 ou o 0. De novo o sistema Binário.
Tempos de Guerra
Durante a Segunda Guerra Mundial, Aiken planejava construir um computador programável para todos os fins. Criando o Mark One, o primeiro computador. Ele acabou enfrentando poucas dificuldades, ainda que tivesse sistema decimal.
Com Alan Turing, veio a máquina Colossus, em vez de usar relês eletromecânicos, cada nova máquina usava 2000 válvulas eletrônicas. Interceptava mensagens inimigas (alemãs) e decodificava as mesmas.
Depois disso, veio o ENIAC.
UNIDADE 3
Inspire-se: Introdução à Lógica Matemática
Para que o entendimento da utilização da lógica se torne mais claro precisamos explicar o que são proposições.
Proposições nada mais são do que sentenças pertencentes a uma determinada linguagem com a função de expressar uma ideia. 
Exemplo: a soma de dois números pares é um número par.
Nessa afirmação sabemos que a soma de 2 números pares é par, logo, é verdadeira.
Quando duas proposições são combinadas pela palavra e ocorre a conjunção. Conjunção: “e” funciona como conectivo entre essas proposições. E forma uma sentença, porém não se sabe a sua veracidade.
Para isso, temos um exemplo.
P: “5 é um número positivo”. Q: “5 é um número inteiro”. “5 é um número positivo e 5 é um número inteiro”.
Logo podemos definir que é verdadeira.
Essa conjunção tem como representatividade o símbolo “^” (circunflexo).
	A
	B
	A ^ B
	V
	V
	V
	V
	F
	F
	F
	V
	F
	F
	F
	F
Na disjunção, utiliza-se o “ou”. P ou Q devem ser verdadeiros.
P: “O céu é azul”. Q: “2+2=5”. “O céu é azul ou 2+2=5”.
Como P é verdadeiro, logo a sentença também é.
O símbolo utilizado para a palavra “ou” é “v”.
	A
	B
	A v B
	V
	V
	V
	V
	F
	V
	F
	V
	V
	F
	F
	F
É possível também realizar uma negação de uma sentença, podemos então dizer que, se uma sentença é verdadeira com a negação ela se torna falsa. E vice-versa.
Seu símbolo representativo é o “~” (til).
	A
	~A
	V
	F
	V
	V
	F
	V
	F
	V
Condicional: P: “Hoje fará calor”. Q: “Hoje não vai chover”. “Hoje fará calor, se hoje não chover”.
Um condiciona o outro. Vale ressaltar que somente possuirão o mesmo valor lógico, quando ambos forem, simultaneamente, verdadeiros ou falsos.
Seu símbolo representativo é “->”.
	A
	B
	A->B
	V
	V
	V
	V
	F
	F
	F
	V
	V
	F
	F
	V
Bi condicional: P é verdadeiro se, e somente se, o Q também for valor verdadeiro, se ambas forem verdadeiras ou ambas forem falsas.
Temos como seu símbolo representativo “<->”.
Quando formamos proposições por meio de conectivos e considerando apenas “P” e “Q”, criamos uma tabela verdade. Ela serve para facilitar a modelagem lógica e para que possamos ver seu conteúdo e raciocinar de forma melhor o resultado dos conectivos.
Exemplo: Tabela Bi condicional
	A
	B
	A<->B
	V
	V
	V
	V
	F
	F
	F
	V
	F
	F
	F
	V
 
Explore: Primeiras Gerações dos Computadores
Cap.1 - Eniac, o primeiro computador.
Essa própria máquina, ela era terrivelmente complicada, foi projetada para ter 7468 válvulas eletrônicas.
Por volta do fim de 1945, o Eniac estava finalmente montado, e pronto para o seu 1° teste formal de resolução de problemas.
Processar aproximadamente 1.10^6 de cartões perfurados da IBM no decorrer do teste.
Cap. 2 - Os primeiros computadores de mesa.
A indústria dos computadores pessoais, que são os desktops, começou por volta de 1971, ou seja, mais de 20 anos depois do Eniac.
Com a introdução do primeiro microprocessador, que foi o Intel 4004.
Trazendo o Altair que foi o primeiro computador pessoal disponível em grande escala para o público geral.
Paul Allen e Bill Gates criaram o Basic, e fundaram a Microsoft. Depois fizeram contrato com a IBM.
E imediatamente após a Microsoft acabo adquirindo o sistema operacional 8086, que atendia por diversos nomes, incluindo Quick na Dirty Dos (ou QDOS). Que foi elaborado pelo Tim Peterson, e era de uma companhia chamada Seattle Computer Products.
A Microsoft incrementou esse sistema operacional, licenciando esse sistema para IBM e comercializaram o PC com PC-DOS.
Cap. 3 – Os primeiros sistemas operacionais.
O PC original trazia o processador Intel 8088, com 477 mega-hertz e que era anunciado como microprocessador só tinha um barramento de dados de 8 bits.
Então inicialmente essa máquina vinha com 16 KB de Ram, que era o padrão da placa mãe, e era expansível até 64Kb, só que o processador tinha uma capacidade maior, porque esses 20 bits de endereçamento de permitia que o PC enviasse 1 MB de memória física.
Era incluído no P´C a linguagem Basic.
Um dos primeiros produtos gráficos para PC, que foi lançado e depois fracassado, foi o Top View da IBM. Ele era baseado apenas em caráter, só que ele permitia que vários programas fossem executados na tela de uma só vez.
Só que infelizmente ele também não era muito compatível. E aí os desenvolvedores muitas vezes eram forçados a adaptar os seus programas, para que eles funcionassem somente para o Top View.
A Apple não era a única companhia que estava comprometida com a computação gráfica. Já no final de 1983, a Microsoft também já tinha começado a trabalhar com programas aplicativos, inclusive para o Macintosh, e no mesmo ano, anunciou o Windows para PC.
Cap. 4 – Revolução do Windows e da internet.
Em maio de 1990, quando a Microsoft finalmente lançou o sistema operacional Windows 3.0. Ele era executado também sobre o DOS, portanto ele oferecia essa compatibilidade com os programas do DOS. Ele se beneficiava do processador 386, podendo fazer com isso a multitarefa com programas DOS e também com os programas do Windows.
Em 1990, o Tim Bernes-Lu, acabou criando a linguagem de marcação de hipertexto, que é o HTML, que era uma mentira bastante simples, de ligar informações entre sites da internet. Isso por sua vez acabou gerando o World Wide Web (nosso WWW).
UNIDADE 4
Explore: Princípios do Algoritmo
A linguagem de programação. Primeiro ela deve ser universal e a característica fundamental, é que essa linguagem tem que ser implementável em computador.
 Evolução dos Linguagens de Programação
Como funcionam os algoritmos? O algoritmo, nada mais é do que uma técnica de encadeamento de pensamento, que vai atingir um determinado objetivo como finalidade. A linguagem de programação usa uma lógica matemática.
E a lógica, é a tentativa de unir essas duas formas de linguagem, para se conseguir construir um raciocínio algorítmico.
Quando se vai usar um programa dentro do comutador, ele segue uma sequêncialógica. E a sequência lógica, são os passos que são executados até se atingir um objetivo ou solução de um problema.
Para facilitar a escrita de um algoritmo: 1° Sempre simplifique ao máximo 1 algoritmo; E sempre uso só 1 verbo por frase; (acione o botão, tire a caneta e etc.); Sempre seja objetivo.
Os algoritmos, basicamente, possuem 3 etapas: Entrada, Processamento e Saída.
Entrada: Inserção de dados; Processamento: Processamento das informações inseridas, junto das instituições que a máquina tinha; Saída: O resultado do processamento.
Componentes Básicos de um Computador
CPU, ela é basicamente dotada da capacidade de memória, da capacidade do disco rígido e da existência da memória cache.
A definição desses parâmetros e a forma como estes diversos componentes de um computador são organizados, é definido por Arquitetura do Computador.
O esquema de um computador, basicamente, sempre irá envolver 4 componentes: A memória; O processador; Os periféricos e O barramento.
Os principais elementos do computador vão ser: O processador (ou micro): Que vai ser responsável pelo tratamento das informações que estão armazenadas em memória; A memória: Basicamente responsável por armazenar os programas, e os dados; Os periféricos: São os dispositivos de entrada e saída; E o Barramento: Que vai ligar todos esses componentes e que é, basicamente, uma via de comunicação de alto desempenho, por onde circulam os dados, que são tratados pelo computador.
O Sistema Computacional
É um conjunto de dispositivos eletrônicos, que vai apresentar a capacidade de processar informações, por meio de um programa, que está embutido de comandos lógicos.
Os tipos de linguagem de programação: Baixo, Médio ou Alto nível.
Baixo nível: São aquelas totalmente codificadas em binário; Médio nível: Faz uso de instruções simbólicas, para representar o 0 e 1, sendo a linguagem assemble ou mnemônica e Alto nível: É a linguagem voltada para facilitar o raciocínio humano.

Continue navegando