Logo Passei Direto
Buscar

Esse resumo é do material:

COLEÇÃO INFO_BANCO DE DADOS
110 pág.

Bases de Dados ExatasExatas

Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

## Resumo sobre Bancos de Dados: História, Conceitos e ModelagemO material apresenta uma visão abrangente sobre bancos de dados, desde sua origem até conceitos fundamentais para seu entendimento e uso eficiente. Inicialmente, destaca-se a evolução histórica dos bancos de dados, que começaram na década de 1960 como sistemas complexos e restritos a mainframes, com modelos hierárquicos e em rede (Codasyl e IMS). Esses primeiros sistemas exigiam conhecimento profundo da estrutura física dos dados, tornando difícil a modificação e o acesso às informações. A grande revolução veio com Edgar Frank Codd, pesquisador da IBM, que, no início dos anos 70, propôs o modelo relacional, que se tornou o padrão até hoje. Esse modelo introduziu uma forma mais lógica e computacional de organizar e relacionar dados, utilizando tabelas (relações) e uma linguagem de consulta estruturada, o SQL, que foi padronizada em 1986 pelo ANSI.Além do modelo relacional, o texto destaca a contribuição de Peter P. Chen, que em 1976 propôs o modelo Entidade-Relacionamento (ER), fundamental para a modelagem de dados em alto nível, permitindo que desenvolvedores focassem mais no uso das informações do que na estrutura física. A evolução dos bancos de dados também acompanhou o avanço dos computadores pessoais, com o surgimento de softwares como o dBase, criado por Wayne Ratliff, que popularizou o uso de bancos de dados em microcomputadores com comandos simples e intuitivos. A partir dos anos 80 e 90, houve uma expansão significativa com o surgimento de linguagens como Clipper, e a consolidação do modelo cliente-servidor, além do crescimento das bases orientadas a objetos e a adaptação dos bancos de dados para a internet, possibilitando acesso remoto via browsers. Atualmente, destacam-se sistemas robustos como Oracle, DB2 e SQL Server, além do crescimento dos bancos de dados de código aberto, como MySQL, que vêm ganhando espaço especialmente em aplicações web e de pequeno a médio porte.No que tange aos conceitos fundamentais, o material explica detalhadamente os elementos que compõem um banco de dados e sua modelagem. Uma _entidade_ é definida como um conjunto de objetos semelhantes, que podem ser físicos (pessoas, carros) ou abstratos (documentos, locais). Cada entidade possui _atributos_, que são características específicas que qualificam os objetos, e que no modelo físico correspondem às colunas de uma tabela. A _tupla_ é o conjunto de atributos que descreve uma instância da entidade, equivalente a uma linha ou registro em uma tabela relacional. O _sistema gerenciador de banco de dados_ (SGBD) é um conjunto de programas que mantém a estrutura e os dados, garantindo controle de acesso, integridade, redundância, compartilhamento e segurança. Exemplos de SGBDs pagos são Oracle, IBM DB2 e MS SQL Server, enquanto MySQL, Firebird e PostgreSQL são exemplos de sistemas livres.A modelagem de dados é um processo essencial para organizar as informações de forma estável e eficiente, utilizando o modelo Entidade-Relacionamento para representar as entidades e seus relacionamentos, que podem ser classificados por cardinalidade (um para um, um para muitos, muitos para muitos) e opcionalidade (obrigatório ou opcional). A integridade referencial é um mecanismo que assegura a consistência dos dados entre tabelas relacionadas, impedindo, por exemplo, a exclusão de um cliente que possua notas fiscais associadas. As _restrições_ (constraints) são regras aplicadas para garantir a qualidade dos dados, como a obrigatoriedade de valores (não nulos), unicidade (valores exclusivos), valores padrão e domínio (valores permitidos). Outro conceito importante é o de _transação_, que representa um conjunto de operações que modificam os dados, podendo ser confirmadas (commit) ou revertidas (rollback) para manter a integridade do banco.Por fim, o texto aborda a _normalização de dados_, um processo que visa eliminar redundâncias e dependências inadequadas, dividindo os dados em várias tabelas relacionadas para aumentar a confiabilidade e facilitar a manutenção. A normalização é feita em etapas, sendo as três primeiras formas normais (1FN, 2FN e 3FN) as mais utilizadas. A 1FN elimina grupos repetitivos, a 2FN separa dados que não dependem da chave primária, e a 3FN remove dependências transitivas, ou seja, dados que podem ser calculados a partir de outros. Também são apresentados os _procedimentos armazenados_, que são códigos guardados no banco para executar ações específicas, como stored procedures, funções, gatilhos (triggers) e pacotes, que facilitam a manutenção e aumentam a segurança.---### Destaques- A evolução dos bancos de dados foi marcada pela transição dos modelos hierárquico e em rede para o modelo relacional, proposto por Edgar F. Codd, que se tornou padrão mundial.- O modelo Entidade-Relacionamento, criado por Peter P. Chen, é fundamental para a modelagem lógica e o design de bancos de dados.- Conceitos essenciais incluem entidades, atributos, tuplas, tabelas, chaves primárias e estrangeiras, integridade referencial, restrições e transações.- A normalização de dados é um processo que elimina redundâncias e melhora a confiabilidade dos dados, sendo as três primeiras formas normais as mais aplicadas.- Procedimentos armazenados, gatilhos e pacotes são ferramentas importantes para automatizar operações e garantir a segurança e integridade dos bancos de dados.

Mais conteúdos dessa disciplina