Buscar

Unidade 01 - texto 1

Prévia do material em texto

Centro Universitário de João Pessoa – UNIPÊ 
Direito da Informática 
 
Aula 01 – conceitos iniciais e noções básicas de informática(*) 
 
O direito, como conjunto de regras que regulam a sociedade, encampou o 
comportamento que envolve homens e determinados dispositivos, criados por ele 
mesmo para facilitar seus atos. Tais dispositivos – os computadores – processam dados 
e tratam as informações, ajudando-os a entender e a transformar sua realidade. 
A representação da realidade é um dado. A partir do momento em que tal 
reprodução passa a ter alguma finalidade, transforma-se em informação. Assim, 
informação é um dado útil; consiste literalmente em dar àquela representação da 
realidade uma forma e usar esta. 
A própria etimologia da palavra “informática” nos leva ao vocábulo 
“forma”. Essa partícula “in” não representa uma negação, mas sim uma 
introdução, uma inferência. Desse modo, informar é fazer entrar na esfera 
cognitiva de alguém uma forma, não importando se é um sinal, uma imagem, 
numérico ou alfanumérico. A Lei de Acesso à Informação (Lei n.º 12.725/2011) 
conceitua informação como “dados, processados ou não, que podem ser utilizados 
para a produção e transmissão de conhecimento, contidos em qualquer meio, 
suporte ou formato”. 
O estudo da informação (origem, organização e aplicação) é chamado 
de “informática”. Portanto, quando se escreve o nome e o número de alguém em uma 
agenda, está-se elaborando um processo de informática, visto que se sabe como surgiu 
o dado, qual será sua utilidade (ainda que potencial), como se está codificando, onde 
esta está guardada e como se poderá acessá-la. Isso é informática. No que toca a 
gênese da palavra ligada à atividade computacional, Liliana Paesani
1
 nos ensina que 
“informática” é um neologismo de origem francesa, derivado da expressão information 
automatique criada por Philippe Dreyfus em 1962. 
A informática é tudo; menos nova. Antes mesmo da escrita, já existia a 
informática, quando os dados eram passados oralmente. O meio de processamento 
de tais dados é que mudou ao longo do tempo; da elaboração oral, passou-se à 
escrita, a gráficos, a meios mecânicos e magnéticos até a computação quântica, 
como provavelmente ocorrerá em futuro próximo. 
 
1
 PAESANI, Liliana Minardi. Direito de Informática – Comercialização e Desenvolvimento Internacional do 
Software. 5ª Ed. Editora Atlas, 2008, p. 25. 
2 
 
A relação homem-máquina é tratada pela cibernética. Liliana Paesani nos 
assevera ainda que “cibernética é a ciência do sistema de controle e da 
comunicação nas máquinas e nos seres humanos”. O pai na Cibernética, Norbert 
Wiener, resumiu afirmando que cibernética é a “Ciência do controle e da 
comunicação”... no animal, máquina, na sociedade2. Tem por principal atividade a 
eficácia dos meios de controle de vários sistemas, como o funcionamento do cérebro, o 
comando de uma aeronave, uma empresa, um órgão público e, como diz Limongi 
França, o controle de um sistema jurídico. 
O conceito que envolve elementos distantes está no vocábulo “tele”. O 
estudo da transmissão de dados é chamado “telemática”. A autora Liliana Paesani 
afirma que “telemática é o aspecto dinâmico do uso da informação”; citando 
Frosini, a autora também apresenta que “telemática corresponde ao procedimento de 
elaboração das informações a distância e, por conseguinte, ao movimento de 
circulação automática dos dados informativos”. 
“Direito da Informática” é o ramo da ciência jurídica que regula, 
estuda e enquadra os fatos jurídicos ocorridos em ou mediante meios 
informáticos eletrônicos”. É também conhecido por “Direito Digital”, “Direito 
Eletrônico”, “Infolaw”, “Direito Informático” ou “Direito Cibernético” etc. 
Esse Direito da Informática deve partir de algumas regras básicas que 
compilamos e que são as seguintes: 
1. Tratar o meio eletrônico como uma mera forma de atuação; 
2. Encontrar a norma que reja tal situação no mundo real; se existir, 
utilizá-la, exceto se outra norma houver para o mesmo fato em 
ambiente de informática; 
3. Somente deve existir norma para determinado fato em ambiente 
informático se tal ato não puder ser praticado em ambiente real, ou 
ao menos da mesma forma. 
Com tais regras, imaginamos que as questões envolvendo Direito da 
Informática estariam solucionadas. 
 
 
 
2
 A cibernética é uma revolução que não ficou restrita ao plano tecnológico dos computadores miraculosos ou 
das máquinas que imitam o comportamento "finalista" dos seres vivos, mas que foi até campos mais vastos das 
Ciências e da Filosofia, abalando crenças tradicionais e abrindo novas e atordoantes perspectivas para a 
compreensão do mundo e da vida. Norbert Wiener, considerado o pai da cibernética, no seu livro “Cibernética e 
Sociedade – O uso humano de seres humanos”, esclarece para o leitor não especializado os conceitos 
cibernéticos fundamentais - entropia, feedback, automação, informação, comunicação etc., mostrando as 
revolucionárias implicações sociais e filosóficas. 
3 
 
Teoria elementar da computação 
 
Não existiria Direito da Informática sem computador, como hoje nós o 
conhecemos. Augusto de Vasconcelos
3
 nos diz que computadores são “máquinas que 
trabalham sobre dados fornecidos para produzir resultados procurados” 
A etimologia “computador” nos remete a algo que ordena pensamentos; é 
que a palavra “putare” em latim equivale a “imaginar” daí a dizermos que “reputação 
é o que pensam (imaginam) que somos”. Palavras como “credor putativo” ou 
“legítima defesa putativa” se referem a fatos não ocorridos, mas que foram 
imaginados
4. Já a partícula “com” significa junção, agregação, justaposição. Assim, 
“computador” é algo que ordena ideias. Não é à toa que em espanhol é chamado de 
ordenador e, em francês, de ordinateur. 
Os computadores mais antigos eram analógicos; hoje são digitais (razão 
pela qual se chamam vários institutos jurídicos relativos à informática de “digitais”). 
Algo é chamado de analógico quando trabalha com elementos físicos que representam 
elementos reais (variação contínua); a tradução é feita diretamente (daí o fato de 
analogia ter algo a ver com igualdade). E é chamado de digital quando a grandeza real 
é traduzida para sinais descontínuos (se digital binários – zeros e uns) para 
processamento, sendo retraduzidos tais “digitais” para grandezas físicas reais após o 
processamento (já que os nossos sentidos estão “preparados” para entenderem um 
mundo de realidades analógicas). 
Todos nós temos uma noção inata sobre atividade computacional, ainda que 
não saibamos disso e até já computamos algo até instintivamente. 
Quando se quer somar quatro mais três, e se levantam quadro dedos 
em uma mão e três dedos na outra, o fato de se chegar ao resultado sete somente 
contando quantos dedos estão levantados é pura atividade computacional, já que 
se usou algo externo ao cérebro, “um objeto” (os dedos), além do simples raciocínio, 
para se obter um determinado resultado. 
Um dispositivo que facilite ou torne mais cômodo qualquer atividade 
lógica cerebral é, puramente, um computador. Um ábaco (instrumento com círculos 
e eixos)
5
 é um computador; aliás, dos mais engenhosos em sua simplicidade... 
 
3
 VASCONCELOS, Augusto de. Programação de computadores eletrônicos. 4ª ed. Editora Fundo de Cultura. 
Rio de Janeiro, 1972 – p. 9. 
4
 EVANGELISTA, Marco. Direito Civil sem estresse. 2ª ed. Ed. Do Autor. Manaus, 2008 – p. 66. 
5
 O ábaco é um antigo instrumento de cálculo, formado por uma moldura com bastões ou aramesparalelos, 
dispostos no sentido vertical, correspondentes cada um a uma posição digital (unidades, dezenas, centenas, etc.) 
e nos quais estão os elementos de contagem (fichas, bolas, contas,...) que podem fazer-se deslizar livremente. 
Teve origem provavelmente na China e no Japão, há mais de 5.500 anos. O ábaco pode ser considerado como 
uma extensão do ato natural de se contar nos dedos. Emprega um processo de cálculo com sistema decimal, 
4 
 
Podemos inferir que os primeiros computadores foram os próprios dedos; 
depois devem ter evoluído para alguma outra forma rudimentar – conta-se que em 
algum momento da humanidade os pastores sabiam quando havia modificação 
numérica em seu rebanho atribuindo a cada animal uma pedra; se em uma contagem 
faltasse alguma pedra, era sinal de que algum de seus animais fugira; se sobrasse, 
alguma fêmea dera à luz, ou seja, um puro ato computacional; evoluiu-se para o ábaco, 
aparelhinho com contas que facilitam no mundo físico cálculos mentais. 
Dando um salto no tempo, foi percebido que era justo no campo numérico 
que o homem mais precisava auxiliares corpóreos externos, em princípio, para 
processar as quatro operações. Começavam a existir os computadores mecânicos. 
A calculadora portátil e mecânica surgiria em 1820. Em 1823, calculadoras 
mecânicas já trabalhavam com vinte casas decimais e eram muito precisas. 
 
Bits e Bytes 
Um bit é uma posição em um dado, podendo tal posicionamento representar 
“ligado” ou “desligado”. Assim, no código Morse (pontos e traços), possui de um a 
cinco bits
6
. Em 1833, surgiria o primeiro programa de computador mecânico (Ada 
Lovelace)
7
, uma série de instruções escritas, o que permitia à máquina executar 
operações diferentes uma após outra. Em 1871, Charles Babbage projetou que um 
computador deveria ter dispositivo de entrada, memória (armazenamento) e saída. Tal 
conceito mudou pouco (acrescentou-se a unidade de processamento) até hoje. Por isso 
ele é conhecido como o “pai do computador moderno”8. 
Em 1854, George Boole desenvolveu um sistema baseado em “zeros” e 
“uns”, o binário ou booleano, hoje usado nos computadores modernos. Em 1880, 
surgiram as primeiras impressoras; a primeira calculadora com teclado só pareceria em 
1890, produzida pela “Burroughs Corporation”. 
 
atribuindo a cada haste um múltiplo de dez. Ele é utilizado ainda hoje para ensinar às crianças as operações de 
somar e subtrair. 
6
 Por exemplo: a letra “e” é apenas um ponto (.), ou seja, um bit. Já a letra “o” equivale a cinco traços (_ _ _ _ _), 
ou seja, a cinco bits. 
7
 Ada Augusta Byron King, Condessa de Lovelace (10 de Dezembro de 1815 - 27 de Novembro de 1852), 
atualmente conhecida como Ada Lovelace, única filha legítima do poeta britânico Lord Byron, foi uma 
matemática e escritora inglesa e hoje é principalmente reconhecida por ter escrito o primeiro algoritmo para ser 
processado por uma máquina: a máquina analítica de Charles Babbage. Durante o período em que esteve 
envolvida com o projeto de Babbage, ela desenvolveu os algoritmos que permitiriam à máquina computar os 
valores de funções matemáticas, além de publicar uma coleção de notas sobre a máquina analítica. Lady 
Lovelace é reconhecida como a primeira programadora de toda a história. 
8
 Charles Babbage é mais conhecido e, de certa forma, referenciado como o inventor que projetou o primeiro 
computador de uso geral, utilizando apenas partes mecânicas, que ficou conhecido como a máquina analítica. Ele 
é considerado o pioneiro e pai do computador moderno. Seu projeto, porém, exigia técnicas bastante avançadas e 
caras na época, e ele nunca conseguiu construí-lo. Mais recentemente, entre 1985 e 1991, o Museu de Ciência de 
Londres construiu outra de suas invenções inacabadas, a máquina diferencial, usando apenas técnicas disponíveis 
na época de Babbage. Provou-se assim sua viabilidade. 
5 
 
A primeira aplicação prática dos computadores com resultado 
grandemente útil surgiu com Herman Hollerith, em 1890
9
 quando usou cartões 
perfurados para automatizar os cálculos mecânicos do censo americano. Foi esse 
americano que fundou a empresa que, em 1924, se tornaria a mundialmente conhecida 
International Business Machine – IBM. 
No apagar das luzes do século XIX, surgia o relé, que conseguia ligar e 
desligar interruptores elétricos de forma automática, logo seguido pelas válvulas, que 
faziam ligar/desligar de forma muito mais rápida. Em 1947 surgiria o transistor
10
. 
Desse modo, onde havia um tubo de vácuo com armações de aço, tungstênio e cobre (a 
válvula), agora existiam blocos de semicondutores (o transístor). Se as válvulas faziam 
a eletricidade circular em estado gasoso e por transmissão a vácuo, agora os 
semicondutores tornavam tudo mais simples, por serem apenas bloquinhos sólidos, daí 
o nome inglês solid state. Esses transistores não precisavam aquecer e, portanto, 
consumiam menos eletricidade que as válvulas. A evolução chegou com o circuito 
integrado, que é a moldagem dos transistores, dentro de pequenas cápsulas, chamadas 
de “circuito integrado” – e aqui chegamos ao nosso estágio atual. 
Os computadores elétricos surgiram com finalidades bélicas e serviam para 
calcular o uso de armas de destruição, portanto, objetivos militares. O mais famoso 
deles foi o ENIAC – Eletronic Numeral Integrator Analyzer and Computer, concluído 
em 1945
11
. 
Já vimos o que é informação; agora, questionemos: como algo, uma coisa, 
pode tratar informação? Um interruptor pode admitir duas situações: ligado ou 
desligado. Por convenção internacional, quando está ligado, usa-se o símbolo “1” para 
representar tal status. Quando está desligado, representa-se por “0”. Isso se justifica 
porque, na posição “1”, existe fluxo elétrico, o que não ocorre no inverso “0”. É por 
 
9
 Por isso o contracheque também é chamado de “holerite”... 
10
 O transístor de silício e germânio foi inventado nos Laboratórios da Bell Telephone por John Bardeen e Walter 
Houser Brattain em 1947 e, inicialmente, demonstrado em 23 de Dezembro de1948, por John Bardeen, Walter 
Houser Brattain e William Bradford Shockley, que foram laureados com o Nobel de Física em 1956. 
11
 O ENIAC começou a ser desenvolvido em 1943 durante a II Guerra Mundial para computar trajetórias táticas 
que exigissem conhecimento substancial em física/matemática, mas só se tornou operacional após o final da 
guerra. Sua capacidade de processamento era de 5.000 operações por segundo; Criado na segunda guerra, tinha 
como principal finalidade cálculos balísticos; Possuía 17.468 válvulas termiônicas, de 160 kW de potência. Esta 
máquina não tinha sistema operacional e seu funcionamento era parecido com uma calculadora simples de hoje. 
O ENIAC, assim como uma calculadora, tinha de ser operado manualmente. Hoje uma calculadora efetua os 
cálculos a partir das teclas pressionadas, fazendo interação direta com o hardware, mas no ENIAC era preciso 
conectar fios (cabos), relês e sequências de chaves para que se determinasse a tarefa a ser executada. A cada 
tarefa diferente o processo deveria ser refeito. A resposta era dada por uma sequência de lâmpadas. Era uma 
máquina tão grande que tinha de ser disposta em uma sala ocupando um espaço em U com três painéis sobre 
rodas, para que os operadores pudessem se mover em torno dele. Foram gastos cerca de $500.000,00 (quinhentos 
mil) em sua construção. Quando em operação, outros complexos cálculos de balística passaram a realizar–se em 
alucinantes 30 segundos,quando com as calculadoras manuais que até aí se usavam demorava 12 horas se obter 
o mesmo resultado. O centro de processamento tinha uma estrutura muito similar a dos processadores mais 
básicos que atualmente utilizamos nas nossas calculadoras de bolso. Tinha 20 registos de dez dígitos cada, onde 
se podiam efetuar somas, subtrações, multiplicações, divisões e até extrair raízes quadradas. 
6 
 
isso que o botão liga/desliga sempre possui o desenho “0” atravessado em sua parte 
superior por um “1”. 
Um byte é um conjunto de tais interruptores. Assim, um byte é algo como 
“00000000” e nesse caso, as oito posições (ou oito interruptores) estão desligadas. A 
cada “chavinha” de um byte, a cada interruptor, chamamos bit. Assim esse byte 
(00000000) possui oito bits; já este (0000000000000000) possui 16 bits. Já temos 
computadores domésticos de 32 e até 64 bits! 
Quanto mais rápido uma máquina consegue interpretar e processar tais 
bytes, maior será sua velocidade de processamento, daí a expressão kB/s ou kBps
12
, 
literalmente “kilobytes por segundo”. Embora “kilo” seja mil, em computação 
significa 1.024. É nessas máquinas que tratam bits e bytes que nossa vida está inserida. 
Os dados tratados pelos computadores estão agrupados em arquivos. Pode 
um arquivo se apresentar de diversas formas. Assim, também por convenção, um 
arquivo que termine com a extensão .exe é um arquivo de programa (ou 
“EXEcutável”); um arquivo com a extensão .jpg, tff ou .pic é um arquivo com 
informação de imagem; um arquivo com extensão .mp3, .wav ou .flc é um arquivo com 
informação sonora, e assim por diante. 
O arquivo é um bem como qualquer outro. É um bem incorpóreo, móvel, não 
consumível, infungível, indivisível. Lembramos que existem programas 
compactadores que separam arquivos em mais de um; ora, cada unidade separada é, 
para o direito, um novo arquivo, daí por que tratamos cada arquivo como um bem 
indivisível. Qualquer arquivo tem como principal objetivo a manutenção da qualidade 
dos dados. A maior parte dos arquivos já se encontra hoje em formato digital, o que 
permite visualizar, reproduzir e difundir, através de uma rede informática ou pela 
Internet, mais facilmente estes dados. Antes de se utilizar a tecnologia digital nos 
arquivos, os processos existentes eram dispendiosos, além de que requeriam muitas 
vezes espaços previamente adaptados para o efeito. Na fotografia, um arquivo de 
imagens digital permite guardar as mesmas com o mínimo de perda de qualidade em 
relação ao original e numa área de armazenamento bem menor. 
 
12
 Bit é a simplificação para dígito binário, “BInary digiT” em inglês, que é a menor unidade de medida de 
transmissão de dados usada na Computação. Um bit tem um único valor, 0 ou 1, verdadeiro ou falso, ligado ou 
desligado etc. Ele é representado pela letra (b), assim como kilobit (kb), megabit (Mb), gigabit (Gb),… Repare 
sempre representado com b minúsculo. Para se referir a uma conexão com a internet, por exemplo, utilizamos a 
medida bit por segundo (bps), portanto, se temos um bps, significa que em 1 segundo trafegou 1 bit. Ou seja, em 
uma conexão de 1Mbps significa dizer que a cada segundo está trafegando pela rede 1Mb (megabit). O Byte é 
utilizado com frequência para especificar o tamanho ou quantidade de memória ou da capacidade de 
armazenamento de um computador, 1 byte, por convenção, é constituído de 8 bits. O byte é representado pela 
letra B, assim como kilobyte (kB), megabyte (MB), gigabyte (GB),… E sempre representado com B maiúsculo. 
Desse modo, se seu provedor de internet lhe oferece 300 kilobits de velocidade, com uma simples regra de três 
podemos chegar ao seguinte resultado: 1 byte está para 8 bits, assim como x kilobytes está para 300 kilobits. Ou 
seja, se dividir 300 por 8 terá exatamente 37,5, traduzindo 300kbps é exatamente a mesma coisa que 37,5 kBps. 
7 
 
Diferenciemos a informação de suporte. A criação contida no arquivo, a 
informação, é imaterial. Liliana Paesani nos lembra de que “informação é um gênero 
especial dos bens imateriais”. Se for um bem, está submetida ao regime próprio, no 
que tange à sua posse e aos seus direitos reais. 
Os modos e a sequência pela qual os ‘micro-interruptores’ são ligados e 
desligados (os “zeros” e “uns”) podem ser armazenados. O local de tal armazenagem é 
a memória. 
Não é nova a armazenagem de dados em substratos. Em 1801, o francês 
Joseph Marie Jacquard já projetava e utilizava cartões perfurados que modificava os 
pontos dos teares, fazendo que os tecidos fossem fabricados com texturas diferentes. 
Nos anos 40, um sistema semelhante armazenaria sequências de instruções tipo 
liga/desliga para os computadores valvulados. O local de armazenagem dos dados é 
chamado de “memória”. 
Basicamente, um computador possui duas memórias: uma chamada ROM 
(Read Only Memory) e é lá que fica gravado o modo pelo qual a máquina começa a 
funcionar e fica pronta para receber futuras instruções
13
. Essa memória é permanente. 
Ainda que a máquina seja desligada, ela não é apagada. Basicamente, a função da 
memória ROM é oferecer dados apenas para leitura. Normalmente, a ROM é utilizada 
para armazenar firmwares, pequenos softwares que funcionam apenas no hardware 
para o qual foram desenvolvidos e que controlam as funções mais básicas do 
dispositivo. Na ROM de uma calculadora, por exemplo, podemos encontrar as rotinas 
matemáticas que o estudante pode realizar ao usá-la. Já no caso de celulares, 
normalmente as ROMS carregam o sistema operacional e os softwares básicos do 
aparelho. 
Há ainda uma outra memória importante que é a RAM (Random Access 
Memory), que consiste em dispositivos que podem armazenar bites e bytes conforme a 
vontade do usuário. Tal armazenamento incialmente era feito em meio mecânico, 
usando-se, por exemplo, cartões perfurados. Depois, por meio de superfícies tratadas 
com cloreto de ferro, onde se podiam alinhar as moléculas e lê-las magneticamente 
com ímãs. Os dados eram guardados em fita de papel e esse método surgiu em 1857, 
passando para cartões perfurados, evoluindo para a armazenagem magnética, fitas de 
rolo, de duas, uma ¾ e meia polegadas; passou-se para fitas K-7 nos anos 70 e para os 
disquetes de sete polegadas, depois para os de 5 e 1/4 , com um ou dois lados e, por 
último, dos discos de 3 ½ polegadas. Foram todos sepultados pelos pendrives, onde as 
informações são armazenadas em circuitos integrados. 
Um microprocessador seria inútil se não houvesse formas de entradas e de 
saída dos dados. Tal caminho ocorre por meio de periféricos, que são quaisquer meios 
 
13
 Podemos fazer uma analogia comparando-a com o motor de ignição do automóvel. 
8 
 
utilizados para introduzir ou para extrair dados do computador, como teclado, mouse, 
leitor de código de barras, joystick, câmeras, microfone, etc. Esses são chamados 
periféricos de entrada; os meios pelos quais a máquina retorna as informações são os 
periféricos de saída: monitor, caixa de som, impressora, projetores etc. Ao conjunto 
desses periféricos de entrada e de saída, damos o nome de “interface”, uma forma 
simbólica de designar que estamos “face a face” com a máquina. 
Um computador apto a funcionar possui hardware e software. Liliana 
Paesani, citando Douglas, sustenta que “hardware é a parte física, ou seja, o conjunto 
de circuitos e a unidade que o compõe”; e citando Balduini, diz que “software é o 
instrumento que transforma ferragens em computador e consegue dar logos, ou seja, 
alma e pensamento a uma máquina e a transforma num elaborador de informações”. 
Ao conjunto de Softwaree Hardware, chamamos de “Sistema Informático”, que é 
formado por uma unidade central de processamento de dados, unidades periféricas e 
Software. O sistema informático é uma “universalidade de coisas móveis”. 
 
 
(*)
 Texto baseado no e-book “InfoDireito em 16 aulas”, autor Marco Evangelista, com adaptações (acréscimos e 
atualizações que promovi), para fins didáticos. O referido e-book pode ser adquirido na Amazon por cerca de 
nove reais e centavos. Recomendo aos que desejam avançar nos estudos do Direito da Informática.

Continue navegando