Baixe o app para aproveitar ainda mais
Prévia do material em texto
Centro Universitário de João Pessoa – UNIPÊ Direito da Informática Aula 01 – conceitos iniciais e noções básicas de informática(*) O direito, como conjunto de regras que regulam a sociedade, encampou o comportamento que envolve homens e determinados dispositivos, criados por ele mesmo para facilitar seus atos. Tais dispositivos – os computadores – processam dados e tratam as informações, ajudando-os a entender e a transformar sua realidade. A representação da realidade é um dado. A partir do momento em que tal reprodução passa a ter alguma finalidade, transforma-se em informação. Assim, informação é um dado útil; consiste literalmente em dar àquela representação da realidade uma forma e usar esta. A própria etimologia da palavra “informática” nos leva ao vocábulo “forma”. Essa partícula “in” não representa uma negação, mas sim uma introdução, uma inferência. Desse modo, informar é fazer entrar na esfera cognitiva de alguém uma forma, não importando se é um sinal, uma imagem, numérico ou alfanumérico. A Lei de Acesso à Informação (Lei n.º 12.725/2011) conceitua informação como “dados, processados ou não, que podem ser utilizados para a produção e transmissão de conhecimento, contidos em qualquer meio, suporte ou formato”. O estudo da informação (origem, organização e aplicação) é chamado de “informática”. Portanto, quando se escreve o nome e o número de alguém em uma agenda, está-se elaborando um processo de informática, visto que se sabe como surgiu o dado, qual será sua utilidade (ainda que potencial), como se está codificando, onde esta está guardada e como se poderá acessá-la. Isso é informática. No que toca a gênese da palavra ligada à atividade computacional, Liliana Paesani 1 nos ensina que “informática” é um neologismo de origem francesa, derivado da expressão information automatique criada por Philippe Dreyfus em 1962. A informática é tudo; menos nova. Antes mesmo da escrita, já existia a informática, quando os dados eram passados oralmente. O meio de processamento de tais dados é que mudou ao longo do tempo; da elaboração oral, passou-se à escrita, a gráficos, a meios mecânicos e magnéticos até a computação quântica, como provavelmente ocorrerá em futuro próximo. 1 PAESANI, Liliana Minardi. Direito de Informática – Comercialização e Desenvolvimento Internacional do Software. 5ª Ed. Editora Atlas, 2008, p. 25. 2 A relação homem-máquina é tratada pela cibernética. Liliana Paesani nos assevera ainda que “cibernética é a ciência do sistema de controle e da comunicação nas máquinas e nos seres humanos”. O pai na Cibernética, Norbert Wiener, resumiu afirmando que cibernética é a “Ciência do controle e da comunicação”... no animal, máquina, na sociedade2. Tem por principal atividade a eficácia dos meios de controle de vários sistemas, como o funcionamento do cérebro, o comando de uma aeronave, uma empresa, um órgão público e, como diz Limongi França, o controle de um sistema jurídico. O conceito que envolve elementos distantes está no vocábulo “tele”. O estudo da transmissão de dados é chamado “telemática”. A autora Liliana Paesani afirma que “telemática é o aspecto dinâmico do uso da informação”; citando Frosini, a autora também apresenta que “telemática corresponde ao procedimento de elaboração das informações a distância e, por conseguinte, ao movimento de circulação automática dos dados informativos”. “Direito da Informática” é o ramo da ciência jurídica que regula, estuda e enquadra os fatos jurídicos ocorridos em ou mediante meios informáticos eletrônicos”. É também conhecido por “Direito Digital”, “Direito Eletrônico”, “Infolaw”, “Direito Informático” ou “Direito Cibernético” etc. Esse Direito da Informática deve partir de algumas regras básicas que compilamos e que são as seguintes: 1. Tratar o meio eletrônico como uma mera forma de atuação; 2. Encontrar a norma que reja tal situação no mundo real; se existir, utilizá-la, exceto se outra norma houver para o mesmo fato em ambiente de informática; 3. Somente deve existir norma para determinado fato em ambiente informático se tal ato não puder ser praticado em ambiente real, ou ao menos da mesma forma. Com tais regras, imaginamos que as questões envolvendo Direito da Informática estariam solucionadas. 2 A cibernética é uma revolução que não ficou restrita ao plano tecnológico dos computadores miraculosos ou das máquinas que imitam o comportamento "finalista" dos seres vivos, mas que foi até campos mais vastos das Ciências e da Filosofia, abalando crenças tradicionais e abrindo novas e atordoantes perspectivas para a compreensão do mundo e da vida. Norbert Wiener, considerado o pai da cibernética, no seu livro “Cibernética e Sociedade – O uso humano de seres humanos”, esclarece para o leitor não especializado os conceitos cibernéticos fundamentais - entropia, feedback, automação, informação, comunicação etc., mostrando as revolucionárias implicações sociais e filosóficas. 3 Teoria elementar da computação Não existiria Direito da Informática sem computador, como hoje nós o conhecemos. Augusto de Vasconcelos 3 nos diz que computadores são “máquinas que trabalham sobre dados fornecidos para produzir resultados procurados” A etimologia “computador” nos remete a algo que ordena pensamentos; é que a palavra “putare” em latim equivale a “imaginar” daí a dizermos que “reputação é o que pensam (imaginam) que somos”. Palavras como “credor putativo” ou “legítima defesa putativa” se referem a fatos não ocorridos, mas que foram imaginados 4. Já a partícula “com” significa junção, agregação, justaposição. Assim, “computador” é algo que ordena ideias. Não é à toa que em espanhol é chamado de ordenador e, em francês, de ordinateur. Os computadores mais antigos eram analógicos; hoje são digitais (razão pela qual se chamam vários institutos jurídicos relativos à informática de “digitais”). Algo é chamado de analógico quando trabalha com elementos físicos que representam elementos reais (variação contínua); a tradução é feita diretamente (daí o fato de analogia ter algo a ver com igualdade). E é chamado de digital quando a grandeza real é traduzida para sinais descontínuos (se digital binários – zeros e uns) para processamento, sendo retraduzidos tais “digitais” para grandezas físicas reais após o processamento (já que os nossos sentidos estão “preparados” para entenderem um mundo de realidades analógicas). Todos nós temos uma noção inata sobre atividade computacional, ainda que não saibamos disso e até já computamos algo até instintivamente. Quando se quer somar quatro mais três, e se levantam quadro dedos em uma mão e três dedos na outra, o fato de se chegar ao resultado sete somente contando quantos dedos estão levantados é pura atividade computacional, já que se usou algo externo ao cérebro, “um objeto” (os dedos), além do simples raciocínio, para se obter um determinado resultado. Um dispositivo que facilite ou torne mais cômodo qualquer atividade lógica cerebral é, puramente, um computador. Um ábaco (instrumento com círculos e eixos) 5 é um computador; aliás, dos mais engenhosos em sua simplicidade... 3 VASCONCELOS, Augusto de. Programação de computadores eletrônicos. 4ª ed. Editora Fundo de Cultura. Rio de Janeiro, 1972 – p. 9. 4 EVANGELISTA, Marco. Direito Civil sem estresse. 2ª ed. Ed. Do Autor. Manaus, 2008 – p. 66. 5 O ábaco é um antigo instrumento de cálculo, formado por uma moldura com bastões ou aramesparalelos, dispostos no sentido vertical, correspondentes cada um a uma posição digital (unidades, dezenas, centenas, etc.) e nos quais estão os elementos de contagem (fichas, bolas, contas,...) que podem fazer-se deslizar livremente. Teve origem provavelmente na China e no Japão, há mais de 5.500 anos. O ábaco pode ser considerado como uma extensão do ato natural de se contar nos dedos. Emprega um processo de cálculo com sistema decimal, 4 Podemos inferir que os primeiros computadores foram os próprios dedos; depois devem ter evoluído para alguma outra forma rudimentar – conta-se que em algum momento da humanidade os pastores sabiam quando havia modificação numérica em seu rebanho atribuindo a cada animal uma pedra; se em uma contagem faltasse alguma pedra, era sinal de que algum de seus animais fugira; se sobrasse, alguma fêmea dera à luz, ou seja, um puro ato computacional; evoluiu-se para o ábaco, aparelhinho com contas que facilitam no mundo físico cálculos mentais. Dando um salto no tempo, foi percebido que era justo no campo numérico que o homem mais precisava auxiliares corpóreos externos, em princípio, para processar as quatro operações. Começavam a existir os computadores mecânicos. A calculadora portátil e mecânica surgiria em 1820. Em 1823, calculadoras mecânicas já trabalhavam com vinte casas decimais e eram muito precisas. Bits e Bytes Um bit é uma posição em um dado, podendo tal posicionamento representar “ligado” ou “desligado”. Assim, no código Morse (pontos e traços), possui de um a cinco bits 6 . Em 1833, surgiria o primeiro programa de computador mecânico (Ada Lovelace) 7 , uma série de instruções escritas, o que permitia à máquina executar operações diferentes uma após outra. Em 1871, Charles Babbage projetou que um computador deveria ter dispositivo de entrada, memória (armazenamento) e saída. Tal conceito mudou pouco (acrescentou-se a unidade de processamento) até hoje. Por isso ele é conhecido como o “pai do computador moderno”8. Em 1854, George Boole desenvolveu um sistema baseado em “zeros” e “uns”, o binário ou booleano, hoje usado nos computadores modernos. Em 1880, surgiram as primeiras impressoras; a primeira calculadora com teclado só pareceria em 1890, produzida pela “Burroughs Corporation”. atribuindo a cada haste um múltiplo de dez. Ele é utilizado ainda hoje para ensinar às crianças as operações de somar e subtrair. 6 Por exemplo: a letra “e” é apenas um ponto (.), ou seja, um bit. Já a letra “o” equivale a cinco traços (_ _ _ _ _), ou seja, a cinco bits. 7 Ada Augusta Byron King, Condessa de Lovelace (10 de Dezembro de 1815 - 27 de Novembro de 1852), atualmente conhecida como Ada Lovelace, única filha legítima do poeta britânico Lord Byron, foi uma matemática e escritora inglesa e hoje é principalmente reconhecida por ter escrito o primeiro algoritmo para ser processado por uma máquina: a máquina analítica de Charles Babbage. Durante o período em que esteve envolvida com o projeto de Babbage, ela desenvolveu os algoritmos que permitiriam à máquina computar os valores de funções matemáticas, além de publicar uma coleção de notas sobre a máquina analítica. Lady Lovelace é reconhecida como a primeira programadora de toda a história. 8 Charles Babbage é mais conhecido e, de certa forma, referenciado como o inventor que projetou o primeiro computador de uso geral, utilizando apenas partes mecânicas, que ficou conhecido como a máquina analítica. Ele é considerado o pioneiro e pai do computador moderno. Seu projeto, porém, exigia técnicas bastante avançadas e caras na época, e ele nunca conseguiu construí-lo. Mais recentemente, entre 1985 e 1991, o Museu de Ciência de Londres construiu outra de suas invenções inacabadas, a máquina diferencial, usando apenas técnicas disponíveis na época de Babbage. Provou-se assim sua viabilidade. 5 A primeira aplicação prática dos computadores com resultado grandemente útil surgiu com Herman Hollerith, em 1890 9 quando usou cartões perfurados para automatizar os cálculos mecânicos do censo americano. Foi esse americano que fundou a empresa que, em 1924, se tornaria a mundialmente conhecida International Business Machine – IBM. No apagar das luzes do século XIX, surgia o relé, que conseguia ligar e desligar interruptores elétricos de forma automática, logo seguido pelas válvulas, que faziam ligar/desligar de forma muito mais rápida. Em 1947 surgiria o transistor 10 . Desse modo, onde havia um tubo de vácuo com armações de aço, tungstênio e cobre (a válvula), agora existiam blocos de semicondutores (o transístor). Se as válvulas faziam a eletricidade circular em estado gasoso e por transmissão a vácuo, agora os semicondutores tornavam tudo mais simples, por serem apenas bloquinhos sólidos, daí o nome inglês solid state. Esses transistores não precisavam aquecer e, portanto, consumiam menos eletricidade que as válvulas. A evolução chegou com o circuito integrado, que é a moldagem dos transistores, dentro de pequenas cápsulas, chamadas de “circuito integrado” – e aqui chegamos ao nosso estágio atual. Os computadores elétricos surgiram com finalidades bélicas e serviam para calcular o uso de armas de destruição, portanto, objetivos militares. O mais famoso deles foi o ENIAC – Eletronic Numeral Integrator Analyzer and Computer, concluído em 1945 11 . Já vimos o que é informação; agora, questionemos: como algo, uma coisa, pode tratar informação? Um interruptor pode admitir duas situações: ligado ou desligado. Por convenção internacional, quando está ligado, usa-se o símbolo “1” para representar tal status. Quando está desligado, representa-se por “0”. Isso se justifica porque, na posição “1”, existe fluxo elétrico, o que não ocorre no inverso “0”. É por 9 Por isso o contracheque também é chamado de “holerite”... 10 O transístor de silício e germânio foi inventado nos Laboratórios da Bell Telephone por John Bardeen e Walter Houser Brattain em 1947 e, inicialmente, demonstrado em 23 de Dezembro de1948, por John Bardeen, Walter Houser Brattain e William Bradford Shockley, que foram laureados com o Nobel de Física em 1956. 11 O ENIAC começou a ser desenvolvido em 1943 durante a II Guerra Mundial para computar trajetórias táticas que exigissem conhecimento substancial em física/matemática, mas só se tornou operacional após o final da guerra. Sua capacidade de processamento era de 5.000 operações por segundo; Criado na segunda guerra, tinha como principal finalidade cálculos balísticos; Possuía 17.468 válvulas termiônicas, de 160 kW de potência. Esta máquina não tinha sistema operacional e seu funcionamento era parecido com uma calculadora simples de hoje. O ENIAC, assim como uma calculadora, tinha de ser operado manualmente. Hoje uma calculadora efetua os cálculos a partir das teclas pressionadas, fazendo interação direta com o hardware, mas no ENIAC era preciso conectar fios (cabos), relês e sequências de chaves para que se determinasse a tarefa a ser executada. A cada tarefa diferente o processo deveria ser refeito. A resposta era dada por uma sequência de lâmpadas. Era uma máquina tão grande que tinha de ser disposta em uma sala ocupando um espaço em U com três painéis sobre rodas, para que os operadores pudessem se mover em torno dele. Foram gastos cerca de $500.000,00 (quinhentos mil) em sua construção. Quando em operação, outros complexos cálculos de balística passaram a realizar–se em alucinantes 30 segundos,quando com as calculadoras manuais que até aí se usavam demorava 12 horas se obter o mesmo resultado. O centro de processamento tinha uma estrutura muito similar a dos processadores mais básicos que atualmente utilizamos nas nossas calculadoras de bolso. Tinha 20 registos de dez dígitos cada, onde se podiam efetuar somas, subtrações, multiplicações, divisões e até extrair raízes quadradas. 6 isso que o botão liga/desliga sempre possui o desenho “0” atravessado em sua parte superior por um “1”. Um byte é um conjunto de tais interruptores. Assim, um byte é algo como “00000000” e nesse caso, as oito posições (ou oito interruptores) estão desligadas. A cada “chavinha” de um byte, a cada interruptor, chamamos bit. Assim esse byte (00000000) possui oito bits; já este (0000000000000000) possui 16 bits. Já temos computadores domésticos de 32 e até 64 bits! Quanto mais rápido uma máquina consegue interpretar e processar tais bytes, maior será sua velocidade de processamento, daí a expressão kB/s ou kBps 12 , literalmente “kilobytes por segundo”. Embora “kilo” seja mil, em computação significa 1.024. É nessas máquinas que tratam bits e bytes que nossa vida está inserida. Os dados tratados pelos computadores estão agrupados em arquivos. Pode um arquivo se apresentar de diversas formas. Assim, também por convenção, um arquivo que termine com a extensão .exe é um arquivo de programa (ou “EXEcutável”); um arquivo com a extensão .jpg, tff ou .pic é um arquivo com informação de imagem; um arquivo com extensão .mp3, .wav ou .flc é um arquivo com informação sonora, e assim por diante. O arquivo é um bem como qualquer outro. É um bem incorpóreo, móvel, não consumível, infungível, indivisível. Lembramos que existem programas compactadores que separam arquivos em mais de um; ora, cada unidade separada é, para o direito, um novo arquivo, daí por que tratamos cada arquivo como um bem indivisível. Qualquer arquivo tem como principal objetivo a manutenção da qualidade dos dados. A maior parte dos arquivos já se encontra hoje em formato digital, o que permite visualizar, reproduzir e difundir, através de uma rede informática ou pela Internet, mais facilmente estes dados. Antes de se utilizar a tecnologia digital nos arquivos, os processos existentes eram dispendiosos, além de que requeriam muitas vezes espaços previamente adaptados para o efeito. Na fotografia, um arquivo de imagens digital permite guardar as mesmas com o mínimo de perda de qualidade em relação ao original e numa área de armazenamento bem menor. 12 Bit é a simplificação para dígito binário, “BInary digiT” em inglês, que é a menor unidade de medida de transmissão de dados usada na Computação. Um bit tem um único valor, 0 ou 1, verdadeiro ou falso, ligado ou desligado etc. Ele é representado pela letra (b), assim como kilobit (kb), megabit (Mb), gigabit (Gb),… Repare sempre representado com b minúsculo. Para se referir a uma conexão com a internet, por exemplo, utilizamos a medida bit por segundo (bps), portanto, se temos um bps, significa que em 1 segundo trafegou 1 bit. Ou seja, em uma conexão de 1Mbps significa dizer que a cada segundo está trafegando pela rede 1Mb (megabit). O Byte é utilizado com frequência para especificar o tamanho ou quantidade de memória ou da capacidade de armazenamento de um computador, 1 byte, por convenção, é constituído de 8 bits. O byte é representado pela letra B, assim como kilobyte (kB), megabyte (MB), gigabyte (GB),… E sempre representado com B maiúsculo. Desse modo, se seu provedor de internet lhe oferece 300 kilobits de velocidade, com uma simples regra de três podemos chegar ao seguinte resultado: 1 byte está para 8 bits, assim como x kilobytes está para 300 kilobits. Ou seja, se dividir 300 por 8 terá exatamente 37,5, traduzindo 300kbps é exatamente a mesma coisa que 37,5 kBps. 7 Diferenciemos a informação de suporte. A criação contida no arquivo, a informação, é imaterial. Liliana Paesani nos lembra de que “informação é um gênero especial dos bens imateriais”. Se for um bem, está submetida ao regime próprio, no que tange à sua posse e aos seus direitos reais. Os modos e a sequência pela qual os ‘micro-interruptores’ são ligados e desligados (os “zeros” e “uns”) podem ser armazenados. O local de tal armazenagem é a memória. Não é nova a armazenagem de dados em substratos. Em 1801, o francês Joseph Marie Jacquard já projetava e utilizava cartões perfurados que modificava os pontos dos teares, fazendo que os tecidos fossem fabricados com texturas diferentes. Nos anos 40, um sistema semelhante armazenaria sequências de instruções tipo liga/desliga para os computadores valvulados. O local de armazenagem dos dados é chamado de “memória”. Basicamente, um computador possui duas memórias: uma chamada ROM (Read Only Memory) e é lá que fica gravado o modo pelo qual a máquina começa a funcionar e fica pronta para receber futuras instruções 13 . Essa memória é permanente. Ainda que a máquina seja desligada, ela não é apagada. Basicamente, a função da memória ROM é oferecer dados apenas para leitura. Normalmente, a ROM é utilizada para armazenar firmwares, pequenos softwares que funcionam apenas no hardware para o qual foram desenvolvidos e que controlam as funções mais básicas do dispositivo. Na ROM de uma calculadora, por exemplo, podemos encontrar as rotinas matemáticas que o estudante pode realizar ao usá-la. Já no caso de celulares, normalmente as ROMS carregam o sistema operacional e os softwares básicos do aparelho. Há ainda uma outra memória importante que é a RAM (Random Access Memory), que consiste em dispositivos que podem armazenar bites e bytes conforme a vontade do usuário. Tal armazenamento incialmente era feito em meio mecânico, usando-se, por exemplo, cartões perfurados. Depois, por meio de superfícies tratadas com cloreto de ferro, onde se podiam alinhar as moléculas e lê-las magneticamente com ímãs. Os dados eram guardados em fita de papel e esse método surgiu em 1857, passando para cartões perfurados, evoluindo para a armazenagem magnética, fitas de rolo, de duas, uma ¾ e meia polegadas; passou-se para fitas K-7 nos anos 70 e para os disquetes de sete polegadas, depois para os de 5 e 1/4 , com um ou dois lados e, por último, dos discos de 3 ½ polegadas. Foram todos sepultados pelos pendrives, onde as informações são armazenadas em circuitos integrados. Um microprocessador seria inútil se não houvesse formas de entradas e de saída dos dados. Tal caminho ocorre por meio de periféricos, que são quaisquer meios 13 Podemos fazer uma analogia comparando-a com o motor de ignição do automóvel. 8 utilizados para introduzir ou para extrair dados do computador, como teclado, mouse, leitor de código de barras, joystick, câmeras, microfone, etc. Esses são chamados periféricos de entrada; os meios pelos quais a máquina retorna as informações são os periféricos de saída: monitor, caixa de som, impressora, projetores etc. Ao conjunto desses periféricos de entrada e de saída, damos o nome de “interface”, uma forma simbólica de designar que estamos “face a face” com a máquina. Um computador apto a funcionar possui hardware e software. Liliana Paesani, citando Douglas, sustenta que “hardware é a parte física, ou seja, o conjunto de circuitos e a unidade que o compõe”; e citando Balduini, diz que “software é o instrumento que transforma ferragens em computador e consegue dar logos, ou seja, alma e pensamento a uma máquina e a transforma num elaborador de informações”. Ao conjunto de Softwaree Hardware, chamamos de “Sistema Informático”, que é formado por uma unidade central de processamento de dados, unidades periféricas e Software. O sistema informático é uma “universalidade de coisas móveis”. (*) Texto baseado no e-book “InfoDireito em 16 aulas”, autor Marco Evangelista, com adaptações (acréscimos e atualizações que promovi), para fins didáticos. O referido e-book pode ser adquirido na Amazon por cerca de nove reais e centavos. Recomendo aos que desejam avançar nos estudos do Direito da Informática.
Compartilhar