O Direito Positivo é o conjunto de normas escritas e obrigatoriamente impostas a todos os indivíduos de uma comunidade. Varia de povo para povo, pois é criada de acordo com os costumes de cada sociedade, e vai se modificando ao longo do tempo, acompanhando a evolução da sociedade.
Podemos afirmar ainda que o direito positivo é aquele que existe apenas nas leis criadas pelo “homem”, e que é imposta pelo Estado. O seu objetivo é de atingir a justiça, ou seja, a resposta certa e mais justa para uma determinada situação, através de regras, leis, e normas, abordadas através do julgamento feito por um juiz.
O direito natural, diferente do positivo que visa fazer justiça através de regras e leis, defende a existência de um Direito maior que é regido pelos direitos humanos. Na visão dos jusnaturalistas, aqueles que defendem o direito natural, este último prevalece sobre o direito positivo por ser mais amplo e flexível nas resoluções de conflitos, já que não fica preso em regras e leis pré-estabelecidas.
Para escrever sua resposta aqui, entre ou crie uma conta
História e Introdução ao Estudo do Direito
Compartilhar