Sim, a afirmação está correta. O Direito positivo é aquele que é estabelecido por meio de normas e leis criadas pela vontade humana, seja por meio de legislações, decretos, regulamentos, entre outros. Ele é o conjunto de regras que regem a convivência em uma sociedade e é aplicado de forma obrigatória.
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar