Sim, sua descrição está correta. O direito positivo é o conjunto de princípios e regras que regem a vida social de um povo. Ele é institucionalizado pelo Estado e consiste nas normas jurídicas de um determinado país, como o Código Penal, Código Civil, entre outros. Essas normas são criadas e aplicadas pelo poder legislativo e judiciário para regular as relações entre os indivíduos e garantir a ordem e a justiça na sociedade.
Para escrever sua resposta aqui, entre ou crie uma conta
Introdução ao Direito e Direito Constitucional
Compartilhar