Pode-se dizer que o direito positivo é o conjunto de normas (leis) estabelecidas pelo poder político do Estado que se impõem e regulam a vida social de um dado povo, em um determinado lugar e em uma determinada época.
Soluções para a tarefa
Respondido por
2
Sim, a afirmativa está correta.
Perguntas interessantes