Geografia, perguntado por YURILEAH, 9 meses atrás


Explique o que significa dizer que o Brasil é um "estado democrático de direito".

Soluções para a tarefa

Respondido por amadia778899u
4

Resposta:

O Estado democrático de direito é um conceito que se refere a um Estado em que existe o respeito pelos direitos humanos e pelas e garantias fundamentais. ... Isso significa que as decisões não podem ser contrárias ao que diz a lei e, dessa maneira, os direitos fundamentais dos cidadãos são protegidos.

Perguntas interessantes