História, perguntado por smillena074, 6 meses atrás

o que significa dizer que o Brasil se tornou um Estado laico com a República ?​

Soluções para a tarefa

Respondido por profsimaopedro
0

Resposta:

Estado Laico é aquele que não se pauta por religião nenhuma para tomar decisões políticas.

Explicação:

Perguntas interessantes