Sociologia, perguntado por meyre14, 1 ano atrás

Qual o significado de dizer o Brasil é um país laico

Soluções para a tarefa

Respondido por lala20
4
o significado é que o Brasil não tem uma religião oficial.


meyre14: obg
Perguntas interessantes