Biologia, perguntado por yasminbarros2021, 6 meses atrás

o que significa dizer que o Brasil é um país Laico?​

Soluções para a tarefa

Respondido por marlidossantos518
2

Resposta:

dizer que um estado ou país é laico significa que as suas regras, leis e instituições públicas não podem ser estabelecidas e nem q o estado ou país pode ser governando com base em determinada religião ou credo vale ressaltar que nem sempre o Brasil foi declaradamente laico espero ter ajudado;)

Explicação:

nd a explicar .

Respondido por martinsfernanda678
0

Resposta:

Explicação:Mesmo com maioria católica, o país é oficialmente um Estado laico, ou seja, adota uma posição neutra no campo religioso, busca a imparcialidade nesses assuntos e não apoiando, nem discrimina nenhuma religião.

Perguntas interessantes