Biologia, perguntado por niviasilvas64, 9 meses atrás

como se formou a religiao no brasil, como tudo aconteceu ​

Soluções para a tarefa

Respondido por brunomartins2345
1

A principal religião do Brasil, desde o século XVI, tem sido o catolicismo romano. Ela foi introduzida por missionários jesuítas que acompanharam os exploradores e colonizadores portugueses nas terras do país recém-descoberto.

espero ter ajudado✌

Perguntas interessantes