História, perguntado por campostaina602, 5 meses atrás

o cristianismo era a região dos índios antes deles terem contato com o homem branco?

me ajudem por favor​

Soluções para a tarefa

Respondido por linevapabsda
1

Resposta:

Não. O cristianismo foi trazido para o Brasil pelos portugueses e imposto como a única e principal religião do país, embora os nativos tivessem outras religiões e crenças. Os colonizadores obrigaram os indígenas a seguir o cristianismo

Perguntas interessantes