História, perguntado por limaravena37, 5 meses atrás

o que são terrar indígenas do Brasil,e qual a importância??​

Soluções para a tarefa

Respondido por vanessaalmeidadasilv
1

Resposta:

As terras indígenas são áreas fundamentais para a reprodução física e cultural dos povos indígenas, com a manutenção de seus modos de vida tradicionais, saberes e expressões culturais únicos, enriquecendo o patrimônio cultural brasileiro.

Respondido por Micael3361
1

Resposta:

terras indígenas são localidades que habitam unicamente índios e que tem como principal dever esses habitantes a preservação da natureza mas nao é so isso o dever deles.

a importância de índios no Brasil pois podemos aprender cada vez mais todas as suas culturas que são bem variadas.

Perguntas interessantes