o que pode dizer a respeito das culturas indígenas no Brasil com a base na observação desse trabalho?
Soluções para a tarefa
Respondido por
52
Os indígenas no Brasil, são de muita importância, eles são parte da nossa cultura e merecem diversos direitos que ainda não possuem. Acredito que eles sejam a base da nossa sociedade brasileira, pois sofreram muito na época da colonização, eles e os negros.
Perguntas interessantes
Português,
9 meses atrás
História,
9 meses atrás
Biologia,
9 meses atrás
Geografia,
1 ano atrás
Administração,
1 ano atrás
Psicologia,
1 ano atrás