o que pode dizer a respeito das culturas indígenas no Brasil com a base na observação desse trabalho?
Soluções para a tarefa
Respondido por
52
Os indígenas no Brasil, são de muita importância, eles são parte da nossa cultura e merecem diversos direitos que ainda não possuem. Acredito que eles sejam a base da nossa sociedade brasileira, pois sofreram muito na época da colonização, eles e os negros.
Perguntas interessantes
Português,
6 meses atrás
História,
6 meses atrás
Biologia,
6 meses atrás
Geografia,
10 meses atrás
Administração,
10 meses atrás
Psicologia,
1 ano atrás