Artes, perguntado por Eduardakunzel, 10 meses atrás

o que pode dizer a respeito das culturas indígenas no Brasil com a base na observação desse trabalho?

Soluções para a tarefa

Respondido por sophiasussa24
52

Os indígenas no Brasil, são de muita importância, eles são parte da nossa cultura e merecem diversos direitos que ainda não possuem. Acredito que eles sejam a base da nossa sociedade brasileira, pois sofreram muito na época da colonização, eles e os negros.

Perguntas interessantes