História, perguntado por eduardonascimento32, 9 meses atrás

o que aconteceu com os índios quando os negros e os brancos vieram para o Brasil?

Soluções para a tarefa

Respondido por samuel1773
2

Resposta:

A relação com os índios passou a ser conflituosa e, praticamente, em todos os locais de colonização se desencadearam guerras entre os índios e os brancos. Se os índios ganharam alguns combates, por outro lado, os portugueses ganharam a guerra.

Explicação:

ESPERO TER AJUDADO!!^_^

Perguntas interessantes