História, perguntado por Joaseiro, 3 meses atrás

Na escola aprendemos que o Brasil foi descoberto pelos indígena que se aliaram aos portugueses quando eles chegaram como o intuito de combater seus inimigos

Soluções para a tarefa

Respondido por anagoncalves1519
0

Resposta:

errado nos aprendemos que os portugueses 'descobriram' o brasil

Perguntas interessantes