Na escola aprendemos que o Brasil foi descoberto pelos indígena que se aliaram aos portugueses quando eles chegaram como o intuito de combater seus inimigos
Soluções para a tarefa
Respondido por
0
Resposta:
errado nos aprendemos que os portugueses 'descobriram' o brasil
Perguntas interessantes
Saúde,
2 meses atrás
Matemática,
2 meses atrás
Matemática,
2 meses atrás
História,
2 meses atrás
Inglês,
2 meses atrás
Sociologia,
8 meses atrás
Inglês,
8 meses atrás