Na escola aprendemos que o Brasil foi descoberto pelos indígena que se aliaram aos portugueses quando eles chegaram como o intuito de combater seus inimigos
Soluções para a tarefa
Respondido por
0
Resposta:
errado nos aprendemos que os portugueses 'descobriram' o brasil
Perguntas interessantes
Saúde,
3 meses atrás
Matemática,
3 meses atrás
Matemática,
3 meses atrás
História,
3 meses atrás
Inglês,
3 meses atrás
Sociologia,
9 meses atrás
Inglês,
9 meses atrás