Na escola aprendemos que o Brasil foi descoberto pelos indígena que se aliaram aos portugueses quando eles chegaram como o intuito de combater seus inimigos
Soluções para a tarefa
Respondido por
0
Resposta:
errado nos aprendemos que os portugueses 'descobriram' o brasil
Perguntas interessantes
Saúde,
5 meses atrás
Matemática,
5 meses atrás
Matemática,
5 meses atrás
História,
5 meses atrás
Inglês,
5 meses atrás
Sociologia,
11 meses atrás
Inglês,
11 meses atrás