História, perguntado por isabellagoetten, 9 meses atrás


Qual foram os principais países que colonizaram o brasil além de Portugal
(quero saber apenas o nome dos países)

Soluções para a tarefa

Respondido por viniguizi12
1

Resposta:

O país que colonizou o Brasil foi Portugal, mas também participaram da colonização Holanda, França, Alemanha, Espanha e Itália.

Perguntas interessantes