História, perguntado por selinemacedo, 3 meses atrás

Quais os principais países dominaram colônias na América?

Soluções para a tarefa

Respondido por rayssarauany
2

Resposta:

O colonialismo refere-se a ocupação de territórios (colônias) na América e na Costa Africana por países europeus (Portugal, Espanha e França) e pela Inglaterra, durante os séculos XIV e XVII.

Perguntas interessantes