História, perguntado por casteloarmando295, 5 meses atrás

Qual e o significado do colonialismo em africa

Soluções para a tarefa

Respondido por amandapaivaastudies
0

Olá!

O colonialismo refere-se a ocupação de territórios (colônias) na América e na Costa Africana por países europeus (Portugal, Espanha e França) e pela Inglaterra, durante os séculos XIV e XVII.

Bons Estudos!

Perguntas interessantes