Geografia, perguntado por leticiasantosxavier5, 5 meses atrás

quais os países que colonizam o continente africano​

Soluções para a tarefa

Respondido por joaovictorpf719
0

Resposta:

Diversos países colonizaram a África conhecida popularmente como neocolonialismo ou imperialismo, desses países os mais importantes foram o Reino Unido, França e EUA, contudo ainda teve a participação de países como Japão (durante a era Meiji), Itália e Alemanha que haviam recentemente sido unificadas, Bélgica, Países Baixos em resumo todos os países da Europa na época juntamente com o Japão e os EUA.

Perguntas interessantes