História, perguntado por azevedoadrielli40, 6 meses atrás

que significou o fim do colonialismo no continente africano​


1345266726: O continente africano foi colônia de potências europeias até a segunda metade do século XX. Sua independência se deu pela ocorrência da Segunda Guerra Mundial, que aconteceu na Europa entre 1939 e 1945. ... O enfraquecimento das nações fez ressurgir movimentos de luta pela independência em todas as colônias africanas.

Soluções para a tarefa

Respondido por quiteriaal98
5

Resposta:

O continente africano foi colônia de potências europeias até a segunda metade do século XX. Sua independência se deu pela ocorrência da Segunda Guerra Mundial, que aconteceu na Europa entre 1939 e 1945. Um acontecimento que envolveu muitos países, dentre eles nações europeias que detinham territórios de exploração no continente africano.

Perguntas interessantes