o que aconteceu após o fim da Segunda Guerra Mundial
Soluções para a tarefa
Respondido por
1
O que aconteceu após o fim da Segunda Guerra Mundial?
Com o fim da Segunda Grande Guerra, a Europa, continente mais poderoso até então, teve grandes perdas, inclusive de seu status no mundo. Estados Unidos e União Soviética tornaram-se os novos centros de decisões político-econômicas. A Alemanha foi dividida em quatro partes, pertencentes a EUA, URSS, França e Inglaterra.
=============================
Bons estudos! :D
Respondido por
0
Resposta: A expansão econômica do pós-Segunda Guerra Mundial, também conhecida como o boom econômico pós-guerra ou Era de Ouro do capitalismo, foi um período de prosperidade econômica em meados do século XX,
Explicação: UvU
Perguntas interessantes
Matemática,
6 meses atrás
Filosofia,
6 meses atrás
Física,
7 meses atrás
Geografia,
7 meses atrás
Geografia,
1 ano atrás