Geografia, perguntado por sil5728, 6 meses atrás

o que aconteceu após o fim da Segunda Guerra Mundial ​

Soluções para a tarefa

Respondido por Kayshi
1

O que aconteceu após o fim da Segunda Guerra Mundial?

Com o fim da Segunda Grande Guerra, a Europa, continente mais poderoso até então, teve grandes perdas, inclusive de seu status no mundo. Estados Unidos e União Soviética tornaram-se os novos centros de decisões político-econômicas. A Alemanha foi dividida em quatro partes, pertencentes a EUA, URSS, França e Inglaterra.

=============================

Bons estudos! :D

Respondido por Usuário anônimo
0

Resposta: A expansão econômica do pós-Segunda Guerra Mundial, também conhecida como o boom econômico pós-guerra ou Era de Ouro do capitalismo, foi um período de prosperidade econômica em meados do século XX,

Explicação: UvU

Perguntas interessantes