explique o que aconteceu dos Estados Unidos após o final da segunda guerra mundial?
Soluções para a tarefa
Respondido por
1
Resposta:
Os Estados Unidos Pós-Segunda Guerra. Para os Estados Unidos, o período do pós-Segunda Guerra Mundial foi um de paz e prosperidade. ... Roosevelt, que havia governado os Estados Unidos durante os anos 1933-1945, combateu a Grande Depressão da década de 1930 ao aumentar o papel do governo na economia nacional.
RianFS:
o Brasil ganhou cinco copas
Perguntas interessantes