Geografia, perguntado por fguimaraes2005, 11 meses atrás

explique o que aconteceu dos Estados Unidos após o final da segunda guerra mundial?

Soluções para a tarefa

Respondido por Jukers001
1

Resposta:

Os Estados Unidos Pós-Segunda Guerra. Para os Estados Unidos, o período do pós-Segunda Guerra Mundial foi um de paz e prosperidade. ... Roosevelt, que havia governado os Estados Unidos durante os anos 1933-1945, combateu a Grande Depressão da década de 1930 ao aumentar o papel do governo na economia nacional.


RianFS: o Brasil ganhou cinco copas
fguimaraes2005: nossa!!! agora q vc descobriu??
Perguntas interessantes