História, perguntado por heloviss, 8 meses atrás

o que aconteceu com os estados unidos pós guerra fria?

Soluções para a tarefa

Respondido por JoaozinhoVitin
1

Resposta:

Para os Estados Unidos, o período do pós-Segunda Guerra Mundial foi um de paz e prosperidade. Roosevelt, que havia governado os Estados Unidos durante os anos 1933-1945, combateu a Grande Depressão da década de 1930 ao aumentar o papel do governo na economia nacional.

Perguntas interessantes