História, perguntado por suelemdossantos2015, 7 meses atrás

o que os Estados Unidos assumiu após o fim da guerra?​

Soluções para a tarefa

Respondido por geovannadepaula2223
1

Resposta:

Para os Estados Unidos, o período do pós-Segunda Guerra Mundial foi um de paz e prosperidade. Os norte-americanos usaram o dinheiro que haviam economizado durante a Segunda Guerra Mundial para adquirir bens de consumo que não estavam disponíveis durante o conflito. Com o subsequente boom da economia, milhares de pessoas encontraram emprego nos Estados Unidos. Os norte-americanos estavam ganhando mais dinheiro e a nação tinha o mais alto padrão de vida de todo o mundo.

A sociedade norte-americana também estava mudando. A população dos Estados Unidos cresceu muito devido à alta taxa de natalidade: soldados retornando da guerra estabeleceram famílias e tiveram filhos. Os avanços médicos também elevaram a expectativa de vida dos norte-americanos. Uma lei imposta em 1965 permitiu que mais asiáticos e latino-americanos imigrassem para o país.

Perguntas interessantes