História, perguntado por muaythai0579, 6 meses atrás

Quais as mudanças que aconteceram nos Estados Unidos da América após a Primeira Guerra Mundial?​

Soluções para a tarefa

Respondido por thiago201284
0

Resposta:

Durante grande parte da década de 1920, os Estados Unidos aproveitaram-se de um período de prosperidade não balanceada. Os preços de produtos agropecuários e os salários em geral caíram no país após o fim da guerra, enquanto que novas indústrias, tais como o rádio, filmes, automóveis e químicos, prosperaram.

Explicação:

Perguntas interessantes