Relacione os acontecimentos da primeira guerra mundial à ascensão dos estados unidos no cenário internacional
Soluções para a tarefa
Respondido por
43
O papel dos EUA decisivo foi na 1ª Guerra Mundial, eles forneciam armas durante a guerra, e quando ela acabou forneceram alimentos, como os únicos que saem ganhando na guerra são aqueles que fornecem armamentos os EUA saíram prestigiados, tanto é que o período pós guerra ficou conhecido nos Estados Unidos como ''anos felizes'', toda a população começou a consumir desenfreadamente sob influencia do rádio.
Perguntas interessantes