História, perguntado por JoaoVictor1119, 11 meses atrás

por que, ao final da Primeira Guerra Mundial, os Estados Unidos se tornaram o país mas rico do mundo?

Soluções para a tarefa

Respondido por brunomacedovasp8s5rh
12
A primeira guerra fez com que o EUA emergissem como a principal economia do planeta. As transações de produtos industriais e agrícolas se ampliaram com a abertura de créditos aos países aliados, seguidas pela concessão de empréstimos á Inglaterra, França e, posteriormente, Alemanha.
Respondido por perolabandeira
0

Resposta

Espero ter ajudado :-)

Anexos:
Perguntas interessantes