História, perguntado por beatriz5622, 11 meses atrás

o que ocorreu com a economia dos Estados unidos após o fim da primeira guerra Mundial?​

Soluções para a tarefa

Respondido por lilausantos
2

Resposta:

Explicação:

Ela se fortaleceu, pois como os países dá Europa estavam quebrados, os EUA os ajudou financeiramente e os países dá Europa começaram a comprar os produtos americanos

Perguntas interessantes