História, perguntado por jairmarinho71, 8 meses atrás

qual a realidade dos Estados Unidos após a primeira guerra Mundial??​

Soluções para a tarefa

Respondido por barbaraluanasz
2

Resposta:

Após a Primeira Guerra Mundial, os Estados Unidos, assumiram a hegemonia econômica do planeta. Passaram de devedores a credores no mercado internacional. Fizeram grandes empréstimos para a reconstrução da Europa, ao mesmo tempo exportavam bastante para o continente.


jairmarinho71: vlw
jairmarinho71: obrigado
Perguntas interessantes