qual a realidade dos Estados Unidos após a primeira guerra Mundial??
Soluções para a tarefa
Respondido por
2
Resposta:
Após a Primeira Guerra Mundial, os Estados Unidos, assumiram a hegemonia econômica do planeta. Passaram de devedores a credores no mercado internacional. Fizeram grandes empréstimos para a reconstrução da Europa, ao mesmo tempo exportavam bastante para o continente.
jairmarinho71:
vlw
Perguntas interessantes
Português,
5 meses atrás
Matemática,
5 meses atrás
Biologia,
8 meses atrás
Química,
11 meses atrás
Matemática,
11 meses atrás