História, perguntado por AlyssonAlmeida11, 1 ano atrás

a primeira mundial ajudou ao estados unidos fica rico

Soluções para a tarefa

Respondido por Usuário anônimo
1
Se for analisar pelo contexto da guerra vai perceber que a primeira guerra mundial foi o começo do império norte-americano pois com o fim da segunda guerra mundial com a destruição e desgaste da França,Reino Unido e Alemanha os Estados Unidos se tornaram bastante influentes na diplomacia global e o Dollar valorizou bastante portanto a resposta e sim
Perguntas interessantes