História, perguntado por jonathanzleaorjd, 11 meses atrás

por que, ao final da primeira guerra mundial, os Estados Unidos se tornaram o país mais rico do mundo?​

Soluções para a tarefa

Respondido por leafarsk21
6

Resposta:

Explicação: O Estados Unidos durante a guerra participaram vendendo armas e suprimentos aos aliados da Entente, usando de sua economia forte para criar uma dependência econômica entre países como Inglaterra e França para EUA. Assim no pós-guerra, se tornou uma potência global.

Respondido por perolabandeira
0

Resposta

Espero ter ajudado :-)

Anexos:
Perguntas interessantes