História, perguntado por lv49350, 10 meses atrás

Por que, ao final da Primeira Guerra Mundial, os Estados Unidos se tornaram o país mais rico do mundo?​

Soluções para a tarefa

Respondido por DeusLucas
4

Resposta:

Os Estados Unidos, durante a guerra, participaram vendendo armas e suprimentos aos aliados da Entente, usando sua economia forte para criar dependência econômica de países como Inglaterra e França. No pós-guerra a Europa estava destruída e os Estados Unidos seguia prosperando.

Perguntas interessantes