História, perguntado por JuniorSF956, 10 meses atrás

por que ao final da primeira guerra mundial os estados unidos se tornaram o país mais rico do mundopreciso de ajuda nessa, por favor.

Soluções para a tarefa

Respondido por dienachtbringer
0
essa afirmação é um tanto problemática e sensacionalista, mas basicamente os Estados Unidos ganharam dinheiro pra caramba com a indústria bélica porque venderam armas e afins para os dois lados da guerra. o importante pro Uncle Sam sempre foi lucrar
Perguntas interessantes