História, perguntado por Tafanysouza2941, 10 meses atrás

por que ao final da primeira guerra mundial os estados unidos se tornaram o país mais rico do mundo? alguém sabe?

Soluções para a tarefa

Respondido por Atlantis
0
Tafany,

Durante a Primeira Guerra Mundial, os Estados Unidos ofereceram insumos bélicos para os países participantes do conflito. Com uma participação direta pífia, manteve seu lucro ao oferecer armas e tornou-se o país mais rico daquela época.
Perguntas interessantes