História, perguntado por deiverson666, 7 meses atrás


os estados unidos enriqueceu após a guerra civil,onde passaram a praticar o imperialismo​

Soluções para a tarefa

Respondido por liliandantas882
7

Explicação:

iniciaram iniciaram um processo de expansão territorial sobre outros locais na África Ásia e Oceania


deiverson666: vlw❤
Perguntas interessantes