História, perguntado por SanaillyIngrid11, 1 ano atrás

Alguém poderia me explicar o EUA no seculo XIX

Soluções para a tarefa

Respondido por Teafilo7
2
Após conquistar sua independência no final do século XVIII, os Estados Unidos da América consolidaram-se como Estado-nação e passaram por grandes transformações durante o século XIX. Entre as mudanças ocorridas, destacou-se a grande expansão territorial que o país sofreu, seja pela compra de territórios, seja pela guerra.
Perguntas interessantes