História, perguntado por NoemiSouza5783, 1 ano atrás

estados unidos no século 19 resumo de alunos

Soluções para a tarefa

Respondido por Nina833
0
Após conquistar sua independência no final do século XVIII, os Estados Unidos da América consolidaram-se como Estado-nação e passaram por grandes transformações durante o século XIX. Entre as mudanças ocorridas, destacou-se a grande expansão territorial que o país sofreu, seja pela compra de territórios, seja pela guerra.
Anexos:
Perguntas interessantes