você considera os estados unidos um império?
ajuda aeee
Soluções para a tarefa
Respondido por
1
Resposta:
Os EUA têm sido um império, desde pelo menos 1803, quando Thomas Jefferson comprou o território da Louisiana (…) O império estendeu-se ao exterior, adquirindo colônias, de Porto Rico e Filipinas ao Havaí e Alasca", escreveu.
Explicação:
Perguntas interessantes
História,
6 meses atrás
Português,
6 meses atrás
Artes,
6 meses atrás
Matemática,
9 meses atrás
Inglês,
9 meses atrás
ENEM,
1 ano atrás
Pedagogia,
1 ano atrás
Matemática,
1 ano atrás