História, perguntado por luizphelipealbuquerq, 9 meses atrás

você considera os estados unidos um império?

ajuda aeee​

Soluções para a tarefa

Respondido por rebecascabrall
1

Resposta:

Os EUA têm sido um império, desde pelo menos 1803, quando Thomas Jefferson comprou o território da Louisiana (…) O império estendeu-se ao exterior, adquirindo colônias, de Porto Rico e Filipinas ao Havaí e Alasca", escreveu.

Explicação:

Perguntas interessantes