História, perguntado por Driy11, 1 ano atrás

Como se formou os estados unidos da América?

Soluções para a tarefa

Respondido por miiLahstyle11
13
Primeiramente, os ingleses foram a América do Norte objetivando o imperialismo, colonizar, explorar. Enfim, e também queriam mais terras então pegaram uma grande parte do México, o que gera polêmica até hoje, e assim depois de colonizações diferentes em alguns estados os EUA foram formados.

Driy11: obg
miiLahstyle11: Nada! !♡
Perguntas interessantes