História, perguntado por leonardos13160328, 7 meses atrás

Sobre os Estados Unidos da América (EUA) é correto afirmar que:

Os EUA eram uma colônia do Brasil

Os EUA eram uma colônia da Inglaterra

OS EUA eram uma colônia do Canadá

Os EUA eram uma colônia de Portugal

Os EUA eram uma colônia da França

Soluções para a tarefa

Respondido por sergioadarioneto
1

Resposta:

os EUA eram uma colônia da Inglaterra

Respondido por matheuserralima
0

Resposta:

Os EUA eram uma colônia da Inglaterra

Explicação:

Perguntas interessantes