História, perguntado por nicolle9735, 6 meses atrás

Depois da Independência o Brasil deixou de ser colônia de Portugal para se tornar colônia da Inglaterra??
Continuava existindo o exclusivo pacto colonial??
Quem fazia as leis para o Brasil??​​

Soluções para a tarefa

Respondido por gabrielcamarogtav
2

Resposta:

O fim dessa relação ocorreu somente em 1808 com a vinda da família real para o Brasil, quando D. João assinou uma Carta Régia onde o Brasil deixava de comercializar somente com Portugal.

Perguntas interessantes