Depois da Independência o Brasil deixou de ser colônia de Portugal para se tornar colônia da Inglaterra??
Continuava existindo o exclusivo pacto colonial??
Quem fazia as leis para o Brasil??
Soluções para a tarefa
Respondido por
2
Resposta:
O fim dessa relação ocorreu somente em 1808 com a vinda da família real para o Brasil, quando D. João assinou uma Carta Régia onde o Brasil deixava de comercializar somente com Portugal.
Perguntas interessantes