História, perguntado por Bobby111, 1 ano atrás

por que é comum afirmar que o brasil deixou de ser colônia de portugal para se tornar "colônia" da Inglaterra?

Soluções para a tarefa

Respondido por ErynL
8
Após a emancipação do Brasil colônia, a Inglaterra começou a explorar nossa matéria prima e cobrar impostos, já que havia feito um acordo com Portugal. Portugal parou de nos "sugar" para dar lugar a Inglaterra.
Perguntas interessantes