História, perguntado por jeffersonfetter, 1 ano atrás

podemos dizer que após a independência, o Brasil deixa de ser colônia portuguesa e passa a ser uma “colônia” inglesa? Justifique.

Soluções para a tarefa

Respondido por esterstardoll00
1
Não Depois que o Brasil deixou de ser colonia Ficou Independente '-'
Respondido por jaicida
2
nao. depois que o brasil deixou de ser colonia de portugal passou a ser independente e uma republica ou seja democracia as pessoas estao libertas para se expressar de qualquer maneira! bjs! 
Perguntas interessantes