História, perguntado por LucasBCP, 1 ano atrás

Quais foram as mudanças ocorridas no Brasil após a chegada da família real?

Soluções para a tarefa

Respondido por byapeters
18
Fim do Pacto colonial,(abertura dos portos) Brasil se tornou Império Português, a cidade sofrei influências europeias.  Espero ter ajudado, xoxos

LucasBCP: obg pela resposta mas o Brasil é um país não uma cidade.
Perguntas interessantes