Quais foram as mudanças ocorridas no Brasil após a chegada da família real?
Soluções para a tarefa
Respondido por
18
Fim do Pacto colonial,(abertura dos portos) Brasil se tornou Império Português, a cidade sofrei influências europeias. Espero ter ajudado, xoxos
LucasBCP:
obg pela resposta mas o Brasil é um país não uma cidade.
Perguntas interessantes