História, perguntado por JoãoGui80, 1 ano atrás

quais as principais mudanças que ocorreram no Brasil a partir da vinda da família real portuguesa em 1808?

Soluções para a tarefa

Respondido por Victorandradeo
10
Olá, JoãoGui80 !
 
 Houve a abertura dos portos brasileiro para comerciar com os países amigos ( Inglaterra ) e, também, o Brasil deixou de ser uma colônia para se tornar o Reino Unido de Portugal e Algarves.
 Culturalmente falando, como o Rei João VI se estabeleceu no Rio de Janeiro, ele trouxe consigo vários elementos da cultura européia.Também, D. João VI autorizou a impressão de livros e jornais brasileiros.



JoãoGui80: obrigado pela ajuda
Perguntas interessantes