História, perguntado por lucia7451, 6 meses atrás

o que mudou desde que o Brasil
se tornou a República?​

Soluções para a tarefa

Respondido por kailcavmarini
1

Resposta:

Com a Proclamação da República, o Brasil tornou-se um país federalista, isto é, as províncias (renomeadas agora de estados) passaram a ter mais autonomia em relação ao Governo Federal, e foi adotado o presidencialismo, como determinou a Constituição de 1891.

Perguntas interessantes