História, perguntado por enzolatorre01, 1 ano atrás

O Brasil sempre foi um pais democratico?

Soluções para a tarefa

Respondido por camilabrum61
10
Não. Após a sua independência fomos o único país do Continente a adotar a monarquia onde durante o reinado de D.Pedro I e D.Pedro II somente as elites tinham o poder político e a escravidão marcou o período manárquico.Após a Proclamação da República o povo também se viu alijado do processo democrático e o pior enfrentamos a ditadura Vargas (1930-1945) e o período militar (1964-1985).

enzolatorre01: muito obrigado
Respondido por EliezerRod
10

não, o Brasil já foi uma colônia até 1815;

depois da independência o  Brasil foi governado por uma monarquia até 1889;

e República desde 1930, apesar dessa república ser dividida em vários períodos: República velha e Nova;

Ditadura Civil  sob o governo de Getúlio Vargas;

Parlamentarismo sob o governo de João Goulart;

Ditadura Militar de 1964 até 1984;

até voltar a República Democrática nos dias de hoje.


enzolatorre01: muito obrigado
EliezerRod: de nada
Perguntas interessantes