História, perguntado por larissa120307, 7 meses atrás

o Brasil sempre foi uma república? justique.​

Soluções para a tarefa

Respondido por gomessilvathays451
4

resposta

República no Brasil foi proclamada em 15 de novembro de 1889 e encerrou o Período Imperial, iniciado em 1822, com a Independência. No transcorrer da história brasileira, entretanto, nem sempre a democracia prevaleceu. ... No período inicial da República, entre 1889 e 1894, o país foi dominado pelos setores militares.

Perguntas interessantes