História, perguntado por mari7366, 9 meses atrás

O que significa dizer que o Brasil se tornou uma república? ​

Soluções para a tarefa

Respondido por brebgasosa
1

Brasil República. Brasil República refere-se ao período da história do Brasil em que o regime republicano foi instaurado, ou seja, desde a proclamação da república, que ocorreu com um golpe feito por marechal Deodoro da Fonseca em 15 de novembro de 1889.

Perguntas interessantes