História, perguntado por millena7677, 6 meses atrás

Quando o Brasil se torna uma República?​

Soluções para a tarefa

Respondido por ladyangewomon
2

Resposta:

Oi, Millena.

 As fronteiras do país só foram finalizadas no início do século XX. Em 7 de setembro de 1822, o país declarou sua independência de Portugal e se tornou o Império do Brasil. Um golpe militar em 1889 estabeleceu a Primeira República Brasileira.

 Tenha uma boa tarde!

Respondido por henriquecacianosilva
2

Resposta:

no dia 15 de novembro de 1889 o Brasil deixou de ser um reino e passou a ser uma república

Explicação:

espero ter te ajudado

Perguntas interessantes