Geografia, perguntado por vi445, 1 ano atrás

O que significa dizer que o Brasil é uma república ?

Soluções para a tarefa

Respondido por lomynha25
6
significa que todos os brasileiros tem direitos e obrigações a ser cumprido numa República.Direito de voto,saúde,educação...
E tem os deveres de manter a paz entre a humanidade e de colocar políticos de sua inteira confiança para conduzir o país...
Respondido por roseesterlucas11
0

Resposta:

República é a forma de governo adotada pelo Brasil desde 1889, na qual o chefe de estado (Presidente da República) é eleito pelo povo, por tempo determinado, se diferenciando da monarquia

Explicação:

Perguntas interessantes