História, perguntado por jefrei2019, 10 meses atrás

O que significa dizer que um país é absolutista?
OBS: PRECISO IMEDIATAMENTE DA RESPOSTA!!!​

Soluções para a tarefa

Respondido por helen916466
2

Resposta:

O absolutismo foi uma forma de governo que prezava pelo poder absoluto do monarca e surgiu para atender as demandas da nobreza feudal e da burguesia mercantil.

Respondido por manmandaballet54
0

Resposta:que o país é governado por reis

Explicação:

Anexos:
Perguntas interessantes