Geografia, perguntado por may431, 10 meses atrás

oque significa dizer que o Brasil é uma federação ?

Soluções para a tarefa

Respondido por LaryssaCostaF
6
O Brasil , apesar de ser uma República também é uma Federação, ou seja, tem uma autonomia governativa.
Perguntas interessantes