Geografia, perguntado por vitoria5578, 1 ano atrás

e correto afirmar que o brasil é um país predominante tropical?​

Soluções para a tarefa

Respondido por batistinhatiradentes
4

Resposta:

sim, pois mesmo que o Brasil possua mais de um clima, o predominante na maioria do território brasileiro é o tropical pois ocupa a maior parte

Explicação:

Perguntas interessantes