Geografia, perguntado por Araujo3456, 1 ano atrás

É correto afirmar que o Brasil é um país predominante tropical? Explique.

Soluções para a tarefa

Respondido por fafatkmas
5
Sim, já que a maior parte do seu território se apresenta perto de trópicos (Equador - norte e nordeste/Capricórnio - CO, sul e sudeste).
Perguntas interessantes