Geografia, perguntado por guilheme10, 1 ano atrás

o que faz do Brasil um país predominante tropical

Soluções para a tarefa

Respondido por JOAOBRASILLLL
1
O Brasil pode ser considerado um país tropical. A referência tropical é referente a tudo o que esteja entre o Trópico de Câncer, que fica no hemisfério norte, e o Trópico de Capricórnio, que fica no hemisfério sul.
Como o nosso país tem mais de 90% de seu território entre os dois trópicos,é considerado tropical.
Ainda, o termo país tropical também é empregado para fazer referência aos países subdesenvolvidos ou em desenvolvimento.O Brasil também se enquadra nessa concepção.
Assim, ambos os motivos enquadram o nosso país como um “país tropical”.
Perguntas interessantes