Geografia, perguntado por ericvbm, 1 ano atrás

é correto afirmar que o Brasil é um país predominante tropical ?explique.

Soluções para a tarefa

Respondido por EmillyCraft4
2
não porquê a uma parte do Brasil é tropical e uma parte pequena é temperada então podemos afirmar que o Brasil é mais ou menos tropical
Respondido por limapeca123
3
Sim , pois a parte mais iluminada do globo terrestre é o Brasil ou seja a maior parte do território brasileiro localiza-se na zona tropical
Perguntas interessantes