Geografia, perguntado por IaraSilva11, 1 ano atrás

É correto afirmar que o Brasil é um país predominante tropical ? Explique.

Soluções para a tarefa

Respondido por Bru94
3
Sim, porque mais de 90% das suas terras se encontram entre os trópicos de câncer e capricórnio. 
Perguntas interessantes