Geografia, perguntado por 12gmail, 1 ano atrás

é correto afirmar que o Brasil é um país predominamente tropical?explique.

Soluções para a tarefa

Respondido por brunahullm
9
sim, pois observando o Brasil em um todo vemos que tanto no norte, sul, centro-oeste e etc, o clima predominante é o tropical .
Respondido por DiegPALI
2
sim,Por mais que ele seja cortado pela linha do equador a proporcao maior de seu território esta mais proximo ao Tropico de capricornio . Aproximadamente na metade do seu territorio se encontra sobre a área do tropico de capricórnio, logo ele e predominantemente Tropical.
Perguntas interessantes