Geografia, perguntado por EuamoBTS, 10 meses atrás

É correto afirmar que o Brasil e um país predominante tropical?Por que ?

Soluções para a tarefa

Respondido por Usuário anônimo
27
Sim, podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio.
Respondido por adrianyandrade1978
3
sim pela quantidade q ainda restam de arvore e frutos no brasil
espero ter ajudado
Perguntas interessantes