Geografia, perguntado por eyck3459, 7 meses atrás

É correto afirmar que o Brasil é um país
predominantemente tropical? Explique.​

Soluções para a tarefa

Respondido por celeste64
1

Resposta:

Sim, podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio. Sim! Isso porque o território nacional está localizado em grande parcela diante da região entre os trópicos.

Explicação:

espero ter ajudado

Perguntas interessantes