Geografia, perguntado por vitorpereiradominici, 6 meses atrás

é correto afirmar que o Brasil é um país predominantemente tropical explique​

Soluções para a tarefa

Respondido por leonelloigor
3

Resposta:

Sim, podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio.

Explicação:

Perguntas interessantes