Geografia, perguntado por juliiafreiitas2712, 11 meses atrás

é correto afirmar que o Brasil é um país predominantemente tropical? Explique

Soluções para a tarefa

Respondido por bergerio
2

Resposta:

sim

Explicação:

pois a maioria do territorio brasileiro apresenta-se entre os trópicos de capricórnio e o trópico de câncer.

Perguntas interessantes