Geografia, perguntado por carolinerocha9075, 3 meses atrás

E correto afirmar que o Brasil e um país predominantemente tropical?explique

Soluções para a tarefa

Respondido por protectorofthekernel
1

Resposta:

Sim.

Sendo a região tropical do planeta aquela que fica entre o Trópico de Câncer e de Capricórnio, com auxílio de um mapa, vemos que a grande maioria do território brasileiro se encontra ali.

Explicação:

Perguntas interessantes