Geografia, perguntado por sarajunie, 1 ano atrás

É correto afirmar que o brasil é um país predominantemente tropical? explique

Soluções para a tarefa

Respondido por Usuário anônimo
1
observando o Brasil vemos que no norte Sul, Centro Oeste etc. o clima predominante é tropical......

a reposta é sim.......
Respondido por guinomgamer
1
Se a maior parte de um certo tropico passar por ele ele é predominantemente tropical.
Perguntas interessantes