Geografia, perguntado por meajudem2021, 6 meses atrás

é correto afirmar que o brasil é um país totalmente tropical? justifique

Soluções para a tarefa

Respondido por mariaraimundan18
1

Resposta:

Sim, é correto afirmar que o Brasil é um país predominantemente tropical porque se localiza na chamada zona térmica tropical

Explicação:

espero que tenha ajudado

Perguntas interessantes