Geografia, perguntado por andersonlima5845, 1 ano atrás

é correto afirmar que o brasil é um pais predominantemente tropical? alguém sabe? por favor ;)

Soluções para a tarefa

Respondido por sarahlemesferr
0
sim, pois observando o Brasil em um todo vemos que tanto no norte, sul, centro-oeste e etc, o clima predominante é o tropical
Perguntas interessantes